La diferencia entre vender un negocio, una empresa y una marca comercial
La Valorización de Empresas está adquiriendo una importancia creciente en el mundo empresarial actual. Factores como las fusiones, absorciones, la entrada o salida de capital privado (socios), entre otros, requieren de un proceso para determinar el valor final de una Compañía.
Identificará la valorización vía múltiplo de EBITDA
Identificará la valorización vía CAPM
Conocerá algunos casos prácticos de valorización de Empresas.
Dirigido a: Gerentes Generales, Gerentes y Subgerentes de Administración y Finanzas, Directores, CEO y Empresarios, entre otros.
Expositor: Marcelo Matus de la Parra
Ingeniero Comercial, Universidad de Chile. MBA, Universidad Adolfo Ibáñez. Postgrado en Finanzas, Universidad de Chile. Postgrado en Administración de Riesgo, Universidad del ITSMO, Panamá. Post-título U.C.L.A. Docente de Diplomados, Magíster en Control de Gestión y Magíster en Finanzas, Universidad de Chile. Socio – Director de Integral Chile. Director de 5 Compañías de diversos sectores industriales.
John Thompson de Symantec fue incluido entre los 25 principales líderes en ventas de canal por CRN.
EE.UU. 1 septiembre, 2016. Symantec Corp (NASDAQ:SYMC), la empresa líder mundial en seguridad informática se enorgullece en anunciar que CRN, una marca de The Channel Company, ha incluido a Greg Clark, CEO de Symantec, en su lista de los 100 principales ejecutivos de 2016 y a John Thompson, vicepresidente global de ventas de canal y a socios, entre los 25 principales líderes en ventas de canal de 2016. Esta lista anual ofrece un reconocimiento a los líderes del sector de la tecnología que han desempeñado un papel integral en la estructuración del canal de TI actual, ya sea al impulsar grandes cambios culturales, crear nuevas y mejores oportunidades, o bien al forjar nuevos caminos innovadores hacia el éxito.
Greg Clark, CEO de Symantec.
Greg Clark es un veterano del sector de seguridad que cuenta con una larga y probada trayectoria en la creación de grandes empresas globales a escala. Durante los cinco años que desempeñó su cargo en Blue Coat, Clark fue un líder inigualable, ya que condujo a la empresa por el cambiante mundo de la seguridad informática y realizó varias adquisiciones estratégicas, incluida la de Perspecsys y Elastica, a fin de reforzar la oferta tecnológica de la empresa. Actualmente, tras el cierre de la adquisición de Blue Coat por parte de Symantec el 1 de agosto, Clark se desempeña como CEO de Symantec y se ha unido al directorio de Symantec. Antes de desempeñar funciones en Symantec y Blue Coat, Clark fundó la firma Dascom de software de seguridad, que más tarde constituyó la base para el producto de seguridad Tivoli de IBM. En IBM, se desempeñó como ingeniero de seguridad distinguido.
John Thompson dirige Worldwide Partner Sales (Ventas a socios internacionales) de Symantec, un ecosistema valuado en varios miles de millones de dólares que maneja más ingresos provenientes de la venta de software de seguridad en la comunidad de socios que cualquier otra empresa en el mercado. Con dos décadas de experiencia en el sector, Thompson estuvo los últimos dos años al frente de la organización dirigida por el canal de Symantec supervisando los modelos de cobertura, ventas y programas de incentivos para todos los socios, lo que generó el crecimiento de nuevos ingresos para Symantec. Los socios continuarán siendo un aspecto fundamental en el camino de Symantec hacia la estrategia de mercado.
“Los ejecutivos incluidos en nuestra lista de los 100 principales de 2016 han conducido a sus empresas hacia logros extraordinarios, tanto a nivel tecnológico como empresarial”, afirmó Bob Faletra, CEO de CRN. “Felicitamos a cada uno de los 100 principales ejecutivos de este año y celebramos sus innovadoras contribuciones al avance del canal de TI”.
Si quieres captar la atención de nuevos clientes para tu negocio en línea debes aprender el valor de la primera impresión.
Santiago, Chile. 24 agosto, 2016. En este artículo te enseñaremos cómo causar una buena primera impresión, ya que las primeras impresiones son de gran alcance.
En las relaciones personales de negocios o personales, el primer encuentro tiene un enorme impacto en cómo los demás te tratarán y de cómo se desarrollará tu trayectoria en futuras interacciones. Para las pequeñas empresas (PYMEs) funciona igual, un sitio web es a menudo la primera cosa que los clientes potenciales verán. Y para bien o para mal, ese sitio web es una carta de presentación, el cual trae consigo las mismas oportunidades que una presentación en el mundo real.
Un vistazo rápido a tu negocio en línea basta
Los seres humanos estamos acostumbrados a hacer juicios o análisis con mucha rapidez. Puede que te sorprenda pero los psicólogos dicen que a veces solo basta con 30 segundos o menos para crear una primera impresión de algo o alguien. Entonces todos los que visitan tu sitio web de negocios, deben quedar encantados a simple vista por los colores, imágenes y fuentes de tu página web. El conjunto de todos los elementos les permitirán a tus clientes construir inmediatamente una impresión o reacción visceral de tu negocio en línea. Por ejemplo, si el sitio no tiene una buena estructura y el diseño web de tu página no es muy coherente acorde a la imagen corporativa que quieres transmitir, puede que ello envíe un mensaje implícito de que el negocio es poco profesional o inmaduro. Por lo tanto, no todo se centra en el perfeccionamiento del contenido, también se trata de transmitir una sensación de credibilidad, profesionalismo y la estabilidad para animar a los visitantes a explorar a fondo el sitio web.
El siguiente nivel para formar una buena impresiones de tu negocio en línea
Una vez que los visitantes se han quedado un poco más en tu página y han decidió explorarlo, comienza la evaluación del mismo sobre los otros elementos del sitio, esta vez con un ojo más exigen
te y hasta incrédulo. Tu sitio debe ser capaz de responder positivamente a las siguientes preguntas:
¿El sitio web funciona bien en dispositivos móviles? (Diseño responsive)
¿La navegación es intuitiva?
¿El tiene una buena galería de imágenes de sus productos y/o servicios, son imágenes actualizadas y adecuadas a la audiencia?
¿Cómo está distribuido el contenido de la página? ¿es funcional el contenido?
Todos los detalles de tu negocio en línea deben estar impecables para los usuarios
La confianza del consumidor puede ser sacudida rápidamente, si los visitantes observan que el sitio todavía tiene “Copyright 2001″ en el pie de página o si las fotografías, u otro contenido está caducado. Este tipo de detalles son fáciles de actualizar y solo requieren un poco de mantenimiento regular. Asegúrate de realizar una evaluación periódica del contenido de tu negocio en línea para comprobar la frescura.
Un mensaje corporativo, claro y conciso de tu negocio en línea
El sello definitivo de una buena primera impresión es tener un mensaje claro. Más allá de la credibilidad de tu negocio, debes responder esta pregunta ¿qué quiere un visitante por primera vez al entrar en tu sitio? Seguramente dirás “quién soy yo y por qué soy su mejor opción” incluso si tienes mucho que decir, las necesidades de tus potenciales clientes deben estar primero. Afinar el mensaje que deseas transmitir será muy importante, no busques palabras o una diagramación rebuscada y compleja. Recuerda, hay mucho que se dedica a diseñar un sitio web efectivo, pero lo más importante es plasmar una buena impresión. Después de todo, puede que no exista una segunda visita si no lo haces.
Según la tasa de penetración en el total de habitantes, el 46% de los chilenos posee un Smartphone.
Más de un tercio de las conexiones a Internet en Chile, se realizan desde smartphones y iPad. El 74% de los “usuarios mobile” se rehúsa a esperar más de 5 segundos a que descargue un sitio móvil.
Santiago, Chile. 22 agosto, 2016. Tras la reciente firma de la alianza estratégica de la Cámara de Comercio de Santiago con Exceda, partner tecnológico en eventos masivos de eCommerce CyberDay y CyberMonday de los últimos 4 años, Exceda Chile informó que el estudio eMarketer, ubica a Chile como el líder latinoamericano en la proyección del mCommerce, comercio electrónico para móviles.
El informe ubica a Brasil como el país con mayor cantidad de usuarios de smartphones en América Latina en 2016, con 57,8 millones, seguido por México, Colombia y en quinto lugar Chile, con 7,9 millones. En proporción a la población total del país, Chile encabeza la región, ya que alrededor del 46% de sus habitantes posee un teléfono inteligente.
En los últimos años, la tendencia a utilizar dispositivos móviles como medio de búsqueda de información, navegación y realización de transacciones comerciales en países latinoamericanos como Argentina, Brasil, México, Colombia y Chile, se incrementa año tras año. La mayoría de los usuarios que compran por Internet, lo hacen a través de sus dispositivos móviles.
En nuestro país, más de un tercio del tráfico de Internet ocurre a través de celulares y iPad, y el uso de aplicaciones y conectividad comienzan a transformar radicalmente la relación con los clientes y la calidad de su experiencia. Rodrigo Valdés, country manager de Exceda –representante de Akamai Technologies en Latinoamérica- definió como “Imprescindible, la garantía de una experiencia de conectividad, navegación, descarga y seguridad a todo usuario móvil. Esta plataforma es el principal escenario de la multimedia y del eCommerce en el corto y mediano plazo”.
Según estimaciones de eMarketer, el número de usuarios de smartphones residentes en Latinoamérica ascenderá a 182,4 millones en 2016. Se prevé un aumento del 22,2% cada año, alcanzando los 245,6 millones en 2019. Este indicador, convierte al mCommerce en un nuevo modelo de negocio para las empresas. El uso de aplicaciones móviles permite agilizar los procesos de gestión, compras e inclusive las consultas sobre los productos que realizan los consumidores antes de dirigirse al punto de venta. De esta forma las empresas están “al alcance de las manos” de sus clientes en cualquier momento.
De acuerdo a antecedentes de la CCS, en Chile existen 4,5 millones de compradores online, 10 millones de personas toman decisiones de consumo basadas en Internet, el número de tiendas físicas comienza a disminuir, mientras las tiendas online se duplican, e Internet se pone al centro de la estrategia de negocios del retail.
La tendencia indica que el 35% de los usuarios que realizan compras a través de dispositivos móviles, compran productos al menos una vez por semana, comparado con el 15% que lo hacen a través de desktops. De hecho, los usuarios móviles de eCommerce tienen mayor participación en los distintos canales de venta que los de desktop, ya que la experiencia web móvil tiene más impacto en las compras hechas online y offline, estos usuarios buscan productos, comparan precios y leen referencias online antes de sus compras.
Marco Aranda nuevo director del área de GDO (Global Document Outsourcing) de Xerox Chile.
Santiago, Chile. 22 agosto, 2016. Xerox Chile nombró a Marco Aranda como nuevo director del área de GDO (Global Document Outsourcing). Con esta designación la compañía, líder mundial en procesos de negocios y manejo de documentos, dará un nuevo impulso a su presencia en el mercado, apalancado por su sólida oferta de servicios de alta calidad que siempre se ajusta a las necesidades de cada cliente.
En esta nueva posición, Marco tendrá a su cargo el área comercial (Key Accounts) y la de preventa e implementación (PS&I), consolidándolas en una entidad con funcionamiento dinámico, flexible y de mayor autonomía en la toma de decisiones.
“Xerox es una compañía reconocida por su innovación constante y excelencia de servicio. Queremos potenciar estas características en la oferta que entregamos a nuestros clientes, con soluciones tecnológicas que les permitan facilitar su día a día y hacer más eficiente su trabajo. Ese es nuestro principal objetivo como compañía y será parte de mi gestión en GDO”, comenta el ejecutivo.
Marco Aranda ingresó a Xerox en noviembre de 2006 como CSM (customer services manager).
El ejecutivo ha desarrollado una exitosa carrera en el área comercial en Chile, Perú y Brasil, sustentada en sus conocimientos de Lean Six Sigma como Green Belt.
Marco es Licenciado en Administración de Empresas de la Universidad Católica de Sao Paulo (Brasil), con un MBA otorgado por la Pontificia Universidad Católica de Chile y estudios de perfeccionamiento en Mc Combs School of Business de la University of Texas.
Santiago, Chile. 22 agosto, 2016. Aún las empresas más exitosas deben buscar constantemente introducir nuevos productos al mercado, más bonitos, mejores y más baratos. Si no lo hacen corren el riesgo de caer rápidamente en el olvido y la irrelevancia como le pasó a BlackBerry y Nokia.
El economista Joseph Schumpeter, bautizó este proceso mediante el cual nuevas empresas y nuevos productos son capaces de reemplazar hasta las empresas más famosas y los productos más amados, como “destrucción creativa”. Las nuevas ideas, y los empresarios innovadores son capaces de destruir el valor de las empresas y empresarios que se quedan dormidos. Así, el capital y la mano de obra que están utilizando las viejas empresas queda libre para ser utilizado por las nuevas. Cuando los incumbentes pueden ser desafiados por las nuevas ideas y los empresarios emergentes, la aristocracia empresarial y los éxitos del pasado de nada sirven.
Por José Ramón Valente, socio y director ejecutivo de Econsult.
Quienes aseveran que la economía de mercado es un sistema creado para privilegiar a los ricos o a los apitutados, probablemente nunca han leído ni escuchado hablar de Schumpeter o del proceso de destrucción creativa.
La idea de Schumpeter de que nuevas empresas desplazan a las incumbentes, tiene implícito el supuesto de que los recursos en nuestro mundo son escasos. Ahora bien, como el tiempo es escaso, las personas tratan de utilizarlo de la mejor forma posible para hacerlo cundir. Esto lleva a que la gente se especialice en hacer las cosas para las que tiene más talento y preparación. El médico se dedica a ser médico y el futbolista a pegarle a la pelota. No tienen tiempo para plantar y cosechar los tomates que se quieren comer en la ensalada del almuerzo. Por lo tanto, los tienen que comprar al agricultor que decidió dedicarse a plantar tomates. “Voilà” tenemos un mercado. De hecho, cabe preguntarse: ¿qué parte de todo esto es una maquinación para favorecer a los ricos y apitutados?
Mi predicción es que la aparición del movimiento “No+AFP” será la mejor clase de economía que le podemos dar a los dirigentes del mundo estudiantil. Ambos grupos tendrán que competir por quién lleva más gente a la calle, por quién logra más cobertura de los medios, por quién obtiene más atención del parlamento, pero sobre todo quién logra una tajada más grande de los escasísimos recursos con que hoy cuenta el erario fiscal. Los dirigentes estudiantiles tendrán que hacer lo mismo que hacemos todos los que trabajamos día a día enfrentados a la competencia de otros que hacen lo mismo que nosotros, pero mejor. ¿Aumentarán el presupuesto de marketing para difundir sus actividades? ¿Contratarán buses para reducir el costo de ir a las marchas? ¿Repartirán Hot Dogs y pondrán música para hacerla más entretenida? También existe la posibilidad de que se sienten a conversar con los dirigentes del movimiento “No+AFP” para ponerse de acuerdo en no contratar buses ni regalar comida y para dividirse los recursos fiscales disponibles. Pero no creo que eso sea posible, porque será un acto de colusión pura y dura que ciertamente está reñido con las prácticas de un mercado competitivo. Será interesante ver qué ocurre en este mercado.
El próximo 1 de septiembre se realizará la principal jornada de networking del país, en la cual cerca de 50 grandes empresas se reunirán con potenciales proveedores PYME quienes les presentarán su oferta de valor.
La CCS (Cámara de Comercio de Santiago) realizará el jueves 1 de septiembre, en el Centro de Convenciones Parque Titanium, la novena versión de “Enlaces Comerciales”, rueda de negocios que reúne -durante una jornada- a ejecutivos de compra y adquisiciones de 50 o más grandes empresas con cientos de proveedores PYMEs, para conocer su oferta y explorar la eventual adquisición de sus productos o servicios.
“Enlaces Comerciales es una rueda de negocios consolidada, que durante nueve años ha generado oportunidades de negocios para empresas de menor tamaño con dificultades de acceder a esos grandes clientes, promoviendo buenas prácticas y apoyando el desarrollo sostenible de los negocios”, destacó el secretario general de la CCS, Cristián García-Huidobro.
Para generar las reuniones entre empresas, se construye una agenda en base a un match de oferta y demanda de más de 500 bienes y servicios, que incluye las siguientes categorías: agricultura y alimentos, alternativas financieras, artesanía, joyas, calzado, confección, accesorios, construcción, ferretería, electrónica, climatización, envases, embalajes, logística, hogar, salud y belleza, insumos y servicios de oficina, maquinaria y equipos, minería, metalmecánica, muebles, productos de madera, papelería, imprenta y servicios publicitarios, químicos, plásticos, caucho, servicios de recursos humanos y servicios de TI (software, hardware y comunicaciones e Internet).
Las PYMEs participantes a partir de esta semana pueden acceder a un taller preparatorio que les entrega herramientas para llevar a cabo una presentación eficiente, con pautas de trabajo para exponer sus productos y servicios en -aproximadamente- 20 minutos.
Enlaces Comerciales contará con 3 zonas para potenciar el intercambio de información y redes de contacto: zona internacional, con representantes de embajadas y oficinas comerciales; zona de reuniones entre PYMEs y, zona de financiamientos.
El evento, que se extenderá entre las 8:30 y las 18:00 hrs., proyecta generar más de 4.000 agendas formales, a las que se suman cientos de reuniones y contactos informales entre participantes.
Este año, durante el desarrollo de la jornada se realizarán charlas temáticas enfocadas a mejorar la competitividad de las PYMEs. Entre éstas destacan temas tales como: Opciones de financiamiento; cómo armar un plan estratégico; innovación en productos; cómo mejorar las ventas; herramientas de Corfo y ProChile; marketing y plataformas digitales, entre otros.
Las empresas interesadas en participar pueden inscribirse a los teléfonos: 2-2360-7149 o a través del e-mail enlacescomerciales@ccs.cl. o en www.enlacescomerciales.cl
México. 22 agosto, 2016. La transformación que ha traído Internet es sin duda, uno de los mayores factores que ha transformado al mundo, por lo tanto; a toda la Infraestructura Física que debe estar habilitada para soportar el tráfico de datos que se genera día con día, y no es para menos, ya que según un estudio de Cisco, indica que hasta 2015 existió una población total de usuarios en Internet de 3 mil millones de personas y se espera que para el 2020 esta cifra llegue a los 4 mil millones de personas con acceso a Internet, lo que representa más de la mitad de la población mundial actual.
Ahora bien ¿están las empresas preparadas para todo lo que resulta de esta interacción digital? Vivimos en medio de una transformación tecnológica acelerada y no importa cualquiera que sea el giro o el tamaño de la organización, lo que importa es que cuente con la capacidad de poder capitalizar estos cambios.
Existen cuatro áreas que Panduit considera primordiales para enfrentar esta “era digital”:
Asegurarse de que la infraestructura de comunicaciones está soportando y soportará correctamente los requerimientos actuales y futuros del negocio.
Definir la mejor estrategia para hacer más eficiente el uso de la Infraestructura en el Centro de Datos.
Conocer las tendencias y oportunidades del IoT, así como las soluciones tecnológicas para enfrentar los retos que este trae consigo.
Aprender cuál es la mejor estrategia de IT para colocar las aplicaciones y los activos donde pueden generar el mayor valor para el negocio.
Estos son parte de los componentes necesarios para lograr una Infraestructura Física que permita el avance del negocio y proporcione disponibilidad de la información en cualquier momento, lugar y dispositivo. “Cada una de estas áreas juegan un papel prioritario e importante en el que los Directivos de toda organización deben pensar y tomar acciones. El avance en la transformación de una organización en esta era digital, representa su permanencia en el futuro”, afirma Gabriela Meraz, directora de marketing de Panduit para LATAM.
Hoy en día, nos dirigimos a un 2020 que espera un total de 26,300 millones de dispositivos con algún tipo de conexión a Internet[1], por lo que existirán más datos, más interacción en redes sociales, más intercambio de información, más procesamientos, más necesidades de almacenamiento… Las respuestas tecnológicas ante esto, son desafiantes. El reto está en mantenerse y no sufrir del mal que en palabras de Terminator dirían: “hasta la vista baby”.
Panduit consiente de esta necesidad presentará el próximo 25 de Agosto su Foro “Panduit Innovation”, que tendrá lugar a partir de las 9 a.m. en el Hotel St Regis CDMX.
Un espacio que ofrecerá el intercambio de conocimiento y mejores prácticas tecnológicas en un ambiente de consultoría y formación para directivos, gerentes, y responsables de la Infraestructura de TI y OT.
Para obtener mayor información y registrarse al evento, consulte la página: http://bit.ly/2a7bSMH
Información del Evento:
25 de Agosto
Hotel St. Regis
Ciudad de México
Durante el evento la CACE presentó el estudio de eCommerce del primer semestre 2016.
Buenos Aires, Argentina. 19 agosto, 2016. Concluyó con éxito la décima edición del eCommerce Day Buenos Aires, evento que reunió a más de 3.000 profesionales de la industria, quienes debatieron sobre el futuro del eCommerce en Argentina y Latinoamérica.
“Actualmente estamos viviendo la segunda revolución del eCommerce, donde la ubicuidad del consumidor, los marketplaces y los dispositivos multipltaforma traen nuevas oportunidades y retos para el comercio de bienes y servicios”, afirmó Marcos Pueyrredon, presidente del eCommerce Institute, quien además destacó que el eCommerce tal como lo conocemos llegará a su fin en los próximos cinco años debido a la fusión del comercio tradicional con el electrónico, siendo la tendencia omnicommerce un estadio ineludible.
“Actualmente estamos viviendo la segunda revolución del eCommerce”, afirmó Marcos Pueyrredon, presidente del eCommerce Institute.
“Durante el primer semestre de 2016 se vendieron $ 171.000 por minuto. Este volumen de facturación representa un crecimiento del 60% respecto del mismo periodo del año anterior y, si a esto le sumamos que los niveles de satisfacción de los usuarios superan el 95%, debemos estar más que satisfechos con el desempeño de la industria”, explica Gustavo Sambucetti, presidente de la Cámara Argentina de Comercio Electrónico.
Como novedad, este año se realizó el primer eCommerce IT Camp, evento exclusivo para desarrolladores y perfiles técnicos y de sistemas orientado a la industria digital que convocó a mas de 200 profesionales del sector. “Este segmento se viene profesionalizando año a año con una alta demanda de perfiles calificados, lo que nos incentivó a desarrollar esta jornada y sensibilizar sobre la importancia de la educación tecnológica aplicada a los negocios por Internet”, manifestó Diego Urfeig, director ejecutivo de CACE.
Se entregaron los eCommerce AWARD´s Argentina 2016
Durante el evento se llevó a cabo la entrega de los eCommerce AWARDs Argentina 2016 donde un selecto Jurado Internacional eligió en cada categoría a la empresa que por su desarrollo y aporte al Comercio Electrónico y Negocios por Internet fue la más destacada en Argentina. Además, por primera vez los asistentes pudieron votar por sus favoritos a través de la aplicación eClub, desarrollada para crear una comunidad de interés en torno al Comercio Electrónico en Argentina y la Región.
Los ganadores por categoría fueron:
● Los Líderes del eCommerce en la Industria Turística: Despegar.com
● Los Líderes del eCommerce en Retail: Walmart
● Entretenimiento y Medios en eCommerce: Netflix
● Servicios IT y soluciones para eCommerce: Brandlive
● Servicios Financieros y Banca Online: Afluenta
● Indumentaria y Moda en eCommerce: Dafiti
● Agencia de Marketing Online para eCommerce: Fizzmod
● Mejor Pyme de eCommerce: Avenida.com
● Mejor iniciativa Mobile para eCommerce: PedidosYa
Ganadores eCommerce Day Buenos Aires 2016.
StartUp Competition: Los emprendimientos argentinos se destacaron durante el evento
Durante el eCommerce Day Buenos Aires se realizó una nueva edición argentina del eCommerce StartUp Argentina y la región premiando a los emprendimientos con mayor impacto en el mercado digital del país.
1er Puesto: WebCentrix
2do Puesto: The Food Market
Mención de honor: Wonoma
WebCentrix competirá junto a los ganadores del eCommerce Startup Competition de los 11 países donde se realiza el eCommerce Day Tour 2016 por ser los mejores de América Latina.
La hipertermia magnética, un área de investigación aplicada e interdisciplinaria de la física estudia los potenciales usos de nanopartículas magnéticas en la biomedicina.
Buenos Aires, Argentina. 18 agosto, 2016. En el amplio y complejo campo de estudios que ofrece el nanomagnetismo, área que investiga las propiedades, efectos y comportamientos de objetos a escala nano al ser sometidos a un campo magnético, se enmarca el surgimiento del Grupo de Magnetismo y Materiales Magnéticos (G3M) del Instituto de Física de la Universidad Nacional de La Plata (UNLP) dirigido por el investigador superior del CONICET y profesor titular de la UNLP, Francisco Homero Sánchez. Desde 2009, el grupo orientó su investigación a las posibles aplicaciones de nanopartículas magnéticas en la biomedicina, entre ellas la hipertermia magnética, la magnetofección, el transporte y liberación magnéticos de fármacos.
Grupo de Magnetismo y Materiales Magnéticos del Instituto de Física de la Universidad Nacional de La Plata.
El tratamiento terapéutico para enfermedades como el cáncer, el desarrollo de tumores o el envejecimiento celular es un tópico de interés para la ciencia y la sociedad en su conjunto. Del mismo modo, la nanotecnología ha conseguido dar algunas respuestas a necesidades en el área de salud. En este marco, el Ministerio de Ciencia, Tecnología e Innovación Productiva de la Nación realizó un workshop en el mes de junio que reunió a investigadores, científicos y representantes de empresas con el fin de presentar casos de vinculación y transferencia para el desarrollo de bienes y servicios nanotecnológicos.
En este sentido, la hipertermia magnética aparece como una terapia novedosa con altos niveles de selectividad y baja agresividad para curar tumores cancerígenos sólidos localizados. El procedimiento funciona a modo de un “sistema inteligente” en el cual se utilizan nanopartículas de óxido de hierro, las menos tóxicas para las células, que al ser expuestas a un campo magnético alterno absorben su energía para luego liberarla en forma de calor en los tumores. De este modo se induce la muerte programada de las células cancerígenas. “La ventaja de trabajar con nanopartículas magnéticas es su comportamiento, podemos manipularlas externamente para que cumplan una tarea, es decir, podemos tener una respuesta a demanda en forma remota”, explica Sánchez, quien lleva adelante el proyecto de investigación junto a Marcela Beatriz Fernández van Raap.
En lo que respecta a los aportes que ha realizado el grupo G3M en la materia, se ha avanzado en la generación de protocolos de síntesis de nanopartículas, la evaluación de niveles de citotoxicidad (toxicidad a nivel celular) en cultivos específicos, la definición de nanopartículas y campos magnéticos óptimos, la identificación de los mecanismos por los cuales éstas disipan el calor y la evaluación in vitro del efecto de la hipertermia magnética en cultivos de células determinados.
Así mismo, el grupo trabaja con ferrofluidos, un elemento que permite tener a las partículas en una suspensión coloidal estable, es decir, con propiedades estables en el tiempo y con geles magnéticos aptos para transportar y liberar fármacos. A su vez, éstos deben ser compatibles desde el punto de vista biológico: “Los problemas con los que nos encontramos implican la transversalidad entre disciplinas, al mismo tiempo hay que satisfacer requisitos biológicos y físicos, y muchas veces lo que optimiza la parte física no necesariamente es aceptable desde el punto de vista biológico o viceversa”, comenta Andrea Pereyra, integrante del grupo que también realiza investigaciones en el equipo del Dr. Rodolfo Goya del Instituto de Investigaciones Bioquímicas de La Plata (INIBIOLP).
Por su parte, en lo que refiere a los próximos avances en materia de hipertermia magnética, se está comenzando a trabajar in vivo, es decir, utilizando un modelo más próximo a lo que sería el desarrollo de tumores humanos, experimentando con ratones de laboratorio en colaboración con la doctora Patricia Setton del Instituto de Química y Fisicoquímica Biológicas – CONICET / UBA (IQUIFIB). Para tal fin, el grupo cuenta con un aplicador de radiofrecuencia desarrollado por el laboratorio LEICI de la Facultad de Ingeniería Electrónica de la UNLP.
El G3M está conformado por los investigadores miembros del CONICET Francisco H. Sánchez, Marcela Beatriz Fernández van Raap, Pedro Mendoza Zélis, Gustavo Alberto Pasquevich, Guillermo Arturo Muñoz Medina, Daniel Actis, Paula Soto, Nicolás Mele y mantiene una fructífera colaboración interdisciplinaria con otros grupos del país y del exterior, en cuyo marco se forman los becarios post doctorales Diego Fernando Coral, Andrea Pareyra, Diana Arrieta Gamarra, Juan Manuel Orozco Henao. El grupo reúne a doctores y doctorandos en física, ciencias biológicas, medicina e ingeniería y a becarios de países como Colombia, Perú y Argentina. Se trata de un grupo interdisciplinario que centra sus estudios en la producción, manipulación y aplicaciones de nanopartículas, abordándolos desde la física básica, coloides y geles magnéticos, abordando el diseño de materiales, su física básica y la optimización de sus respuestas ante estímulos magnéticos aplicados externamente.
San Francisco, EE.UU. 18 agosto, 2016. En foldimate.com ya se puede realizar el pedido del robot que llegará en 2017 para solucionar nuestras vidas: es capaz de planchar y doblar la ropa de forma automática.
Se trata de una máquina en la que podremos colgar camisas, toallas, pantalones y otras prendas (aún no acepta ni ropa interior ni ropa de cama) y dejar que realice el trabajo. Al cabo de pocos minutos tendremos una montaña de ropa doblada y planchada lista para guardar en el armario.
Como puede verse, después de doblada, la ropa pasa por una sesión de vapor aromático para eliminar las arrugas (lo que hace sospechar que no conseguirá alisar todo tipo de ropa, de hecho avisan que en algunos casos no podrá sustituirse por la plancha tradicional), pero consigue trabajar con 30 prendas doblando y “planchando” en solo 10 segundos cada una.
Será vendida a partir de US$ 700, y prometen tener extensiones para que sea posible realizar tareas adicionales, como doblar de alguna forma especial las camisas, por ejemplo.
Como en cualquier máquina, también existe la posibilidad de que alguna prenda se dañe en el proceso, de hecho la tasa de error es de un 1%. La máquina fue creada en San Francisco y el primer modelo inicial fue vendido en 2014, aunque tendremos que esperar para ver lo que opina la masa de consumidores cuando esté disponible en el mercado.
Santiago, Chile. 18 agosto, 2016. Las Cuentas Nacionales divulgadas en el día de hoy por el Banco Central de Chile corrigieron al alza el crecimiento del PIB del segundo trimestre de 2016, a 1,5% desde el 1,1% estimado preliminarmente a través de los datos mensuales de Imacec. El Imacec de Abril fue corregido de 0,7% a 1,4%; el de Mayo, de 1,8% a 2,2%; y el de Junio de 0,8% a 1%. Pese a esta corrección al alza, la economía mostró el menor crecimiento de los últimos siete trimestres. La serie desestacionalizada presentó un crecimiento incluso algo inferior, de sólo 1,3%, también marcando el punto más débil desde el tercer trimestre de 2014.
La revisión de las cifras del primer trimestre nos lleva a corregir levemente nuestra estimación de crecimiento para el año 2016, desde un 1,7% a un 1,8%. Ello supone un crecimiento similar para el tercer trimestre de 2016 (1,5%) y algo mayor para el cuarto (2,2%), por efecto de las bajas tasas de comparación interanuales.
Los resultados de las cuentas muestran elementos sorprendentes, tanto en aspectos relativos al consumo de los hogares y del Gobierno, así como en la inversión, que requieren un análisis cuidadoso de manera de no errar en los diagnósticos económicos. La velocidad de crecimiento de la economía no minera parece estabilizarse en cerca de un 2%, en tanto que el sector minero sigue restando dinamismo a la actividad interna, al contraerse a un ritmo de -3% en los últimos cuatro trimestres.
Repunte en la formación bruta de capital en el segundo trimestre: La inversión tuvo un comportamiento que superó nuestras estimaciones preliminares. Su crecimiento interanual fue de 2,7%, en lugar del 1,2% previsto, explicado por un importante crecimiento de 9,7% en la importación de maquinaria y equipos.
El análisis de las cifras de comercio exterior da cuenta que este crecimiento está básicamente circunscrito a material de transporte y motores y generadores, los que en conjunto representan alrededor de un tercio de las importaciones de bienes de capital. El resto de los componentes permanece débil, en especial la maquinaria para la minería y la construcción, lo cual no permite por ahora proyectar que esta tendencia será sostenida en los próximos trimestres.
Por su parte, la trayectoria de la inversión en construcción y otras obras ha entrado en la fase de enfriamiento prevista, por efecto del término de los beneficios tributarios a la compra de propiedades. En esta oportunidad se registró una leve caída de -0,2%, que contrasta con las expansiones del orden de 3% del segundo semestre de 2015.
Se debilita el consumo pero menos de lo esperado. El consumo presentó un crecimiento de 2,6%, inferior al del primer trimestre (2,9%) pero superando en forma importante las estimaciones preliminares, más cercanas a un 2%. Las razones de esta relativa fortaleza en la trayectoria del consumo, que se desmarca incluso del débil desempeño de la masa salarial y del freno del empleo asalariado, se fundamentan en un crecimiento muy acelerado en el consumo de Gobierno (7%, vs 3% nuestras estimaciones); un crecimiento muy importante en el consumo en servicios (2,8%); y un rebrote sostenido en el consumo de durables, desafiando el comportamiento pro cíclico que lo caracteriza. Su crecimiento fue en esta oportunidad de 3,1% en 12 meses (4% en el primer trimestre).
A diferencia, el consumo de bienes no durables, presentó un importante ajuste, al contraerse en -0,1% interanual. Esta representa la primera cifra en rojo desde la crisis de 2009.
Esta asimetría en el consumo, que rompe el patrón pro cíclico en durables y de estabilidad en los no durables, puede ser atribuida a la maduración del ciclo de gasto en adquisición de viviendas por parte de los hogares, ante la coyuntura tributaria ya extinguida. El proceso de equipamiento de las nuevas viviendas y la liberación de gasto captado antes por los sectores ligados a la construcción es consistente con la fuerza que presenta el gasto en durables y también en servicios.
Por otra parte, el frente exportador presentó un crecimiento de 1,2% en 12 meses, mejorando el desempeño del primer trimestre (0,9%), favorecido por un crecimiento muy satisfactorio en las exportaciones industriales (6,5%).
La realidad sectorial presenta grandes diferencias de crecimiento. Los rubros de Electricidad, Gas y Agua, Comercio, Servicios Personales, Transporte, y Administración Pública, lideraron el crecimiento de la economía chilena durante el segundo trimestre, con tasas cercanas al 4% y 5%. El sector construcción presentó una caída de -0,1%, lo mismo que comunicaciones (-0,6%) y Minería (-5,5%).
En resumen, los antecedentes de cuentas nacionales muestran una economía con una trayectoria de crecimiento que se ubica en el punto más bajo de los últimos siete trimestres. Sin embargo, la recuperación de la inversión, el mayor consumo de Gobierno y la resistencia del consumo de durables permitió acelerar el crecimiento de la demanda interna de 1,1% a 1,4% interanual a lo largo de los dos primeros trimestres de 2016. La utilización de inventarios ha amortiguado estos efectos en la medición final del PIB, lo mismo que la muy débil trayectoria de la minería.
Estimamos que el rebrote en el consumo de durables y de servicios debería alinearse al resto de la demanda de los hogares, conforme al sesgo que plantea la masa salarial y el mercado laboral, lo que no permitiría mantener las relativamente altas cifras de consumo del primer semestre. Estimamos que en los próximos trimestres aparecerá más nítidamente la maduración del ciclo en la construcción y los efectos en el consumo del menor crecimiento del empleo, que contribuirá a mantener la expansión del PIB por debajo del 2% en el segundo semestre.
Nueva York, EE.UU. 18 agosto, 2016. Josph Stiglitz, premio Nobel de Economía y profesor de la Universidad de Columbia, cree que el euro ha sido un fracaso económico “total”. Además, los países que se ven perjudicados por este desastre no pueden hacer nada para evitarlo.
Stiglitz explica en una entrevista concedida a Newrepublic que la creación del euro tal y como se ha confeccionado no puede funcionar. Este economista cree que “salir del sistema permite a los países elegir su propia tasa de interés y su propia política monetaria”.
Stiglitz explica que “si la Eurozona no puede prosperar junta, un divorcio en buenos términos, probablemente dividiéndose en dos o tres áreas monetarias distintas”, sería preferible.
Esta independencia monetaria podría permitir a los países de forma individual tener una mayor influencia sobre “el tipo de cambio, que ahora es realmente importante”. En la Eurozona el único tipo de cambio existente es el del euro, un tipo de cambio que refleja la economía de un conjunto de países heterogéneos y con diferentes modelos productivos y niveles de competitividad.
Sin poder influir sobre el tipo de cambio, a los países de la Eurozona sólo les queda “reducir sus salarios y los precios. Y cuando haces eso se incrementa el endeudamiento en términos reales y hace más complicado pagar lo que se de debe. Así no parece extraño que estallase una crisis política en Grecia”, destaca Stiglitz.
El fracaso del euro
“El euro no comenzó realmente hasta 1999, por lo que ni siquiera ha gozado de una década de éxito. El periodo de crisis está siendo más largo que el periodo previo a esta situación, y por lo tanto hay que decir que el euro ha sido un fracaso económico total”, sentencia el célebre economista, y que además no está solo en tan tajante conclusión.
Además, cuando se produce una situación como la actual, “debido a la estructura de la zona euro, los países no pueden hacer nada para salir del lío, excepto aceptar la depresión y el terrible proceso de ajuste, lo que termina minando a la sociedad”.
Stiglitz cree que el problema no es menor, no se trata “sólo de Grecia, es España, es Portugal. Ahora, la Comisión Europea ha amenazado con multas a España y Portugal, exigiendo una mayor austeridad. Mientras tanto, España y Portugal dicen que si implementan más austeridad, dada la imposibilidad de ajustar el tipo de cambio, volverán a vivir una recesión”.
Una unión monetaria diferente
Stiglitz explica en otra entrevista a Bloomberg, que “si la Eurozona no puede prosperar junta, un divorcio en buenos términos, probablemente dividiéndose en dos o tres áreas monetarias distintas”, sería preferible.
“Por supuesto que un divorcio no va a ser fácil. Podría hacerse de un modo que sea mejor que el sistema actual”, asegura Stiglitz. “Mejor aún sería que crearan instituciones que lo hicieran funcionar. La pregunta es: ¿lo harán?”.
EE.UU. 18 agosto, 2016. La recomendación no la hace cualquiera. Chema Alonso, el conocido hacker y jefe de datos de Telefónica, da razones para que, igual que hacemos con la del PC o notebook, tapemos la cámara de nuestro smartphone.
Probablemente usted sea uno de los muchos que tienen cubierta la cámara de su portátil con una cinta. Y hace bien, ya que las posibilidades de ser espiado por un hacker son reales. Entonces, si nos preocupa tanto la videovigilancia y el derecho a la intimidad, ¿por qué no hacemos lo mismo con la cámara de nuestro móvil?
Si lo piensa bien, está frente al portátil varias horas del día pero el smartphone va con nosotros allá donde vayamos. Si algún malware lo secuestrara o accediera al hardware de comunicación, podría hacer un seguimiento completo de nuestra vida.
Chema Alonso, uno de los hackers más conocidos de España y recientemente nombrado jefe de datos en Teléfonica, explica que estos troyanos emplean unas herramientas conocidas como RATS (Remote Administration Tools) que activan la webcam del dispositivo y graban a su antojo.
Este tipo de malware puede acceder a nuestro móvil de la manera más sencilla, como por ejemplo instalando algunas aplicaciones. Tanto la App Store como Google Play Store tienen mecanismo de seguridad para detectar posibles fraudes pero muchas de estas apps se disfrazan de una apariencia de lo más inocente, como por ejemplo las de linterna, y otras son infectadas, como le ocurrió a Pokémon Go.
Por eso conviene cerciorarse del origen y las credenciales de todo lo que descargamos en el móvil y revisar a qué intentan acceder de nuestro dispositivo. Seguramente se ha encontrado con apps que solicitan permiso para acceder a la cámara cuando ésta era completamente innecesaria para usarla.
Alonso explica que hay hackers que se especializan en infectar dispositivos susceptibles de capturar escenas íntimas, como pueden ser portátiles en dormitorios o el smartphone en según que circunstancias, para luego venderlas en páginas de contenido adulto. Y esto sucede con mucha más frecuencia de la que pensamos.
Si Zuckerberg lo hace, por algo será …
Para conmemorar los 500 millones de usuarios de Instagram, el fundador de Facebook y propietario de esta red de fotografía publicó una imagen suya en su perfil. La simpática fotografía dio la vuelta al mundo, no solo por la persona retratada y su composición fotográfica. A numerosos usuarios no se les escapó un pequeño detalle: su notebook, ubicado en su escritorio de oficina, tenía tapada con una cinta adhesiva la webcam. ¿Paranoia? ¿Leyenda urbana? ¿Realidad? Lo cierto es que solo el año pasado, Facebook invirtió US$ 13 millones en medidas de seguridad.
En la parte superior central y al costado izquierdo del notebook de Zuckerberg se pueden apreciar las cintas que tapan la cámara y el micrófono.
Zuckerberg, según cuentan diversos medios especializados, suele manifestar recelos sobre la seguridad informática y siente verdadera paranoia de ser “hackeado”, aunque recientemente un grupo de ciberdelincuentes lograron acceder a algunos de sus servicios online como Twitter o Pinterest porque su contraseña era “dadada”, una combinación demasiado débil. Sin embargo, por su posición empresarial (es uno de los empresarios más ricos del mundo) Zuckerberg, de 31 años, muestra una vez más que toma precauciones.
Se trata de una forma casera para tapar la cámara y evitar así que un posible ciberdelincuente pudiera tomar el control de la misma y, por otro lado, en la imagen también se puede apreciar que utiliza cinta aislante para obstruir la entrada del micrófono situado en el borde lateral izquierdo del dispositivo.
Gracias a herramientas de acceso remoto específicas, los cibercriminales pueden interactuar con la víctima: mostrar mensajes en la pantalla, abrir un website, eliminar la barra de herramientas, abrir el CD y un sinfín de travesuras.
Uno de los botines más ansiados por lo hackers son las fotos comprometedoras y el control remoto de la webcam puede ser una gran ventaja para ellos, según fuentes de la empresa de seguridad informática Kaspersky, que consideran que los voyeurs “recopilan imágenes de la víctima sin que ésta sepa que está siendo grabada y dependiendo de los hábitos y principios del hacker puede publicar las imágenes”.
Santiago, Chile. 18 agosto, 2016. La aplicación, que significa “observador” en mapudungún, permite conocer el estado de la red de Internet, saber cómo y en qué cantidad consumen datos tus apps y saber los momentos en que el servicio ha estado suspendido o con fallas.
Disponible en Google Play para dispositivos Android 4.1 en adelante, la aplicación desarrollada por investigadores chilenos del NIC Chile Research Labs, perteneciente a la Universidad de Chile, cuentan que la actualización de Adkintun Mobile responde a la necesidad de entregar un servicio más completo y estable.
Si bien Adkintun Mobile partió su marcha blanca en 2012, la actualización de la app, significa una renovación necesaria para entregarle a los usuarios una información más completa y ordenada de lo que está ocurriendo en sus teléfonos inteligentes.
La idea de esta App es entregarle la información a los usuarios para que ellos puedan decidir y conocer personalmente cómo es el servicio entregado por su proveedor de Internet móvil, y además que puedan conocer antecedentes relevantes en relación a los datos enviados y recibidos por el smartphone, además de zonas de mejor conexión y cobertura.
La aplicación funciona en base al monitoreo constante de las antenas de telefonía que proveen Internet, el estado de las redes 2, 3 y 4G, y el uso de datos por parte de tus aplicaciones y gadgets preferidos.
Cabe destacar que la aplicación jamás solicitará tus contraseñas o información personal.
Cisco rompe su silencio y anuncia que son 5.500 los despidos, el 7 % de su plantilla.
San José, EE.UU. 17 agosto, 2016. Cisco Systems Inc. despedirá a cerca de 14.000 empleados, cifra que representa casi un 20% de la fuerza de trabajo global del fabricante de equipos de red, y es la cifra mas alta en sus 32 años de historia.
La empresa está realizando la transición desde su origen en desarrollo de hardware hacia una organización más enfocada en el software y soluciones en la nube.
Recordemos que Cisco ha llevado a cabo importantes adquisiciones en los últimos meses para fortalecer su transformación hacia el nuevo contexto digital. Jasper, un proveedor de soluciones cloud para la IoT (Internet de las Cosas), es el vivo ejemplo de esta nueva estrategia. Pese a este momento de cambios, la compañía está en un buen momento financiero, con más de US$ 3.100 millones en ganancias y US$ 11.800 millones de facturación en el segundo trimestre de este año, un 2% más que en el mismo período del año anterior.
Cisco tiene una necesidad mayor de “conjuntos de capacidades diversas” para un “futuro definido por el software” de la que tenía en el pasado y que quiere capturar una porción mayor del mercado direccionable, apuntando a impulsar sus márgenes.
La compañía ya ha ofrecido muchos planes de paquetes de retiro anticipado.
Además de Cisco, otros gigantes tecnológicos también han anunciado recortes de puestos frente al declive de la industria de los computadores personales en los últimos años, como es el caso de Microsoft, HP e Intel.
En julio de 2014, Microsoft aplicó uno de los mayores despidos masivos en la historia de las empresas de tecnología, cuando anunció la desvinculación de 18.000 trabajadores. HP dijo en septiembre de 2015 que esperaba recortar 33.300 puestos en el curso de tres años.
Al 20 de abril, la empresa contaba con 73.104 empleados. El precio de la acción de Cisco ha subido mas de un 15% en los últimos 3 meses y llegó a un valor máximo de 9 años esta semana a US$ 31,23.
Cisco rompe su silencio y anuncia que son 5.500 los despidos, el 7 % de su plantilla
El dia de ayer al ser consultada Cisco, no respondió ante las consultas de los medios. Sin embargo, hoy 18 de agosto anuncia que son 5.500 los despidos, el 7% de su plantilla.
El anuncio coincidió con la publicación hoy de los resultados de su último año fiscal, que se cerró a fines de julio y en el que Cisco registró ganancias de US$ 10.700 millones, un 20 % más que en el año anterior.
“El mercado y nuestros clientes exigen que Cisco muestre determinación, que se mueva más rápido y genere más innovación que nunca”, señaló la compañía en un comunicado.
La empresa anunció que para lograr esa mayor flexibilidad y espíritu innovador impulsará una reestructuración con la que buscará concentrarse en la seguridad, la próxima generación de centros de datos, la nube y la Internet de las cosas, como se conoce a la creciente tendencia a conectar objetos de la vida diaria a Internet.
“La reestructuración eliminará 5.500 puestos, que representan alrededor del 7% de nuestra fuerza laboral global y empezaremos a implementar ese plan en el primer trimestre fiscal de 2017”, que comenzó a principios de este mes de agosto, señaló Cisco.
La empresa con sede en San José planea invertir los ahorros derivados del recorte de personal en las áreas que ha identificado como prioritarias para el futuro de la compañía.
Cisco indicó que planea un cargo de hasta US$ 700 millones asociado con compensaciones y despidos.
El cambio de rumbo llega tan solo un año después de que Chuck Robbins asumiese las riendas de Cisco como nuevo CEO de la compañía, tras dos décadas de John Chambers en el cargo.
A pesar de estas repetidas olas de despidos, el presidente ejecutivo de Cisco y ex CEO, John Chambers, ha sido un importante promotor de los esfuerzos de la industria TI para que el Congreso aumente la cuota de visas H-1B. Si las empresas no pueden ocuparun puesto de trabajo mediante talento local, las visas H-1B les permiten incorporar a trabajadores cualificados desde países extranjeros. Los críticos, como Jeff Sessions senador de Alabama, han acusado a Silicon Valley de utilizar las visas H-1B para importar trabajadores extranjeros de salarios más bajos, para desplazar a trabajadores estadounidenses mejor pagados. Cisco actualmente ocupa el lugar 28 de la lista de compañías que más utilizan las visas H-1B en EE.UU.
Nissan desarrolla un sistema de propulsión con bioetanol.
Tokio, Japón. 16 agosto, 2016. Nissan quiere revolucionar el sector del automóvil con un nuevo sistema de propulsión que no se ha utilizado nunca en un turismo. Se trata, básicamente, de una célula de alta eficiencia y con bajas emisiones que genera electricidad a partir de bioetanol. Concretamente, es una pila de combustible de bioetanol con un generador eléctrico SOFC (Solid Oxide Fuel-Cell), que usa la reacción de varios combustibles, incluyendo el etanol y el gas natural, con el oxígeno para generar electricidad de alta eficiencia. El nuevo sistema de propulsión con bioetanol podría llegar durante el mes de agosto.
El sistema de propulsión con bioetanol de Nissan
Francesc Corberó, director de comunicación de Nissan en España y Portugal, indicó que, “en Nissan, la investigación y el desarrollo de nuevas tecnologías al servicio de la movilidad sostenible es una prioridad absoluta. Este nuevo sistema de propulsión por pila de combustible de bioetanol es un nuevo éxito que nos ofrece un enorme abanico de soluciones para seguir reduciendo las emisiones. Se abre un nuevo escenario que vamos a seguir explorando, y que se une a nuestra importante apuesta por el vehículo eléctrico, un sector donde seguimos siendo líderes”.
La pila de combustible de bioetanol de Nissan es un sistema que se diferencia del que emplean modelos como el Toyota Mirai principalmente en que, en lugar de hidrógeno, emplea bioetanol como principal fuente de energía.
¿Cómo funciona? Pues tras llenar el estanque del auto con bioetanol (o también, con una mezcla de agua y etanol), en el nuevo sistema de propulsión de Nissan un reformador extrae de ese biocombustible las moléculas de hidrógeno. Posteriormente, estas son oxidadas en la célula SOFC al mezclarse con aire, lo que produce electricidad para el motor o los motores eléctricos. Según Nissan, la principal ventaja de esta solución es que ofrece muy bajas emisiones y una autonomía real prácticamente idéntica a la que se obtiene en un automóvil con motor de combustión convencional.
Afirman que con la célula de combustible de óxido sólido obtendrían autonomías superiores a los 600 kilómetros disfrutando al mismo tiempo de muchas de las ventajas que ofrecen los automóviles eléctricos, como son la baja sonoridad o la respuesta instantánea y lineal de sus propulsores. Además, tal y como señaló el vicepresidente ejecutivo de Nissan a cargo de ingeniería de producto, Hideyuki Sakamoto, las pocas emisiones de dióxido de carbono que produce el sistema podrían ser absorbidas y neutralizadas por el cultivo de la caña azúcar necesaria para fabricar el etanol.
Ginebra, Suiza. 16 agosto, 2016. Los primeros cinco puestos de la clasificación los ocupan, en orden descendente, Suiza, Suecia, Reino Unido, Estados Unidos y Finlandia.
Suiza se ha mantenido, por sexto año consecutivo, como la economía más innovadora del mundo, en un ránking en el que por primera vez aparece en las primeras 25 posiciones un país emergente, China.
El Índice Mundial de Innovación 2016, publicado por dos reputados centros de investigación en colaboración con la OMPI (Organización Internacional de la Propiedad Intelectual), muestra que China en el primer país de ingreso medios que se une a las economías altamente desarrolladas que tradicionalmente han dominado esta clasificación.
Los autores del análisis recalcaron al presentar el índice que, pese a la progresión de China, “persiste la brecha en materia de innovación entre países desarrollados y en desarrollo”, aunque hay cada vez un mayor convencimiento sobre la necesidad de fomentar la innovación para propiciar economías dinámicas.
Los primeros cinco lugares en Latinoamérica lo ocupan Chile, Costa Rica, México, Uruguay y Colombia.
Los indicadores analizados para cada uno de los 128 países incluidos son la calidad de sus instituciones, el capital humano vinculado con la investigación, la infraestructura, la sofisticación del mercado y de los negocios, el conocimiento y la producción tecnológica y la producción creativa.
De los resultados del índice se desprende que para que haya innovación es necesario invertir de manera constante y no sólo por periodos.
Por otra parte, el índice valora a los países según su “calidad de la innovación”, que toma en cuenta el nivel de las universidades, el número de publicaciones científicas y el de solicitudes internacionales de patentes.
De acuerdo a esos elementos, Japón, Estados Unidos, Reino Unido y Alemania ocupan los primeros lugares, mientras que China escala a la posición 17, lo que convierte a ese país en líder entre las economías de medianos ingresos, seguido de la India.
“La innovación es cada vez más global y las economías emergentes se convierten igualmente en líderes en innovación transfronteriza y en la que demanda la cooperación entre países”, reflexionó el director ejecutivo del Business School for the World, Bruno Lanvin. “Esta claro que continuamos en tiempos de crecimiento lento, pero aún así no debería disminuir la inversión en investigación y desarrollo”, concluyó el académico.
En la elaboración del índice también participó la Universidad Johnson Cornell.
Por Gonzalo Sanhueza, socio y director Econsult RS Capital.
Santiago, Chile. 16 agosto, 2016. En las últimas semanas, la demanda por reformar nuestro sistema de pensiones se instaló con más fuerza que nunca en la discusión ciudadana, obligando a la Presidenta Bachelet a anunciar el pasado martes un paquete de propuestas. Sin embargo, en medio de tan acalorado debate preocupa el nivel de desinformación con el que se discuten estas materias, viéndome en la necesidad de desmitificar algunos puntos, en particular aquellos que dicen relación con que: i) las comisiones cobradas son muy caras; ii) las AFP no compiten entre ellas; iii) los fondos se administran al antojo de los dueños de las administradoras; iv) el sistema no tiene un componente solidario, y v) las pensiones que paga el sistema son malas.
Sobre las comisiones cobradas, hay que aclarar que las AFP cobran una comisión que corresponde a un porcentaje del sueldo imponible de cada cotizante, variando entre 0,41% y 1,54% dependiendo de la administradora. Para establecer que las comisiones no son altas, estas pueden ser comparadas con las cobradas por otros sistemas de pensiones en el mundo. Como todos los sistemas tienen estructuras de comisiones distintas, la forma de hacerlas equivalentes es comparar el monto que reciben las administradoras en relación al promedio de los fondos que estas administran. En Chile, las comisiones cobradas alcanzan 0,67% de los fondos administrados, y se ubican, según un estudio realizado por la OCDE por debajo del promedio de la industria mundial de fondos de pensiones que se sitúa en 0,87%.
Respecto de la competencia entre las administradoras, si bien el número de actores se ha reducido considerablemente en el último tiempo, la industria de AFP no sería altamente concentrada según los estándares de la propia Fiscalía Nacional Económica. En efecto, la industria tiene un índice de concentración de 2.061 y de 2.319 por cotizante y fondos administrados, respectivamente, y el umbral para calificarla de altamente concentrada es de 2.500. Por otra parte, las AFP compiten fuertemente por comisiones, disminuyendo estas su valor a menos de la mitad en los últimos 10 años, lo que se ve reforzado por un importante movimiento de afiliados entre AFP, en el último año 465 mil afiliados se cambiaron.
En cuanto a que los fondos se administran al antojo de los dueños de las administradoras y los trabajadores no tienen opinión sobre esto, la verdad es que la industria de fondos de pensiones es una de las más reguladas. En efecto, existe una normativa de más de 100 páginas, en la que se establece estricta y específicamente en qué pueden invertir las AFP, por cuanto somos todos los trabajadores chilenos los que a través de nuestros legisladores definimos el destino de la inversión de nuestros fondos de pensiones. Más aún, cada inversión que realicen las AFP debe ser realizada en mercados transparentes y a precios que se puedan justificar, no existiendo inversiones realizadas a precios que no sean de mercado y no verificables. La autoridad audita y revisa minuciosamente que se cumpla la normativa, disponiendo las AFP de reales ejércitos de personas abocadas exclusivamente a la revisión y justificación de los precios a los que se realizan las transacciones.
En relación a que el sistema no tiene un componente solidario, se debe aclarar que desde su concepción se fijó un eje solidario para aquellos trabajadores que alguna vez cotizaron. En efecto, se estableció que si al momento de la jubilación no se alcanzaba una pensión mínima, el Estado supliría la diferencia para que todos los pensionados alcanzaran al menos dicha pensión. El costo de esta sería financiado por los ingresos generales de la nación, y recaería finalmente en todos los contribuyentes.
Por último, respecto de que las pensiones que paga el sistema son malas, hay que señalar que las administradoras no determinan la pensión que se paga, sino que esta depende del fondo que logra acumular cada cotizante al final de su vida laboral. Este fondo tiene dos fuentes principales, el aporte realizado por el trabajador mensualmente y el retorno del fondo administrado por la AFP. Según cifras publicadas por la OCDE, las rentabilidades alcanzadas por las administradoras se encuentran entre las más altas alcanzadas por los sistemas de pensiones en el mundo, por cuanto que las pensiones sean bajas no tiene que ver con que las AFP no hayan hecho bien su trabajo, sino más bien con que existe un grupo de afiliados que termina su vida laboral habiendo cotizado muy pocos años y por ende con un ahorro acumulado muy bajo. De hecho, los estudios muestran que para un trabajador que cotiza 25 años o más, su jubilación alcanzaría a más del 70% de las rentas promedio de los últimos 10 años.
Así, es de esperar que la discusión sobre la reforma al sistema de pensiones considere todos estos elementos y no se base en mitos ciudadanos que son los que mueven al electorado y por ende a nuestros políticos…
En esta nueva versión del evento tecnológico más importante de Latinoamérica, se darán cita autoridades, ejecutivos y académicos de Chile y el extranjero, a develar los desafíos y mejores prácticas productivas de la mano de la tecnología.
El evento contará con la participación principal de Jeanine Vos, directora ejecutiva de Connected Living Programme de GSMA; Richard Lester, vicerrector del Massachusetts Institute of Technology (MIT); Sebastián Edwards, economista y académico de la Universidad de California, UCLA y el Dr. Bernard S. Meyerson, CIO de IBM.
La actividad se realizará los días 7 y 8 de septiembres desde las 8:30 am en el Hotel W, ubicado en Isidora Goyenechea 3000, Las Condes.
Santiago, Chile. 16 agosto, 2016. Como una forma de celebrar los 15 años de existencia, Fundación País Digital dará vida a la cuarta versión del Summit País Digital 2016, Productividad Digital, donde destacadas autoridades, académicos y ejecutivos de Chile y el extranjero, debatirán y analizarán los principales desafíos que el país tiene en materia de productividad digital.
Temas como el futuro del trabajo; los avances y desafíos de la conectividad e infraestructura en Chile; soluciones productivas e inteligentes para la ciudad y la minería; ejemplos de aumento en su productividad a través del uso de la tecnología M2M/IoT, serán algunos de los tópicos a debatir en esta oportunidad.
El Gobierno de Chile determinó que este 2016 fuese el año de la Productividad, creando la Comisión Nacional de Productividad, organismo consultivo, de carácter independiente, autónomo y con un desafío permanente: aumentar la productividad para mejorar la vida y bienestar de las personas.
Según el Ministerio de Economía en su “Tercera Encuesta Longitudinal de Empresas”, las grandes empresas de países miembros de la OCDE son 1,4 veces más productivas que las chilenas. Además la falta de inversión en tecnología, innovación y desarrollo, impacta en una baja productividad tanto de la industria como de las personas.
Es por eso que el IV Summit País Digital 2016: Productividad Digital, resulta de gran importancia para fomentar la discusión, reflexión y generación de políticas públicas e iniciativas de privados en favor del desarrollo productivo del país.
“Queremos seguir contribuyendo a la generación de un espacio de reflexión y también de creación de las nuevas políticas públicas en materia de desarrollo digital en el país, creemos desde hace 15 años, que el trabajo mancomunado del Estado, Empresas y Academia, nos permitirán como país alcanzar el tan anhelado desarrollo que todos queremos, construyendo una sociedad con más y mejores oportunidades de crecimiento”, indicó Pelayo Covarrubias, presidente de Fundación País Digital.
La iniciativa es apoyada por Corfo e Imagen Chile además del auspicio de Samsung, Entel, Tata Consultancy Services, Engie, American Tower, Rittal, Safran, y Soluciones Orion.
Es probable que un error humano esté detrás del colapso en el sistema que dejó varados los vuelos de la segunda mayor compañía aérea durante seis horas el lunes.
EE.UU. 15 agosto, 2016. ¿Por qué los colapsos informáticos siguen causando grandes problemas a las aerolíneas, dejando a cientos de miles de pasajeros varados en los aeropuertos? Las respuestas son muchas: Error humano. Equivocaciones. Clásicas metidas de pata .
Esa es la explicación ofrecida por los expertos en informática de aerolíneas el lunes pasado, después de que Delta Air Lines luchó por hacer frente a una enorme falla de sistema. La segunda aerolínea más grande del mundo se vio obligada a retrasar y cancelar el despegue de todos sus vuelos al menos durante seis horas en todo el mundo.
Delta atribuyó el problema a un corte de energía. Pero únicamente esa causa no debería haber sido la razón de la caída del sistema; existen respaldos que deberían haber mantenido el sistema de Delta en línea y funcionando.
En tierra los aviones de Delta esperan mientras se soluciona la caída del sistema informático que falló el pasado lunes.
“Básicamente están diciendo: ‘Tuvimos una falla de energía en una ubicación, pero desafortunadamente no pudimos continuar con las operaciones en un centro de datos secundario a pesar de que gastamos cientos de millones de dólares en él’”, dijo Gil Hecht, fundador y presidente ejecutivo de Continuity Software, un experto en recuperación de desastres informáticos.
Eso es esencialmente admitir un error humano, añadió Hecht.
Un portavoz de Delta no quiso comentar si la aerolínea tenía un suministro de respaldo de energía independiente; pero expertos opinaron que con seguridad la compañía tiene uno.
Pero no se trata solamente de Delta. Estas caídas de sistema son comunes.
El colapso del lunes pasado se produjo tres semanas después de un corte informático en Southwest Airlines, que condujo a la cancelación de más de 1.000 vuelos. En mayo, problemas informáticos de JetBlue forzaron a los pasajeros a hacer el registro de forma manual en algunos aeropuertos. Los problemas informáticos retrasaron los vuelos de United Airlines en todo el mundo en 2015.
¿Por qué siguen ocurriendo estas fallas informáticas en las aerolíneas?
“La complejidad del centro de datos se sale de las manos”, dijo Hecht.
Las líneas aéreas, al construir capas y capas de sistemas —cada una con una configuración y propósito distinto—, accidentalmente fomentan la amenaza de que algo falle en sus redes informáticas.
“De alguna manera, alguien creó una amenaza en la situación de Delta Air Lines que causó que su recuperación de desastres no funcionara. ¿Cómo lo sé? Debido a que su sistema de recuperación de desastres debería haber funcionado. Y no fue así”.
Expertos en aerolíneas dicen que hay tres razones por las cuales los sistemas se caen.
1) No hay redundancia. Una aerolínea podría haber optado por no protegerse con un sistema de respaldo. Sin embargo, eso es poco probable para una compañía grande como Delta.
2) Hackeo. El accidente fue causado por un atacante cibernético. Pero esa probablemente no es la causa de la falla informática de Delta del lunes pasado, dijo Hecht, debido a que un golpe intencional contra el sistema de Delta probablemente hubiera sido aislado y todo habría sido puesto en línea de nuevo con mayor rapidez, dijo.
3) Error humano. Capas y capas de sistemas que se acumulan con el tiempo crean algún tipo de problema técnico y de repente todo se viene abajo. Esa es la explicación más probable para lo que ocurrió con Delta.
Como alternativa ya no podemos recurrir a los registros en papel durante una emergencia como esta. Eso ya no es factible, dicen los expertos —especialmente en vuelos internacionales— porque las computadoras de las aerolíneas están vinculadas a redes de seguridad gubernamentales como listas de exclusión aérea y sistemas de documentos de visado.
Entonces, ¿qué pueden hacer las compañías aéreas para evitar que estas fallas informáticas sucedan con tanta frecuencia?
Para empezar pueden instalar sistemas de revisión más automatizados. También podrían realizar simulacros de emergencia al interrumpir sus sistemas durante periodos de poca actividad y recurrir a sus sistemas secundarios y de respaldo para asegurarse que funcionan correctamente. Y por supuesto, evitar el recurrente error de parchar el parche con el parche del parche.
En mayo de 1967 varios radares de defensa antimisiles estadounidenses dejaron de funcionar. De forma inmediata, Estados Unidos puso a una flota de bombarderos atómicos en estado de “lanzamiento inmediato”.
Las llamaradas solares pueden provocar cortes en las comunicaciones y los sistemas informáticos.
EE.UU. 15 agosto, 2016. Fue el 23 de mayo de 1967, en plena guerra fría entre Estados Unidos y la Unión Soviética. Varios radares de defensa norteamericanos, especialmente diseñados para detectar misiles soviéticos en pleno vuelo, dejaron de funcionar al mismo tiempo ese día, hecho que fue interpretado como un bloqueo intencionado por parte del enemigo. El alto mando consideró el suceso como un acto de guerra y puso toda una flota de aviones equipados con armas nucleares en estado de “lanzamiento inmediato”.
Pero la crisis logró evitarse. Afortunadamente para todos, las Fuerzas Aéreas norteamericanas ya disponían de un incipiente programa de observación solar, y se dieron cuenta a tiempo de que los radares de defensa se habían bloqueado debido a una gran llamarada emitida por el Sol.
El incidente acaba de hacerse público en un estudio publicado en Space Weather por parte de un grupo de físicos y antiguos oficiales, ya retirados, de las Fuerzas Aéreas norteamericanas. Y en el artículo se describe con todo detalle lo cerca que estuvo Estados Unidos de lanzar un ataque nuclear contra la Unión Soviética. Hoy en día, toda una flota de observatorios espaciales vigila al Sol minuto a minuto, avisando de cualquier llamarada. Pero no era así en los años sesenta del siglo pasado.
Los militares norteamericanos, en efecto, empezaron a seguir la actividad solar a fines de la década pasada de los 50, utilizando para ello telescopios terrestres. Y no fue hasta los años sesenta cuando los servicios meteorológicos de las Fuerzas Aéreas empezaron a fijarse en las llamaradas solares, erupciones masivas de radiación en la atmósfera del Sol que, cuando alcanzan la Tierra, pueden provocar cortes en las comunicaciones y los sistemas informáticos.
En 1967, las predicciones de actividad solar llegaban diariamente al Comando de Defensa Aeroespacial de Norte América (NORAD), en boletines que resumían los datos de una serie de observatorios instalados tanto en los Estados Unidos como en otros lugares del mundo.
Y el 18 de mayo de ese año apareció en el Sol un grupo inusualmente grande de manchas solares, zonas oscuras y más frías que el resto y que suelen preceder a una actividad intensa. Los científicos, de hecho, avisaron de que se podría producir en los días siguientes una llamarada mayor que las demás.
Una vista del Sol del 23 de mayo de 1967. La región brillante en la región central superior muestra la zona desde donde se produjo la gran llamarada.
Efectivamente, los observatorios de Nuevo México y Colorado observaron un destello que fue visible a simple vista, mientras que un radio observatorio solar en Massachusetts informó que el Sol estaba emitiendo niveles sin precedentes de ondas de radio.
Los radares se desconectan
Durante el día siguiente y a medida en que el brote se desarrollaba, los radares de tres emplazamientos de misiles balísticos del Early Warning System (Sistema de Alerta Temprana), situados en la estación de las Fuerzas Aéreas de Claro, en Alaska, en a base aérea de Thule, en Groenlandia y en Fylingdales, en el Reino Unido, dejaron de funcionar casi al mismo tiempo.
Y aunque había más de un indicio disponible para darse cuenta de que los problemas se debían a la inusitada actividad solar, saltaron todas las alarmas ante un posible ataque nuclear por parte de la Unión Soviética. El protocolo se aplicó de inmediato y Estados Unidos se dispuso a contraatacar de inmediato.
En realidad, los tres emplazamientos militares afectados se encontraban a plena luz del sol. Y la afluencia repentina de las ondas de radio solares fueron las responsables del colapso de los sistemas, explican los autores del estudio. Por supuesto, en cuanto las emisiones solares cesaron, el supuesto “bloqueo” de los soviéticos desapareció.
Los autores del estudio explican que la información procedente del NORAD llegó justo a tiempo a manos del alto mando para que éste detuviera las acciones militares. Delores Knipp, físico espacial en la Universidad de Colorado en Boulder y autor principal del artículo, subraya que ese día, la información sobre la tormenta solar llegó con toda seguridad a manos de las más altas instancias del Gobierno, incluso probablemente a las del propio presidente Johnson.
Llamarada solar
Tras el impacto inicial de la llamarada solar, sus efectos se dejaron sentir en la Tierra durante más de una semana. Auroras boreales, que normalmente solo pueden apreciarse cerca del Polo Norte, fueron vistas incluso más al sur de Nuevo México. Según los autores del estudio, lo único que evitó el desastre nuclear ese día fue el correcto diagnóstico de la actividad solar llevada a cabo por los militares.
En última instancia, la tormenta llevó a los Estados Unidos a reconocer el clima espacial como una preocupación operacional más a tener en cuenta, y a construir un sistema de predicción del clima espacial más sólido y capaz, según explica el coronel retirado Arnold Snyder, uno de los “hombres del tiempo” solar del NORAD, y que estaba de servicio ese día.
Por Scott Montgomery, vice president and chief technology officer of public sector de Intel Security.
EE.UU. 15 agosto, 2016. No hay duda de que las organizaciones se están trasladando hacia la nube más rápido que nunca. En un estudio reciente de ESG, el 75% de las organizaciones informaron que actualmente utilizan los servicios de nube pública. Y, ¿por qué no? La adopción de la nube ofrece muchas ventajas para ayudar a las empresas a lograr sus objetivos de negocio, como reducción de costos, mayor agilidad y mejor escalabilidad.
Así que, ¿cuáles son los riesgos asociados? Cuando se trasladan datos delicados o se almacenan en la nube se presentan desafíos de visibilidad, de control y regulatorios para la empresa de seguridad y para los equipos de conformidad. De hecho, la encuesta de adopción de nube de Intel Security descubrió que el 44% de los encuestados creían que sus datos estaban menos seguros en la nube.
Afortunadamente los riesgos pueden ser mitigados siguiendo mejores prácticas y guías útiles para hacer que la adopción de la nube esté más centrada en datos con una mejor protección. Cuando se observa la seguridad de las nubes híbridas – la infraestructura tradicional de TI, nubes públicas y nubes privadas – las organizaciones deben incorporar estas cinco consideraciones de seguridad:
1. Obtenga visibilidad
Con la nube pública, es fácil rentar espacio de cómputo y de almacenamiento en cuestión de minutos. Esta agilidad es uno de los grandes atractivos de la nube; sin embargo, también plantea un desafío de visibilidad y control para el corporativo de TI debido a que los usuarios de los negocios pueden desplegar soluciones en la nube sin que lo sepa TI. Nuestro Informe de seguridad en la nube descubrió que menos de la mitad (45%) de los encuestados aseguró que tenía visibilidad hacia los despliegues SaaS de TI oculta, mientras que sólo el 42% señaló lo mismo acerca de despliegues IaaS de TI oculta. El área de TI necesita implementar soluciones de seguridad que proporcionen visibilidad hacia la nube, para luego ser capaz de aplicar políticas de seguridad y por lo tanto proteger el negocio. El objetivo debería ser abarcar los servicios de TI oculta para mejorar el soporte a la misión de la organización. Poder ver estos servicios es prioritario para el negocio.
2. Establezca seguridad centrada en carga de trabajo
Las nubes híbridas son una mezcla de varios tipos de nubes y pueden incluir infraestructura gestionada del cliente y de terceros. Debido a que el perímetro tradicional ya no existe en nuestro mundo altamente móvil y habilitado por nube, los controles tradicionales de seguridad perimetral no pueden proporcionar la protección que usted necesita. Complementar la seguridad de perímetro y de red con un modelo centrado en carga de trabajo ayudará a cerrar la brecha de visibilidad y permitir el despliegue de controles basados en políticas para obtener una mejor cobertura de seguridad.
3. Introduzca automatización
Si su equipo de operaciones de seguridad es como la mayoría, seguramente están descubriendo que la eficiencia es difícil de mantener, ya que la plantilla de personal sigue igual pero la carga de trabajo ha aumentado. En un estudio reciente, el 46% de las organizaciones dijeron que tienen una “escasez problemática” de habilidades de “ciberseguridad” y un tercio de los encuestados indicó que su mayor brecha era con especialistas de seguridad en la nube. El brindar seguridad a infraestructura de nube híbrida con automatización proporciona una gran victoria para las eficiencias operacionales, además que también mejora su postura de seguridad corporativa.
4. Incorpore controles de seguridad basados en recursos
Identifique las prioridades de seguridad, privacidad y conformidad para un sistema en particular e implemente soluciones de acuerdo a ello. Sus políticas no deben ser del tipo “un tamaño para todo”.
5. Adopte seguridad integrada
Nuestro informe de seguridad en la nube descubrió que la organización promedio utiliza 43 diferentes servicios de nube pero sólo el 35% utiliza una solución integrada para la gestión de seguridad de todos estos servicios. Por definición, las nubes híbridas son heterogéneas por lo que una política universal no funcionará. En lugar de eso, adopte un marco de seguridad que facilite la integración de múltiples funciones de seguridad en los procesos cotidianos. Un abordaje integrado minimiza la oportunidad y el impacto de las tácticas de ataque emergentes, y reduce la complejidad de dotar de seguridad a su infraestructura de nube híbrida.
Una cosa debe quedar clara: la nueva norma es “la nube es primero”. Controlar los riesgos de seguridad implica poner a la seguridad en el centro de sus adquisiciones, implementaciones, gestiones y procesos de conformidad.
Enterprise Strategy Group realiza un gran trabajo estableciendo medidas para dar seguridad a la nube híbrida en su nuevo whitepaper, expandiendo estas consideraciones, proporcionando orientación esencial y recomendando soluciones.
EE.UU. 15 agosto, 2016. El Acuerdo Transpacífico (TPP) cuenta con un oscuro futuro en EE.UU., a juzgar por las insistentes críticas frontales de los dos candidatos a la Casa Blanca.
La primera economía mundial no ha estado exenta de los efectos negativos de la globalización, que ha provocado que como en otras economías avanzadas puestos de trabajo e industrias se desplacen a otros países en busca de menores costos y mayor competitividad.
Una de las regiones donde se han sufrido más de cerca las consecuencia de la desindustrialización y deslocalización es Detroit (Michigan), epicentro de la industria automotriz estadounidense y hasta hace poco uno de los focos manufactureros del país.
Durante la Convención Demócrata se pudieron apreciar protestas contra el TPP. Una situación paradójica. Obama, lo promueve. Clinton estaría en contra.
Precisamente en Detroit fue donde Trump y Clinton durante sus campañas criticaron los acuerdos comerciales, especialmente el TPP, firmado a comienzos de año entre EE.UU. y otras 11 economías de la cuenca del Pacífico (México, Chile, Australia, Japón y Perú, entre ellas).
“Tengo un objetivo fundamental, quiero que los trabajos y la riqueza se queden en EE.UU.”, enfatizó Trump, en un discurso en el que insistió en su intención de sacar al país del TPP y renegociar el tratado de libre comercio de Norteamérica (TLCAN), sellado con México y Canadá hace dos décadas.
Apenas unos días después, Clinton visitó la localidad de Warren, a las afueras de Detroit, donde prometió detener “cualquier acuerdo comercial que destruya trabajos y rebaje los salarios, incluido el TPP”.
“Me opongo ahora, me opondré tras las elecciones, y me opondré como presidenta”, agregó.
La postura de Clinton en esta materia es controvertida, ya que afirmó que el TPP sería el “estándar global” de los pactos comerciales cuando era secretaria de Estado de EE.UU. Al oponerse frontalmente al acuerdo, algunos legisladores han insinuado que podría matizar su postura de llegar a la Casa Blanca.
Como causa de este cambio está la lucha por los votos del electorado blanco de clase trabajadora, que ha visto cómo los sólidos trabajos en el sector industrial bien remunerados de antaño han ido desapareciendo y siendo sustituidos por empleos de menor calidad.
De este modo, la política comercial en EE.UU., paradójicamente teñida ahora de proteccionismo en el referente del capitalismo y el libre mercado, se ha convertido en uno de los ejes de la campaña electoral y ha provocado insospechados compañeros de bando en Clinton y Trump.
Aislado queda el actual presidente estadounidense, el demócrata Barack Obama, impulsor de un tratado que busca agrupar al 40% de la economía global y mantener la influencia en el Pacífico de EE.UU., ya que China no forma parte del acuerdo.
“Ahora mismo soy presidente, y estoy a favor del TPP”, dijo Obama a comienzos de mes en una conferencia de prensa conjunta con el primer ministro de Singapur, Lee Hsien Loong, país también firmante del acuerdo.
Obama, no obstante, reconoció las dudas que ha generado el proceso de globalización económica de las últimas décadas.
Para el mandatario, las “fuerzas de la globalización y la tecnología no siempre han beneficiado a todos por igual. Hay miedos y ansiedades de que la gente se pueda quedar atrás. Estas ansiedades son legítimas. No pueden ser ignoradas”.
El TPP aún debe ser ratificado por los parlamentos de los países que los han sellado, y Obama ha expresado su optimismo en que tras las elecciones de noviembre y antes de que deje la Casa Blanca, al inicio de 2017, el Congreso estadounidense pueda aprobarlo.
“Con suerte, una vez que las elecciones hayan culminado y la cosa se calme habrá más atención a los hechos reales tras el acuerdo y no será utilizado como símbolo o una pelota política”, afirmó.
Sin embargo, la inesperada dupla de Clinton y Trump en el ámbito comercial y su coincidencia en las filas del proteccionismo parece arrojar más sombras que esperanzas sobre el futuro del TPP.
EE.UU. 14 agosto, 2016. Un litigio entre la discográfica BMG y el operador norteamericano de telecomunicaciones Cox abre las puertas a que los proveedores de Internet sean condenados por la piratería llevada a cabo por sus clientes.
Hasta ahora, cuando un internauta hacía un uso delictivo de su conexión a Internet, el único responsable de dichos comportamientos era él mismo. El operador de telecomunicaciones siempre ha estado al margen de este tipo de juicios (especialmente en lo referido a la piratería de contenidos digitales) ya que se entendía que su rol era el de mero proveedor de un servicio de conectividad y que no era responsable del uso que cada cual hiciera de esta tecnología.
Pues bien, esta premisa podría cambiar próximamente a raíz de un juicio, conocido en Estados Unidos, y por el que la ‘telco’ Cox Communications ha sido condenada a una multa de US$ 25 millones considerarse “responsable de las descargas ilegales de música y películas” realizadas por sus clientes.
El fallo se produjo por una denuncia presentada por la discográfica BMG. La compañía musical contrató a una tercera empresa, Rightscorp, para supervisar la actividad en Internet y detectar el intercambio fraudulento de archivos. BMG notificó los hallazgos a los distintos operadores de telecomunicaciones con el fin de que éstos hicieran llegar los avisos oportunos a los usuarios en cuestión y, en algunos casos, cancelar el suministro de Internet a los consumidores reincidentes. Sin embargo, Cox no realizó esta tarea de forma oportuna, a juicio del tribunal.
Al margen de este caso concreto, este precedente abre todo un campo de posibles sanciones contra el resto de proveedores de Internet en materia de derechos de autor. Así lo afirman expertos consultados por Rightscorp, la empresa contratada por BMG, al afirmar que “durante cinco años hemos avisado a los operadores de telecomunicaciones de que corren el riesgo de incurrir en grandes multas si no logran terminar con las cuentas de los clientes que infrinjan los derechos de autor de manera recurrente”.
México. 15 agosto, 2016. La transformación que ha traído Internet es sin duda, uno de los mayores factores que ha transformado al mundo, por lo tanto; a toda la Infraestructura Física que debe estar habilitada para soportar el tráfico de datos que se genera día con día, y no es para menos, ya que según un estudio de Cisco, indica que hasta 2015 existió una población total de usuarios en Internet de 3 mil millones de personas y se espera que para el 2020 esta cifra llegue a los 4 mil millones de personas con acceso a Internet, lo que representa más de la mitad de la población mundial actual.
Ahora bien ¿están las empresas preparadas para todo lo que resulta de esta interacción digital? Vivimos en medio de una transformación tecnológica acelerada y no importa cualquiera que sea el giro o el tamaño de la organización, lo que importa es que cuente con la capacidad de poder capitalizar estos cambios.
Existen cuatro áreas que Panduit considera primordiales para enfrentar esta “era digital”:
Asegurarse de que la infraestructura de comunicaciones está soportando y soportará correctamente los requerimientos actuales y futuros del negocio.
Definir la mejor estrategia para hacer más eficiente el uso de la Infraestructura en el Centro de Datos.
Conocer las tendencias y oportunidades del IoT, así como las soluciones tecnológicas para enfrentar los retos que este trae consigo.
Aprender cuál es la mejor estrategia de IT para colocar las aplicaciones y los activos donde pueden generar el mayor valor para el negocio.
Estos son parte de los componentes necesarios para lograr una Infraestructura Física que permita el avance del negocio y proporcione disponibilidad de la información en cualquier momento, lugar y dispositivo. “Cada una de estas áreas juegan un papel prioritario e importante en el que los Directivos de toda organización deben pensar y tomar acciones. El avance en la transformación de una organización en esta era digital, representa su permanencia en el futuro”, afirma Gabriela Meraz, directora de marketing de Panduit para LATAM.
Hoy en día, nos dirigimos a un 2020 que espera un total de 26,300 millones de dispositivos con algún tipo de conexión a Internet[1], por lo que existirán más datos, más interacción en redes sociales, más intercambio de información, más procesamientos, más necesidades de almacenamiento… Las respuestas tecnológicas ante esto, son desafiantes. El reto está en mantenerse y no sufrir del mal que en palabras de Terminator dirían: “hasta la vista baby”.
Panduit consiente de esta necesidad presentará el próximo 25 de Agosto su Foro “Panduit Innovation”, que tendrá lugar a partir de las 9 a.m. en el Hotel St Regis CDMX.
Un espacio que ofrecerá el intercambio de conocimiento y mejores prácticas tecnológicas en un ambiente de consultoría y formación para directivos, gerentes, y responsables de la Infraestructura de TI y OT.
Para obtener mayor información y registrarse al evento, consulte la página: http://bit.ly/2a7bSMH
Información del Evento:
25 de Agosto
Hotel St. Regis
Ciudad de México
El servicio implementado por TAS Chile se puede activar en minutos y su costo es inferior al de las boletas en papel. Además, moderniza al pequeño contribuyente sin obligarlo a convertirse en facturador electrónico.
Santiago, Chile. 11 agosto, 2016. Si bien el uso de la boleta electrónica se encuentra disponible hace varios años, no todo el comercio ha logrado subirse al carro de la modernización. Entre ellos están los pequeños contribuyentes, que en su mayoría siguen emitiendo boletas en papel 5×1.
Para este segmento del comercio, y en conjunto con el SII (Servicio de Impuestos Internos), la empresa TAS Chile desarrolló una solución llamada “vale electrónico”, que busca simplificar la gestión de las boletas y masificar su uso entre 500.000 pequeños comerciantes a lo largo del país. De este modo, el comerciante no tendrá que ir a la oficina del SII a timbrar boletas, con lo que se ahorra tiempo y dinero.
Son varias las ventajas que diferencian al vale electrónico de otras herramientas que ofrece el mercado: su activación es inmediata, el servicio es optativo, los contribuyentes pueden seguir utilizando la boleta tradicional en caso de imprevistos, y posee un alto nivel de seguridad. El costo del servicio rondará los $ 15.000 mensuales, sin límite de documentos a emitir.
Además, su modo de operar es muy sencillo: el comerciante recibe un dispositivo similar al terminal utilizado para tarjetas de débito y crédito con el que emite las boletas conforme vaya vendiendo. Al finalizar el día, el SII recibirá automáticamente un resumen de los vales emitidos. Los contribuyentes pueden verificar en su dispositivo o a través de una plataforma web las emisiones totales o parciales del día o del mes. La solución, de manera automática, genera el libro de ventas de vales y con esto los pequeños contribuyentes pueden continuar declarando el IVA, de forma personal o a través de su contador, simplificando así sus obligaciones tributarias.
La empresa destaca que el comerciante no debe pasar por el engorroso proceso de certificación ante el SII para operar el vale electrónico, ya que la firma cuenta con esa validación y la extiende a todos sus clientes. En esa misma línea, un aspecto muy importante es que los comerciantes no necesitan convertirse en facturadores electrónicos.
TAS Chile implementó un exitoso plan piloto en la ciudad de Los Andes y ahora está llevando esta innovadora solución a todos los pequeños comerciantes del país, en línea con el Plan Almacenes de Chile, que está impulsando el Ministerio de Economía.
Por Raimundo Page, gerente comercial de GuruContact.
Santiago, Chile. 11 agosto, 2016. El fracaso de groupon radica en que los usuarios se sintieron víctimas de spam por todos los emails enviados por Groupon y sus competidores, y se cansaron de las ofertas repetitivas. Eso hizo que los márgenes y el crecimiento de los ingresos de Groupon empezaran a caer. Greg Sterling, analista de Opus Research.
El Email Marketing es una herramienta que tienta a cualquiera, por su bajo costo y alta efectividad para ventas y fidelización (ROI de un 4.300%, American Direct Association, 2015).
Si nos vamos al origen de email marketing, es escribirle un correo a alguien. Imposible pensar en algo más personal que el email de una persona y por esto no puede invadir.
De ahí nace la primera pregunta, ¿ese alguien es mi cliente o ha declarado intención de saber de mi empresa?. Si el dato proviene de una base de datos comprada o arrendada es esperable suponer que la persona lo lleve al correo no deseado, no exista fidelización alguna hacia la marca, no redunde en mayor venta y la comunicación sea marcada como Spam, que de suceder en forma repetitiva, conlleva altos riesgos de caer en lista negra.
Mi recomendación, basada en la experiencia que hemos recabado en GuruContact, es construir una base orgánica, idealmente desde formularios en el sitio y otras plataformas por las que la empresa se comunica.
Una vez obtenida esta base, es importante segmentarla. Porque la tasa de aperturas y por ende, de ventas o fidelización se relacionan absolutamente con el interés que el email genere.
Segmentar las bases de acuerdo a la edad, el género, el país y los intereses es vital. Y customizar el contenido es la base de toda estrategia. Porque un email segmentado tiene 4 veces mayor apertura que uno genérico y el análisis del resultado de cada envío, de los contenidos que generan más engagement, de las horas en que las aperturas son mejores, es el inicio de un círculo virtuoso que se verá en la última línea. Siempre.
Menos es más. Absolutamente. Una estrategia clara, bien definida, llevada a cabo con los contactos que nos han elegido, es el inicio de una relación robusta y duradera, destinada a crecer.
Madrid, España. 11 agosto, 2016. Creada en la década de 1960, en Estados Unidos, inicialmente como una red de computadores con fines militares (conocida entonces como Arpanet), Internet ha evolucionado popularizándose de forma avasalladora en las últimas décadas. Según datos de la UIT (Unión Internacional de Telecomunicaciones), ya somos más de 3.000 millones de personas conectadas a esa red mundial.
Más que un fenómeno tecnológico, Internet ha demostrado ser un fenómeno comportamental. Ha revolucionado, por ejemplo, la forma en la que nos comunicamos con los demás (un buen ejemplo de ello son las redes sociales como Facebook y las aplicaciones de mensajes como WhatsApp) y la forma en la que recibimos la información, escuchamos música e incluso consumimos productos. El e-commerce, de hecho, vive una explosión – se espera que pase de US$ 1.500 millones registrados en 2015 solo en el mercado minorista a US$ 3.600 millones en 2019, según datos de la consultoría eMarketer.
Mucho mas allá del PC y del smartphone
¿Parece mucho? Pues sepa que una nueva revolución relacionada con la conectividad ya está sucediendo: la llamada “Internet de las Cosas” (IoT). El término se refiere a la diseminación de sensores en los más diversos dispositivos y productos (de ropa a electrodomésticos, pasando por máquinas industriales e incluso collares para perros) que se conectan a la red mundial de computadores enviando información. ¡En 2020 tendremos más de 20.000 millones de dispositivos conectados a Internet, según las estimaciones de la consultora Gartner!
Y ¿cómo cambia esto la vida de los consumidores y de las empresas? En el caso del usuario, tendrá a su disposición productos más eficientes que facilitarán su vida en varios aspectos. ¿Quiere un ejemplo práctico de la Internet de las Cosas? En varios países ya es posible saber, con una aplicación para smartphone, dónde está el autobús que quieres tomar, para así llegar a la parada solo unos minutos antes de que el vehículo pase. Ya basta de perder el tiempo esperando, ¿no crees?
Otro ejemplo popular de la llamada IoT (del inglés Internet of Things) es la aplicación Waze. Basta con conectar su smartphone para, gracias a una red con millones de usuarios en todo el mundo -que ofrecen información en tiempo real sobre la posición y velocidad de desplazamiento, entre otras-, saber cuál es el mejor camino a seguir e incluso cuánto tiempo será necesario para llegar a su destino.
En el ámbito de los wearables (dispositivos que funcionan como pequeños computadores conectados al cuerpo o incluso introducidos en la ropa), ya es posible encontrar pulsera, relojes inteligentes y aplicaciones que registran información sobre la salud del usuario y sobre actividades físicas. Sincronizados con Internet, estos dispositivos funcionan como un entrenador personal virtual, e incluso registran el historial de resultados del portador. Por su parte, la empresa francesa Cityzen Science ha ido un paso más adelante al crear la D-Shirt, una camiseta que incluye en su tejido sensores que miden la frecuencia cardíaca del usuario, con un sistema GPS que monitoriza el recorrido y envía los datos en tiempo real a la llamada “nube”.
Big data
Las empresas, además de la oferta de productos cada vez más innovadores, tendrán a su disposición un volumen de información sobre sus clientes nunca visto – lo cual es oro puro para quien sepa valorarlo. Estos sensores esparcidos por el planeta producen datos esenciales sobre hábitos de consumo y preferencias que van alimentando el llamado Big Data. Cabrá a las compañías analizar de forma inteligente ese conjunto de información y transformarlo en ventaja competitiva, creando productos más adecuados a las necesidades de los usuarios. Quien no cuente con este tipo de herramientas tiene muchas posibilidades de quedarse atrás.
Gigantes de la industria y del e-commerce ya se han dado cuenta de esto, y cuentan con iniciativas en esta área para acercarse cada vez más a sus clientes. La minorista online Amazon, por ejemplo, trabaja con socios como GE en el desarrollo de dispositivos que permiten automatizar el sistema de compras. Con esta tecnología, productos como las lavadoras o impresoras avisarán a las tiendas de que el stock se está acabando, permitiendo la compra y el envío automático de productos por parte de los minoristas online.
Además de esa interacción facilitada con el consumidor final, la IoT promueve una revolución en las líneas de producción, con las máquinas conectadas entre ellas y facilitando datos en tiempo real, tendencia a la que se ha bautizado como Industria 4.0.
En ella es posible, con el uso de sensores, monitorizar todas las etapas de producción, realizando el seguimiento del ciclo de vida del producto, desde la concepción hasta el uso. En esta industria del futuro se informa automáticamente sobre cualquier problema identificado en la fabricación, con un ritmo más rápido y eficiente, y resolviéndose sin interferencia humana.
Santiago, Chile. 11 agosto, 2016. Actualmente la mayoría de los países cuenta con una banca digitalizada en la búsqueda de mejoras en pro de los clientes. Desde el año 2014 se escuchaba a cerca de las – hoy conocidas – empresas Fintech, dedicadas a ofrecer servicios financieros mediante software de última tecnología, orientadas a la innovación de productos y servicios en ese sector.
El desarrollo Fintech se ha convertido en conocimiento necesario para la industria financiera, y es por esto que Cardumen, Perteneciente a Grupo Taisa, realizó un análisis de la industria y detectó cuatro oportunidades relevantes para mejorar la experiencia del cliente en la banca.
Actualmente convivimos con dos tipos de Fintech, las competidoras que ofrecen productos o servicios financieros alternativos a los grandes bancos tradicionales, y las colaboradoras que aprovechan la tecnología para crear nuevas soluciones que ayuden a innovar y a transformar digitalmente al sector financiero en su conjunto.
El sector bancario conoció primeramente a “las competidoras”, por lo que vieron a todas las Fintech como una amenaza, sin embargo el panorama ha cambiado y hoy las Fintech colaboradoras se unen a entidades bancarias en diversos acuerdos para mejorar la experiencia del cliente (CX) en la banca.
Sólo por mencionar un par de casos, el Banco Santander logró una alianza estratégica con Monitise para desarrollar Startups Fintech, en la que el Banco financia, mientras que Monitise integra los servicios tecnológicos para conectar y dar soporte a servicios financieros. Otra entidad bancaria que siguió pasos similares fue BBVA que compró casi el 30% de Atom, entidad bancaria británica que opera exclusivamente a través del móvil.
Todo parece indicar que el mejor camino para la banca tradicional recae en buscar empresas Fintech como facilitadores o aliados, que traducirá aquella unión en una futura ventaja competitiva que permitirá al cliente elegir a un banco por sobre otro, por lo que el desarrollo y mejora de la experiencia del cliente es y será definitoria para conseguir más adeptos y liderar el rubro.
La banca debe adaptarse a las características de los clientes de hoy, pertenecientes a la generación de los millennials, y futuramente a la generación Z, quienes tienen algo en común; la dependencia digital. Para ellos no existen horarios de Lunes a Viernes, necesitan soluciones en el momento, no quieren esperar hasta el Lunes para resolver una urgencia que tuvieron el Sábado en la mañana, menos aún tener que ir a una sucursal para hacer filas.
Hoy los clientes pueden manifestarse de forma rápida y sencilla, ya que los puntos de contacto están al alcance de un clic, y las malas experiencias quedan plasmadas en el historial de Internet. Entonces, el desafío para la banca hoy es ofrecer servicios acorde a los clientes actuales y futuros en base a la planificación, y no actuar de forma reactiva.
Para esto detectamos cuatro oportunidades que aportan a la mejora de la experiencia del cliente en la banca latinoamericana:
1) Alineación de plataformas para mejorar el SAC: La aparición de nuevos actores en el sector financiero obligó a la banca a reaccionar digitalizando algunos servicios, llevándolos al móvil. Es importante recordar que; no porque todos vayan remando hacia lo digital desesperadamente hay que hacer lo mismo, al mismo ritmo, y dejar de lado los canales más tradicionales.
Los usuarios necesitan servicios digitales integrados y atractivos, que sean capaces de operar por vía telefónica, Internet o sucursales físicas, ya que no sirve de nada que el usuario pueda solicitar servicios por Internet un fin de semana si va a tener una respuesta al siguiente día hábil. Abrir canales sin tener una capacidad de respuesta inmediata denota deficiencia.
2) Big Data para contextualizar a la banca con la realidad del cliente: La mayoría de los bancos cuenta con enormes cantidades de datos sobre los distintos clientes que poseen, los que son utilizados comúnmente para predecir comportamientos enfocados en prevenir fugas y fraudes, ignorando muchas veces el real potencial que existe al manejar esta data.
El Big Data debe ser el ADN de la inteligencia de negocios y comunicación. La capacidad de predecir comportamientos permite a la entidad poder impactar al cliente en el momento necesario. Permite buscar puntos de contacto e información más allá de un simple e-mail, y es momento de saber explotarlo.
3) Educación financiera y digital: A los ya tradicionales consejos de cómo ahorrar, cómo manejar las deudas, o usar eficientemente una tarjeta de crédito, la banca debe asumir la enseñanza de la aplicación de las nuevas tecnologías que brindan una mejor experiencia de usuario, como lo hicieron por ejemplo al llamar a las personas a migrar del dinero tradicional a la tarjeta.
En un óptimo escenario en donde la institución bancaria cuente con la tecnología y los servicios digitales que ayuden a sus clientes a agilizar sus trámites, la entidad debe suplir el desconocimiento digital de una parte de sus clientes, y de esta forma el banco podrá implementar óptimamente nuevos servicios digitales en pro de éstos.