Podría dejar de vender unos 20 millones de teléfonos.
Las acciones de la compañía retrocedieron un 8%, convirtiéndose en la mayor caída diaria desde 2008 y evaporándose US$ 18.800 millones de capitalización.
Seul, Corea del Sur. 11 octubre, 2016. Tras el anuncio del gigante asiático Samsung Electronics de dejar de fabricar su modelo Galaxy Note 7 las acciones se hundieron un 8% en la Bolsa de Seúl. La compañía decidió esto tras detectar fallas en las baterías que provocaban incendios en los terminales móviles.
Los inversionistas interpretaron que la caída del gigante surcoreano debido a las baterías defectuosas de sus teléfonos podría beneficiar a las ventas de Apple, lo que favoreció los avances de sus proveedoras niponas Murata Manufacturing (2,9%) y Fanuc (3,1%).
La semana pasada dos de los grandes operadores de telefonía móvil en Estados Unidos, AT&T y T-Mobile US, dejaron de vender las nuevas unidades del Note 7 -teóricamente no afectadas por la avería- ante los cinco nuevos casos de incendio que se han reportado en ese país.
En Europa, donde estaba previsto que las ventas del terminal se retomasen el 28 de octubre, ya el lunes, tras el anuncio del cese de producción, Vodafone y Orange anunciaban la interrupción de las preventas de los dispositivos, una suspensión que Samsung solicita hoy que operadoras y minoristas realicen en todo el mundo.
Por esta cancelación definitiva de la producción del Galaxy Note 7 se calcula que Samsung podría dejar de vender en torno a unos 20 millones de teléfonos previstos inicialmente, lo que le supondría dejar de ingresar hasta US$ 17.000 millones.
Está por ver además como afectará al resto de sus productos la mala fama que ya está indisolublemente ligada al modelo Galaxy Note 7. La última serie de casos reportados sobre teléfonos que -pese a ser unidades de reemplazo que la compañía consideraba libres de toda avería- se incendiaron ha ahondado el mal momento que atraviesa Samsung. “Aquellos consumidores que tengan un Galaxy Note 7 original o un dispositivo de reemplazo deberían apagarlos y dejar de utilizar los terminales”, explicó hoy en un escueto texto publicado por el gigante tecnológico surcoreano.
Samsung comenzó a vender el teléfono el pasado 19 de agosto, pero a principios de septiembre anunció una retirada sin precedentes tras informarse de más de una treintena de casos de igniciones en algunos terminales en diversos países.
A la llamada a revisión le siguió a mediados de septiembre la entrega de reemplazos que, no obstante, varios medios han informado que han sufrido incendios en Corea del Sur, Estados Unidos y Taiwán.
La compañía comenzó a recibir desde distintos puntos del globo un volumen creciente de informes de móviles que se incendiaban durante el proceso de carga hasta que el 2 de septiembre, cuando el número de casos ya superaba la treintena, decidió anunciar una retirada sin precedentes del producto. Al mismo tiempo apostó por ofrecer a los consumidores afectados el reemplazo de estas unidades (en total, unos 2,5 millones que habían sido vendidas en todo el mundo) por nuevos teléfonos del mismo modelo que, aseguraba, no sufrirían estos problemas con sus baterías de ion-litio.
Pero, con este proceso de rellamada y recambio aún en sus inicios, la compañía con sede en Suwon (al sur de Seúl) de nuevo comenzó a recibir la semana pasada notificaciones, más preocupantes, sobre nuevos Galaxy Note 7 que también presentaban el mismo problema.
Al menos ocho de estos teléfonos entregados como reemplazo a clientes de Corea del Sur, Taiwán y Estados Unidos se han incendiado y, tal y como han informado medios locales, algunos lo han hecho cuando ni siquiera estaban conectados a la red eléctrica para recargar sus baterías.
Entre los sucesos registrados en Estados Unidos se cuentan episodios como el de un vuelo entre Louisville y Baltimore que el 5 de octubre, en pleno proceso de embarque, tuvo que ser evacuado cuando uno de estos nuevos smartphones prendió fuego en el bolsillo de un pasajero y acabó quemando parte del suelo del avión. Pocos días después y en el mismo estado de Kentucky un hombre tuvo que ser tratado por una bronquitis aguda provocada por el humo que desprendió su móvil después de prender súbitamente en madrugada sobre su velador.
El año pasado, eBay pagó 1,1 millones de libras en concepto de impuesto de sociedades pese a haber declarado ingresos por más de 1.370 millones.
Londres, Inglaterra. 11 octubre, 2016. La optimización / evasión de impuestos por parte de las grandes compañías tecnológicas lleva un tiempo generando polémica y titulares en Europea. Para muchos ciudadanos resulta difícil entender cómo es posible que los gigantes de Internet, capaces de manejar negocios millonarios, tributen cantidades ínfimas por sus filiales con sede en los países del Viejo Continente.
Primero fue Apple, a quien la Comisión Europea impuso la mayor multa de su historia (13.000 millones de euros) tras conocerse que había tributado tan sólo un 0,005% por el Impuesto de Sociedades gracias a un acuerdo especial con el gobierno de la República de Irlanda, donde la compañía mantiene la sede de su filial europea. Pocos días más tarde, se supo que el órgano ejecutivo europeo ultimaba los últimos detalles de otro expediente contra Amazon, quien habría llegado también a acuerdos similares con el gobierno luxemburgués. A raíz de esta acumulación de casos, el primer ministro de Austria, Christian Kern, afirmó furioso que “cualquier cafetería vienesa, cualquier puesto de salchichas, paga más impuestos que una empresa multinacional”. Por otra parte, podríamos preguntar ¿pagan impuestos demasiado altos los europeos?
Ahora, tan sólo un mes más tarde, una tercera compañía con origen en Silicon Valley vuelve a estar en el centro de la polémica por su baja tributación: según publica la prensa británica, eBay (uno de los gigantes del comercio electrónico junto a la propia Amazon) habría pagado el año pasado únicamente 1,1 millones de libras en concepto de impuesto de sociedades pese a ingresar más de 1.370 millones gracias a sus ventas en el Reino Unido. ¿Cómo es eso posible? La filial británica de eBay no estaría recibiendo “ni un centavo” del dinero pagado por los vendedores que anuncian sus productos en eBay.co.uk. En lugar de ello, esas ventas constarían como una “prestación de servicios” de eBay International AG, su empresa matriz con sede en Suiza. Esta estructura estaría permitiendo al grupo un cuantioso ahorro en impuestos.
Pese a ello, un portavoz de la compañía declaró que las acciones de eBay son “en todos los países y en todo momento, totalmente compatibles con la legislación nacional, de la UE y las normas fiscales internacionales”.
“Nuestras vidas mejoraron drásticamente desde que llegó Samsung”.
Vietnam. 11 octubre, 2016. Se está extendiendo el mensaje de que la globalización es culpable de parte del desempleo en Occidente y del estancamiento de los salarios, y esto se debe a que las sociedades de los países desarrollados fijan su atención en el sufrimiento de sus mercados laborales y quizá olvidan las mejoras que están presentando las economías en desarrollo, como es el caso de Vietnam. La relación entre la empresa surcoreana Samsung y Vietnam es el mejor ejemplo de cómo millones de personas salen de la pobreza gracias a la inversión extranjera directa. Sin embargo, este ejemplo positivo no desmiente que el desenfreno por la globalización, así como también un exceso de celo por el proteccionismo no es la receta que buscamos. Como alguien ya dijo, los extremos generalmente no son convenientes, nada como un buen equilibrio.
Hace algunos años en Vietnam, Nguyen Thi Dung alimentaba a sus pollos y plantaba arroz para poder llegar a fin de mes en una de las zonas más pobres de Vietnam. Este año, sin embargo, espera ganar más que un empleado de la banca del país. ¿La diferencia? Samsung.
Hace siete años, el gigante de la electrónica surcoreano se metió en los arrozales de la provincia de Bac Ninh en el norte de Vietnam y comenzó a fabricar smartphones. Las últimas exportaciones desde Vietnam incluyen el nuevo Galaxy Note 7 de la compañía y sus baterías, que han envuelto a la empresa en un problema bastante grave. Esos dispositivos transformaron al somnoliento pueblo de Dung en el segundo centro de exportación más grande del país después de Ciudad Ho Chi Minh.
“Nuestras vidas mejoraron drásticamente desde que llegó Samsung”, dice la exgranjera de 57 años de edad, quien ahora arrienda habitaciones y vende alimentos a los trabajadores de las plantas de ensamblaje. Dung espera obtener unos US$ 68.000 este año. “Quiero comprar un auto y que mis hijos me lleven a pasear”, agrega.
Samsung y sus empresas afiliadas han construido una ciudad-fábrica con 45.000 trabajadores jóvenes y cientos de proveedores de componentes extranjeros (una versión en miniatura del conglomerado familiar que domina los negocios en Corea). La inversión ha sido muy positiva para los negocios en Bac Ninh: casi 2.000 nuevos hoteles y restaurantes abrieron entre 2011 y 2015, según la oficina provincial de estadísticas, lo que contribuyó a aumentar el PIB per cápita de la provincia a hasta tres veces por encima de la media nacional.
“Las inversiones de Samsung han permitido un creciente impulso del crecimiento económico no sólo de Bac Ninh, sino también del país entero”, explica Nguyen Phuong Bac, director de un instituto socioeconómico de Bac Ninh. “Han acelerado la industrialización del país”.
La compañía coreana representa el primer paso del plan de Vietnam para heredar una porción del sector manufacturero de China, que está perdiendo a fabricantes de textiles, electrónicos y de bienes de consumo como consecuencia de los crecientes costos y la fuerza de los salarios. La capacidad china para atraer del exterior inversiones directas en los años 80 y 90 la ayudó a construir grandes proveedores locales e incluso sus propias compañías globales. Samsung Electronics abrió su primera planta en China en 1992.
Terminal de aeropuerto
Ahora, la compañía apostó a lo grande en Vietnam. Autobuses blancos estampados con el logo azul de Samsung pasan a través de los campos empantanados de los búfalos, que se encuentran enfrente de la planta de baterías de Samsung. Grandes camiones transportan smartphones Galaxy en la autopista Bac Ninh-Noi Bai con conexión directa al Aeropuerto Internacional de Noi Bai, donde la compañía tiene su propio terminal de carga.
Más de la mitad de las 856 compañías extranjeras que invirtieron un total de US$ 11.900 millones en la provincia de Bac Ninh hasta junio estaban relacionadas con Samsung. Las inversiones extranjeras ahora representan el 60% de la economía de la provincia, explica Nguyen Duc Cao, subdirector de la Junta Administrativa de las Zonas Industriales de Bac Ninh, y que por supuesto es propietario de un Samsung S6 de color dorado.
Cajeros automáticos, edificios inteligentes, redes sociales, Android y hasta el cuerpo humano (biohacking) pueden hackearse. Resistencia es la consigna.
Santiago, Chile. 11 octubre, 2016. Resistir, defender, atacar, mitigar. De eso y mucho más se trata la sexta versión de 8.8 Computer Security Conference que, bajo el concepto Resistencia, convocará este 20 y 21 de octubre a reconocidos hackers a nivel mundial, quienes revelarán las últimas técnicas de hacking, las vulnerabilidades de las nuevas tecnologías y los métodos más efectivos para repeler ataques informáticos.
La cita como siempre es en el Cine Arte Normandie, donde durante 2 días, de 9:00 a 19:00 horas, hackers provenientes de Israel, Estados Unidos, España, Argentina, Colombia, Costa Rica y Chile, realizarán charlas y demostraciones técnicas en vivo: desde hackeos a cajeros automáticos de próxima generación, edificios inteligentes o Android; hasta ataques a sistemas de redes sismológicas, biohacking, lockpicking y estafas vía redes sociales.
“Pero ojo que acá los hackers no son los malos de la película. Cuando hablamos de nuestros expositores hackers, nos referimos a avezados investigadores, capaces de descubrir y solucionar vulnerabilidades en los sistemas informáticos”, explica Gabriel Bergel, fundador de 8.8.
Luego de 5 años de trayectoria, la mística de esta conferencia se mantiene: bajo un ambiente informal y bohemio incentivado por el Cine Arte Normandie, circulan aquellos que más saben de seguridad informática, mientras brindan con cerveza gratis y se capacitan para resistir los últimos ataques a redes y sistemas tecnológicos.
Este año, el público con ganas de incursionar en Biohacking -mejorar el cuerpo humano a través de la tecnología- se podrá implantar chip RFID de alta y baja frecuencia para practicar el DiYBio (Do it Yourself Biology) a precio costo. También habrá una mini villa de Lockpicking, donde los asistentes podrán jugar y entrenar tratando de abrir candados y cerraduras o bien adquirir herramientas de Lockpicking.
Cajeros automáticos, edificios inteligentes, redes sociales, Android y hasta el cuerpo humano (biohacking) pueden hackearse. Resistencia es la consigna.
Resistir, defender, atacar, mitigar. De eso y mucho más se trata la sexta versión de 8.8 Computer Security Conference que, bajo el concepto Resistencia, convocará este 20 y 21 de octubre a reconocidos hackers a nivel mundial, quienes revelarán las últimas técnicas de hacking, las vulnerabilidades de las nuevas tecnologías y los métodos más efectivos para repeler ataques informáticos.
La cita como siempre es en el Cine Arte Normandie, donde durante 2 días, de 9:00 a 19:00 horas, hackers provenientes de Israel, Estados Unidos, España, Argentina, Colombia, Costa Rica y Chile, realizarán charlas y demostraciones técnicas en vivo: desde hackeos a cajeros automáticos de próxima generación, edificios inteligentes o Android; hasta ataques a sistemas de redes sismológicas, biohacking, lockpicking y estafas vía redes sociales.
“Pero ojo que acá los hackers no son los malos de la película. Cuando hablamos de nuestros expositores hackers, nos referimos a avezados investigadores, capaces de descubrir y solucionar vulnerabilidades en los sistemas informáticos”, explica Gabriel Bergel, fundador de 8.8.
Luego de 5 años de trayectoria, la mística de esta conferencia se mantiene: bajo un ambiente informal y bohemio incentivado por el Cine Arte Normandie, circulan aquellos que más saben de seguridad informática, mientras brindan con cerveza gratis y se capacitan para resistir los últimos ataques a redes y sistemas tecnológicos.
Este año, el público con ganas de incursionar en Biohacking -mejorar el cuerpo humano a través de la tecnología- se podrá implantar chip RFID de alta y baja frecuencia para practicar el DiYBio (Do it Yourself Biology) a precio costo. También habrá una mini villa de Lockpicking, donde los asistentes podrán jugar y entrenar tratando de abrir candados y cerraduras o bien adquirir herramientas de Lockpicking.
Se puede ubicar desde el móvil, se cierra desde una aplicación y pesa su contenido. Así es Bluesmart One.
EE.UU. 10 octubre, 2016. “La primera maleta inteligente y conectada”. Con esta breve descripción se presentó el proyecto Bluesmart en la plataforma de financiamiento colectiva Indiegogo a fines de 2014. La propuesta fue todo un éxito, consiguiendo el apoyo de casi 11.000 personas que ayudaron a reunir los más de US$ 2 millones que hicieron viable el proyecto.
Bluesmart One es el resultado de esta iniciativa: una maleta con el tamaño estándar del equipaje de cabina que cuenta con un conjunto de funcionalidades hasta ahora inéditas en un accesorio de este tipo. Así, se cierra y abre desde el móvil, pesa su contenido, funciona como batería externa para cargar otros dispositivos e incluye un sistema de localización. ¿El precio? Alto, ya que para hacerse con una unidad hay que desembolsar nada menos que US$ 449.
Desde el móvil
Como cualquier dispositivo conectado, es obligatorio utilizarlo junto con un smartphone y una aplicación que los conecta a través de Bluetooth. La vinculación es sencillísima y basta con aceptar que la app envíe notificaciones y crear una cuenta de usuario. Esta aplicación es gratuita y compatible con dispositivos iOS y Android, pero no está disponible en español.
Desde ella se centralizan todas las posibilidades de la maleta. Una de las principales es la ubicación: dispone de un módulo GPS que permite acceder a su ubicación exacta dentro de un mapa. La información que ofrece es bastante fiable, aunque es necesario que el smartphone esté conectado a Internet para poder consultarla. Esta función está muy relacionada con otras opciones de seguridad, como la activación de una alerta cuando te separas de la maleta, lo que resulta ideal en caso de robos y olvidos.
También es posible controlar su peso gracias a una balanza integrada en su interior: se sitúa la maleta en una superficie plana y se siguen las instrucciones de la app, que se limitan a levantarla desde el asa y mantenerla en posición vertical durante unos segundos. Esta funcionalidad es muy útil teniendo en cuenta que muchas compañías aéreas establecen un límite de peso para el equipaje de cabina que ronda los 10 kilogramos. Y con ella es fácil llegar a ellos e incluso superarlos, ya que por sí misma pesa más de 4 kilos.
Por otro lado, un cierre remoto permite abrirla y cerrarla a través de la app. Además, es posible configurar el funcionamiento automático de esta prestación, de tal manera que su apertura y cierre se vinculan a la cercanía del usuario. Por supuesto, Bluesmart viene con un juego de llaves que se convierten en indispensables cuando se agota la batería. En este sentido, está dotada de una unidad interna de 10.400 mAh que se utiliza para proveer de energía al módulo Bluetooth y al GPS. La autonomía aproximada es de un mes en reposo; un estado en el que entra a los 5 minutos de desconectarse del móvil. Para apagarla del todo hay que recurrir a la aplicación o a un botón físico oculto en su interior, bajo la tela.
Esta batería también puede utilizarse como powerbank para dispositivos móviles, permitiendo cargar un smartphone hasta seis veces. Dispone de dos puertos para cargar la batería de dos terminales de forma simultánea y no es posible extraerla para utilizarla de forma independiente.
Es precisamente esta imposibilidad de desmontar la batería lo que, en principio, más puede preocupar cuando viajamos en avión. A este respecto podemos afirmar, tras la experiencia de viajar con ella, que no supone ningún problema en los controles de seguridad. De hecho, la propia empresa manifiesta que tanto el cierre como la batería se ajustan a los requerimientos de una de las aduanas más exigentes del mundo: la de Estados Unidos. De esta manera, cumple con las especificaciones de la TSA (Transportation Security Administration o Administración de Seguridad en el Transporte) creada en el país americano para garantizar la seguridad de los desplazamientos como respuesta a los atentados del 11S.
En cabina
¿Qué podemos decir de Bluesmart como maleta? Su exterior de policarbonato y nailon es bastante resistente (incluyendo a las rayaduras), mientras que su estructura se apoya sobre cuatro ruedas que giran 360 grados y que se desplazan de forma muy fluida por cualquier superficie.
Tiene múltiples bolsillos y compartimentos. El más interesante es el situado al frente, que ofrece acceso rápido a los dispositivos electrónicos y es tan amplio que dispone de espacio para portátiles de hasta 15 pulgadas. Pero no es el único apartado, ya que dentro de la maleta hay hasta cuatro más. Lo que puede parecer positivo para separar las distintas prendas, a efectos prácticos no lo es tanto teniendo en cuenta que resta capacidad interior, así que la sensación es que no es demasiado amplia.
Todo lo dicho, junto con que resulta muy pesada para su tamaño y su elevado precio, son los tres grandes puntos negativos que podemos ponerle a una maleta que, por lo demás, podríamos recomendar a cualquiera que desee mantener el control sobre su equipaje. Su apuesta está en que consigue dotar de funciones extra interesantes a un objeto tan básico como este que se une a la interminable lista de dispositivos que hay que cargar.
La compañía dice mantenerse firme y en defensa de su proceso de evaluaciones de desempeño de los empleados.
Sunnyvale, EE.UU. 7 octubre, 2016. A la CEO de Yahoo, Marissa Mayer, le llueve sobre mojado.
El ex ejecutivo de Yahoo, Scott Ard, presentó una demanda contra Mayer y otros dos ejecutivos de la compañía, alegando que condujeron una campaña para echar injustamente empleados varones de la compañía. La demanda también afirma que Mayer echó a un gran número de trabajadores con base en un sistema de calificación del desempeño impuesto por Mayer, de acuerdo con el San Jose Mercury News. Antes de que estar en Yahoo, Ard desempeñó una serie de funciones en CNET y CNET News, incluyendo como editor en jefe.
La demanda llega en un mal momento para Yahoo.
A principios de esta semana, se informó que el gobierno de Estados Unidos pidió a Yahoo que supervisara los mensajes de correo electrónico de sus usuarios para vigilar cierta información de inteligencia. Y el mes pasado, la empresa dio a conocer que hackers informáticos se hicieron con al menos 500 millones de cuentas de Yahoo, lo que se convirtió la mayor violación de los datos de la historia. Verizon incluso habría pedido un descuento de US$ 1.000 millones en la adquisición pendiente de la empresa.
Yahoo se negó a comentar sobre la demanda, pero defendió la imparcialidad de su proceso de revisión.
Marissa Mayer (41), CEO de Yahoo desde julio de 2012. Llegó después de una impresionante carrera en Google.
“Nuestro proceso de evaluación de desempeño se ha desarrollado para permitir a los empleados en todos los niveles de la empresa recibir una retroalimentación significativa, regular y procesable de parte de otros”, dijo la portavoz de Yahoo, Carolyn Clark. “Nuestro proceso de evaluación de desempeño también permite que los trabajadores con un alto rendimiento participen en oportunidades cada vez mayores en nuestra empresa y que los de bajo rendimiento hagan la transición hacia afuera”.
La demanda llega en momentos de una discusión más amplia en Silicon Valley sobre la representación de las mujeres en el campo de la tecnología. Un informe de diversidad de la compañía de 2015 mostró que el 24% de su equipo de liderazgo se compone de mujeres, un punto porcentual más alto que el año anterior.
¿Espió Yahoo a sus usuarios para el gobierno de EE.UU?
La CEO, Marissa Mayer, habría cumplido una directiva del gobierno que le permitió escanear cientos de millones de mensajes entrantes.
Yahoo desarrolló un software de vigilancia el año pasado, después de que la Agencia Nacional de Seguridad o el FBI emitieran una directiva ultra secreta que requería a la compañía escanear los correos electrónicos entrantes de todos los clientes.
Las agencias estaban buscando un “conjunto de caracteres”, según el reporte, que cita a ex empleados anónimos de Yahoo. Lo que buscaban podría haber sido una frase, por ejemplo, o un archivo adjunto. Pero, ¿quien nos asegura que esta no sea una práctica común de Yahoo? ¿Y por qué no incluir en el mismo saco a Google y Facebook? Realmente estamos navegando tiempos muy extraños, no en vano Bank of America indica de que existe hasta un 50% de posibilidades de que estemos viviendo en la Matrix, es decir, en un mundo con demasiadas mascaras.
La CEO de Yahoo, Marissa Mayer, habría elegido obedecer la directiva, una decisión que habría impulsado al entonces director ejecutivo de Seguridad de la Información, Alex Stamos, a abandonar la compañía en junio de 2015.
Stamos, quien ahora es jefe de seguridad de Facebook, habría dicho entonces que abrir una brecha o crear un defecto en la programación podría dar acceso a hackers a millones de correos electrónicos.
“Yahoo es una empresa respetuosa de la ley y cumple con las leyes de EE.UU.”, dijo un portavoz de Yahoo en un correo electrónico. El FBI y la NSA no respondieron a las solicitudes de comentarios.
Aunque Stamos se negó a comentar los motivos que marcaron su salida de Yahoo, Facebook dijo que jamás había recibido una directiva como esa.
Desafíos de la industria tecnológica
El cumplimiento de Yahoo de esta directiva está en claro contraste con lo que defienden la mayoría de las empresas de Internet. En enero, Apple se mostró dispuesta a desafiar al FBI al no querer crear una brecha de seguridad en todos los iPhone del mundo para saber que había en el dispositivo de un terrorista y en marzo más de 40 empresas firmaron un documento apoyando a la empresa de Cupertino.
“Nunca hemos recibido una solicitud de este tipo”, dijo un portavoz de Apple en un comunicado. “Si recibimos una, nos opondremos a ella en una corte”.
En cuanto al caso de Twitter, es aún más peculiar. La red social actualmente tiene una demanda contra el gobierno de EE.UU. por solicitarle información privada.
“Nunca hemos recibido una carta como ésa y, de hacerlo, nos veríamos en un tribunal”, dijo un portavoz de la empresa en un comunicado.
Microsoft también dijo que nunca había recibido una directiva como la de Yahoo.
Previamente Yahoo perdió una batalla judicial que le obligó a cumplir con un programa de vigilancia secreta llamada Prism. Ese programa fue revelado más tarde por Edward Snowden y consistía en la revisión de correos electrónicos, chats de video, fotos y documentos de los usuarios de la empresa.
La compañía dirigida por Mayer aún se recupera de la violación de datos de la que fue víctima en 2014 y que fue revelada en septiembre, y por la cual 500 millones de usuarios de Yahoo fueron víctima de uno de los mayores ataques del mundo.
Verizon, la empresa que está en medio de la compra de Yahoo por US$ 4.800 millones, no quiso hacer ningún comentario.
Patrick Toomey, abogada con la Unión Americana de Libertades Civiles, dijo en un correo electrónico que la directiva del gobierno parece “sin precedentes e inconstitucional”, al tiempo que ha criticado a Yahoo por no luchar en contra de esa directiva.
Tokio, Japón. 7 octubre, 2016. Toyota acerca este deseo con su nuevo producto, el Kirobo Mini, una pequeña criatura que ha sido diseñada como un asistente de comunicación que puede hacer de copiloto o asistente en el hogar. Este autómata está basado en el robot astronauta japonés Kirobo, también de la empresa nipona.
Por su aspecto bien pudiera ser el protagonista de algún anime, pero hará compañía física a los japoneses a partir de 2017. Fue presentado en el último Tokio Motor Show y su precio rondará los 39.800 yenes (US$ 350).
Este miniasistente se exhibió en Ceatec, la mayor feria tecnológica de Japón, entre el 4 y el 7 de octubre. Al precio de compra hay que añadirle una cuota de US$ 3 al mes para gestionarlo y actualizarlo a través de una aplicación. Sigue la estela de otros robots domésticos pero más caros como son el Pepper de Softbank (US$ 1.700) o el RoboHon (US$ 1.600) de Sharp.
La inteligencia de un niño de cinco años
El Kirobo Mini mide apenas 10 centímetros y pesa 183 gramos. Puede guardarse en una bolsa. El tamaño escogido no es una casualidad, ya que una de las intenciones del fabricante es que pueda ser transportado en el portavasos del auto. Este autómata puede ser útil en la conducción, como copiloto, emitiendo un sonido si nota cansancio en el conductor o alguna actitud agresiva al volante.También informa del número de kilómetros recorridos o del combustible consumido.
Desde Toyota afirman que tiene la inteligencia de un niño de cinco años. Tampoco es gratuita esta comparación, ya que pretende recuperar el instinto maternal y paternal de los japoneses. Según un reciente estudio de los investigadores Hiroshi Yoshida y Masahiro Ishigaki, con las actuales tasas de fertilidad y de envejecimiento de Japón, la población el país se reduciría a una sola persona en 1.750 años. La autoextinción … y que paradójico, este robot no es mas que una muestra de la decadencia en la que ha caído la sociedad japonesa. Pretender que una maquina sustituya a las relaciones humanas, no debería sino mas que alertarnos de los negativos usos de la tecnología.
Según Toyota, el Kirobo Mini tiene la capacidad para aprender frases y puede reconocer a través de unos sensores expresiones faciales para determinar el estado de ánimo de su dueño. Incluso se puede integrar en una casa domótica para advertir si las puertas están cerradas.
Con esta creación, la compañía pretende dar un paso adelante en la inteligencia artificial para atraer a nuevos expertos en robótica. Toyota busca combatir las incursiones de gigantes tecnológicos como Google o Apple en la industria del automóvil. El fabricante japonés ha invertido más de US$ 1.000 millones en los últimos cinco años en estas tecnologías.
Enmarcado en esta estrategia también estaba el Kirobo mayor, de 34 centímetros y un kilo, que despegó del Centro Espacial de Tanegashima (sur de Japón) rumbo al espacio en 2013. Acompañado por el astronauta nipón Koichi Wakata, Kirobo parafraseó en órbita a Neil Armstrong: “El 21 de agosto, un robot dio un pequeño paso hacia un futuro mejor para todos”. El 12 de agosto este insólito astronauta regresaba a la Tierra y marcaba un paso más en la interacción entre humanos y robots, cada vez más estrecha.
La tecnología está cambiando la forma de hacer negocios. El problema es que este cambio se genera más rápido que el ritmo en que las organizaciones se transforman. Cómo poder llevar a cabo una transformación digital que impacte positivamente en nuestro entorno?
Por Rodrigo Orellana, chief digital officer de Omnicom Media Group Chile.
Santiago, Chile. 7 octubre, 2016. Estamos navegando a través de uno de los periodos de mayor transformación en la era de la humanidad, una etapa afectada principalmente por hitos sociales y tecnológicos que se presentan cada vez con mayor frecuencia, y que no afectan tan solo a las etapas productivas, sino que también al cómo la sociedad se enfrenta a esta tecnología, la digiere y se relaciona a través de ella. Estamos frente a un punto congruente, pero de inflexión, que te obliga a evaluar preguntas esperanzadoras: Estás preparado -y dispuesto- a enfrentar esta transformación digital?, sin embargo también evaluar escenarios inciertos: ¿Qué resultado obtendremos, si no la enfrentamos?
Antes de seguir, y muy brevemente, aclaremos qué es la transformación digital. En concreto, es la adopción de una serie acciones disruptivas que inciden, comercialmente, en los procesos y el modelo de negocio, junto con las competencias organizacionales que se suman a las ya existentes y que permiten abordar -y aprovechar- las oportunidades que brinda la evolución tecnológica, y socialmente, en el cómo las personas y la sociedad en general asimilan, integran y se relacionan en su día a día. Es decir, una transformación que implica converger tecnología, oferta y demanda.
Hoy la transformación digital es un tema central, clave de ello es el aumento en la intención de búsqueda que podemos apreciar durante los últimos 5 años:
Si no estás al tanto de ello, o no la estás empujando, probablemente debieras comenzar a replantearte sobre la continuidad en tu puesto laboral.
La transformación digital es inexorable.
En cuanto a la oferta, hoy es imposible sostener la estrategia de negocio tan solo flexibilizando la fijación de precios, eficientando las cadenas logísticas o procurando la satisfacción del cliente, hoy ninguno de estos ítems se sostiene por sí solo. Prueba de ello es que, en términos industriales, los últimos 20 años han sido más dinámicos que los anteriores 100. La suma de estos factores, y muchos otros, debe tangibilizarse en nuestra capacidad de adaptarnos, de forma transversal, para responder a un mercado abierto, lleno de commodities, con bajas barreras de entrada y con clientes muy cambiantes (y que seguirán cambiando). Esto genera que desde la atención al cliente, pasando por la selección de personal y llegando a temas higiénicos como la comunicación interna, sean impactados.
Prueba de ello son las empresas que ven el digital como su core, que son las que incrementan de forma más agresivas sus valorizaciones de marcas por más de 5 años consecutivos:
En cuanto a la demanda, esto no será sorpresa: El cliente tiene el control en sus manos. Una sociedad más educada e informada potencia una demanda cada vez más intransigente, consecuente, evaluativa y exigente. Se suma a esta apreciación general que el consumo de medios ha cambiado radicalmente los últimos años, y el principal driver de esta transformación ha sido el canal digital y cómo se solapa y complementa con los medios más tradicionales. Esta incertidumbre intenta ser resuelta –muchas veces sin éxito- gracias a cada vez más y más denominaciones que intentan caracterizar y agrupar las características de la sociedad actual: Millenials, Generación X, Y, Z, C, Baby Boomers, entre otros, que son los nombres y apellidos que definimos para alivianar este verdadero dolor de cabeza que se nos produce cuando intentamos responder a conductas del consumidor y llegar al anhelado 1 a 1. Si a esto le sumamos la corriente de proteccionismo a los datos privados, por el mal uso que muchos inescrupulosos han generado, nos demandan acciones cada vez más creativas.
Prueba de ello es la aparición de servicios que, hace 10 años atrás, eran impensados. Alguno se hubiese imaginado que la mayor compañía de taxis del mundo, Uber, no iba a contar con una flota de taxis propia dentro de su oferta?
Debemos repensar todos nuestros procesos.
El tener un área de TI, actualizar tu sito web, pensar en mobile o el adoptar tecnología cloud no basta para afirmar que estás siendo parte de esta revolución.
El contexto es vertiginoso, debemos responder desde afuera hacia adentro y desde adentro hacia fuera, para ser relevantes y atractivos para una nueva generación de clientes y empleados en el camino hacia la transformación del negocio.
Esta situación genera mucha intención, pero a la vez una alta incertidumbre. Entonces, ¿cómo debe prepararse una organización, más allá de la estrategia, para lograr una efectiva ejecución que traiga consigo resultados positivos de este proceso de transformación? Es trascendental planear un enfoque que pueda acercar la brecha entre estrategia y ejecución.
Se sugieren 7 etapas para que la transformación digital logre progresar desde el desarrollo de estrategias innovadoras, a un marco arquitectónico y a su ejecución práctica:
ETAPA 1: KICK OFF – LA REALIDAD
Evaluación introspectiva del “inventario” digital de las organizaciones. Contamos con una estrategia que empuje el digital, y se integre dentro de la estrategia de negocios? Contamos con los perfiles idóneos? Hablan todos el mismo idioma? Contamos con acceso a tecnología top de línea? Es importante saber dónde se encuentran hoy para generar una base fundacional sobre la cual proyectar el mañana.
ETAPA 2: FUNDAR UNA CULTURA DIGITAL
Desarrollar una cultura de ADN digital es clave. El error de muchas organizaciones es concentrar el peso en uno, dos o tres colaboradores, cuando la verdad es que misión es tan relevante que debe involucrar a la planilla completa.
Efectivamente se necesitarán líderes como cabezas de la transformación, sin embargo se necesita un cuerpo y extremidades,que permitan operar de forma constante y con sentido. En lo que no se debe caer, es en dejarle la responsabilidad de liderazgo a demasiados perfiles dentro de la organización, ya que se pierde el ADN y la operación no se torna ágil.
ETAPA 3: CONVERGER USUARIO, TECNOLOGÍA Y NEGOCIO
Esta etapa es un hito tremendamente relevante dentro del proceso y donde se debiera resolver el uso y valor de la tecnología para el usuario, y cómo se inserta dentro del proceso de comercialización. Entender cuáles son las necesidades de los usuarios y hacerlas conversar con el modelo de negocios es uno de los desafíos más grandes, ya que se quiebran paradigmas usualmente concebidos de forma histórica, incluso desde la génesis del negocio. En este punto recomiendo dejar al usuario al centro de la conversación, y alrededor de él integrar variables como el rol del marketing, los canales de venta, el producto y el componente humano que interactúa con él.
Un canvas business model, entrevistas de usuarios, test heurísticos, focus group, y otros complementarios como encuestas de clima, estructuras organizacionales, estados de resultados, flujos de ventas y márgenes de categorías y productos o servicios, análisis del customer lifetime value, entre otros, sirven para entender las dos grandes aristas de estas etapas.
¿Estamos bien?, ¿Somos capitanes dentro de la categoría?, ¿Qué estamos haciendo mal?, ¿Qué podríamos hacer mejor?, ¿Cómo es nuestro usuario?, ¿Cómo lo queremos conquistar?, son algunas de las preguntas que, sobre la marcha y de forma natural, nos podremos responder y que permiten ofrecen un punto de partida para elaborar una nueva experiencia digital.
ETAPA 4: ACCIONAR EN BASE A DATA
Pasar de la la toma de decisiones basadas en suposiciones, o en comportamientos costumbristas, a tomar decisiones basadas en datos. Los datos son el núcleo del proceso de transformación digital, porque cada contacto con un cliente, o potencial cliente, clic, impresión, conversión, tanto on u off, deja rastro. Ahora bien, debemos aprovechar la interacción en interfaces digitales, que ofrece capacidades de medición avanzadas, pero también tener una mirada selectiva en la data que realmente nos da valor. El objetivo es pasar de la sobrecarga de información en tiempo real, a la relevancia contextual en tiempo real. Hoy todos los negocios requieren relevancia en sus entregas en tiempo real a sus clientes.
ETAPA 5: DIGITALIZAR
En esta etapa, cuando ya converge una plana de colaboradores capaces de entender digital como driver de experiencias, el entendimiento transversal del nuevo modelo de negocios y la aplicación de data efectiva, deben proceder a la aplicación de nuevas tecnologías sobre la infraestructura existente. Sobre ello seré enfático, la digitalización de las organizaciones no implica la eliminación o la necesidad de renovación de los activos tecnológicos existentes, siempre podemos iterar o agregar nuevas capas evolutivas sobre nuestra estructura. En este punto se agregan software, hardware, tecnología cloud, POS y, por supuesto, los activos digitales propios, ganados y pagados.
Este punto es el paso a producción de la transformación digital.
ETAPA 6: SER Y PARECER
Acá traspasamos una línea de fuego. Toda organización debe construir sus propios ecosistemas digitales, todo debe fluir, conversar y ser consistentes. En este punto pasamos la condición de multicanal y omnicanal, para llegar a un estado de Nirvana. En este estado todas organización, y sus extensiones en plenitud están en un proceso de evolución digital Darwiniano. Sostener esta condición, de forma transversal, es muy relevante, ya que la experiencia define el valor de nuestra oferta.
En esta etapa brillamos, con la misma intensidad, en cada uno de nuestros puntos contactos tanto dentro de la travesía del consumidor, como también dentro de nuestra propia organización y con nuestros colaboradores.
Procurar la relevancia es crucial.
ETAPA 7: MEJORA CONSTANTE
Consolidando las etapas anteriores, y para integrar la experiencia dentro de un proceso de mejora constante, debemos registrar, evaluar, iterar y aprender, para cerrar un ciclo y reiniciar el proceso hacia la Etapa 1.
Simplificar la transformación digital en 7 etapas lineales, pero cíclicas, puede ser muy ambicioso considerando la casuística casi infinita, pero sin duda ayuda a simplificar uno de los procesos de cambio más profundos que hemos protagonizado en el último siglo, y del que hoy somos protagonistas.
Alejandro Raposo asume como vicepresidente de ventas y operaciones, LATAM de Symantec y Blue Coat.
Santiago, Chile. 6 octubre, 2016. Symantec, proveedor a nivel mundial en seguridad informática, anuncia el día de hoy el nombramiento de Alejandro Raposo como vicepresidente de ventas y operaciones, LATAM de Symantec y Blue Coat.
Con la adquisición de Blue Coat, Symantec se ha convertido en el proveedor más estratégico de seguridad a nivel mundial, con la combinación de tecnologías, liderazgo y penetración de mercado en escala necesaria para dar forma al futuro de la seguridad. Y en este contexto es en el que Alejandro Raposo comienza a operar y a responder por las operaciones de Blue Coat, empresa líder en seguridad Web para empresas y gobiernos de todo el mundo.
“Me siento extremadamente contento por poder guiar nuestros esfuerzos ante la gran oportunidad que nos espera¨. Afirmó Alejandro Raposo, quien confirmó que estará liderando las actividades de ventas y operaciones en la región de ambas empresas. “Durante los próximos 6 meses, mi mayor enfoque estará en lograr maximizar la efectividad de los modelos de ventas de Symantec en América Latina¨.
Desde el anuncio de la transacción, los equipos de planificación de integración han trabajado meticulosamente para definir los puntos fuertes de ambas compañías. Con el aumento de la escala, el portafolio y recursos, las grandes empresas pueden ahora tener a Symantec como una sola fuente estratégica de soluciones integradas para puntos finales, la nube y la infraestructura para la protección contra ataques avanzados y de ese modo crear una fuerte posición de seguridad, con un costo atractivo. Es dentro de este nuevo escenario que Alejandro actuará con el fin de satisfacer las necesidades de las industrias de ambos continentes: América del Sur y América Central.
De acuerdo con Alejandro, ahora las prioridades de esta nueva configuración son:
1. ENFOQUE en la entrega de resultados a través de un ecosistema de socios encaminados a lograr metas conjuntas, ejecutando actividades e inversiones dirigidas por un sólido plan de negocios en el que aprovechamos las fortalezas de cada uno. Haremos hincapié en la disponibilidad de programas de entrenamiento para así poder contar con un equipo conocedor de la tecnología y con la inteligencia comercial que maximiza el poder de influencia en nuestros clientes.
2. COLABORACION e identificación de las mejores prácticas de Symantec y Blue Coat en materia de canales, operaciones, marketing y entrenamiento. A medida que estas prácticas se vayan definiendo, las iremos incorporando en nuestro modelo de negocios y comunicándolas a todos ustedes.
3. Establecer un ecosistema de socios con extensa cobertura geográfica y profundidad técnica que nos ayude a afincar la CONFIANZA de nuestros clientes. Trabajaremos sobre un plan de negocios bien definido que incluye el alineamiento con cuentas estratégicas, enfoque de producto y la capacitación e inversión necesarias para apoyar el plan acordado.
4. Fortalecer nuestra presencia en el sector CORPORATIVO y CUENTAS NOMBRADAS, aumentando sus inversiones en Symantec y aprovechando el reconocimiento y participación de Blue Coat en este sector.
5. Generar un interés renovado en los sectores COMERCIAL y PyMEs con nuevos productos y servicios que se ajustan a las necesidades de nuestros mercados. Explotaremos las nuevas tendencias de la generación de nube, para ofrecer el poder de nuestras tecnologías a toda empresa, sin importar su tamaño o modelo de inversión (CAPEX u OPEX).
Antes de asumir el nuevo reto, Alejandro fue Gerente y Director de canales de Symantec para Brasil. Con más de 22 años de experiencia profesional, ha ocupado el cargo de CEO y Presidente de la BGH de Brasil Comunicaciones y Servicios LTD durante dos años, y servido por más de 11 años como Vicepresidente de Ventas y Operaciones de Clientes en Nextel Brasil y también fue presidente del Instituto de Nextel durante siete años.
Cuenta con grado en Relaciones Industriales de la Universidad Argentina de la Empresa, Executive MBA (Master in Business Administration) en Administración y Dirección de Empresas por la Fundación Getúlio Vargas (FGV) de Brasil. También participó en programas dirigidos a la gestión y el liderazgo en las instituciones como la Universidad de Navarra, London Business School, Universidad de Georgetown y el Instituto Internacional para el Desarrollo Gerencial (IMD).
Santiago, Chile. 5 octubre, 2016. Identificar las oportunidades abiertas por los cambios impulsados por la digitalización obliga a las empresas a repensar sus estrategias y a orientar cada vez más su presupuesto tecnológico a soluciones que las ayuden a agregar valor a su negocio.
Transformación es, sin duda, la palabra que más se escucha hoy en el ámbito de las Tecnologías de la Información (TI). ¿La razón? En la última década no sólo ha variado la industria tecnológica en sí misma, orientándose con más fuerza a los servicios, sino que también ha cambiado la relación que las empresas tienen hoy con las TI, ya que pasaron de ser un habilitador del negocio a tener un rol estratégico. Sin embargo, los cambios hoy apuntan a algo mayor, porque actualmente muchas empresas del mundo se preparan para ser competitivas en los “negocios digitales”.
“Si bien hoy una pequeña parte de las empresas adopta una estrategia digital, tarde o temprano todas lo harán, porque todos los negocios serán, de una u otra manera, digitales”, subraya Mauricio León, director comercial de Hitachi Data Systems en Chile.
“En este momento la principal tendencia de las TI es la Transformación Digital, que involucra una serie de tecnologías que apuntan a acelerar la innovación y preparar a las empresas para sobrevivir y ser competitivas en un nuevo escenario de negocios”, define Mauricio León, director comercial de Hitachi Data Systems en Chile.
El ejecutivo explica que la Transformación Digital (también conocida como DX) alude específicamente a tecnologías relacionadas con la necesidad de las empresas de aprovechar los datos generados en gran escala para obtener información que pueda agregar valor al negocio, así como a los cambios generados por el surgimiento de nuevas plataformas para los negocios. “El Big Data y el Social Business, sumados al Cloud Computing y la movilidad, configuran lo que algunos denominan la Tercera Plataforma. Este conjunto de tecnologías, al igual que sucede con la IoT (Internet de las Cosas), se caracterizan por generar más datos, diversificar y aumentar las transacciones digitales. Esto constituye un tesoro para que las organizaciones puedan llevar su negocio a un nuevo nivel en la toma de decisiones y fomentar la creación de nuevos productos y servicios que las lleven a generar nuevos ingresos”, añade León.
El ejecutivo sostiene que DX alude así a un contexto diferente para los negocios, a la adopción de TI para hacer frente a ese nuevo contexto. “Gartner predice que en el año 2020 los ingresos digitales de las empresas crecerán en un 80%. Y, si bien hoy una pequeña parte de las empresas adopta una estrategia digital, tarde o temprano todas lo harán, porque todos los negocios serán, de una u otra manera, digitales”, subraya.
Tiempos de cambio
El director comercial de Hitachi Data Systems en Chile subraya que DX marca variaciones radicales en muchos aspectos, lo cual obliga a que hoy las organizaciones estén atentas y reaccionen oportunamente. “Esto apunta a una transformación del mercado, a su digitalización, a la evolución de las plataformas tecnológicas y a sus consecuencias en los modelos de negocios y, en especial, en la relación con el cliente y la cadena de valor completa. Por ello, la palabra clave en esta tendencia es la agilidad, ya que la propia infraestructura tecnológica debe ser apta para reaccionar a más velocidad que antaño ante los avatares del mercado o del negocio. Se trata de agregar valor e innovar, pero siempre de la mano de las nuevas tecnologías”, comenta.
León añade que hoy las TI operan con costos flexibles, en modalidad de servicios, lo cual permite a las organizaciones disponer de una mayor flexibilidad para afrontar los tiempos de cambios. “Hay que repensar la infraestructura de TI, el centro de datos, las aplicaciones, los servicios de TI para poder competir en la era de los negocios digitales. Esto se refiere a una transformación tecnológica y a la manera de hacer las cosas, repensando las estrategias de negocio a partir de nuevas TI”, apunta.
“La lógica con que se operaba en productos o servicios durante años o décadas deberá ser rediseñada, pudiendo eso traducirse en nuevos productos o servicios, en otras formas de distribuir o vender, o en otras variaciones en la cadena de valor, o también en formas colaborativas que redundan incluso en cambiar procesos internos”, agrega León.
Por eso las empresas comienzan a destinar parte importante de su presupuesto de TI a DX, según IDC se espera que para el año 2018, represente la mitad de éste y en 2020, el 60 por ciento del total. La misma consultora estima que en Latinoamérica el próximo año uno de cada tres gerentes generales de las tres mil empresas más reconocidas de la región hará de la Transformación Digital el centro de su estrategia.
“Los desafíos asociados a este cambio que involucra tecnología y negocios nos señala que estamos en presencia de una oportunidad pero también de un imperativo, en donde quien no aborde a tiempo los retos no sólo perderá competitividad, sino que también podría desaparecer en el corto plazo”, concluye León.
La gigante de tecnología presentó dos celulares nuevos bajo la marca Pixel, aunque sin mencionar planes futuros para Nexus.
Se suponía que los fabricaría Huawei, pero HTC se llevó el contrato.
Los teléfonos vendrán equipados con la última versión de Android, un procesador Qualcom Snapdragon 821, memoria RAM de 4 GB y una cámara trasera de 12,3 Mpx.
San Francisco, EE.UU. 5 octubre, 2016. Los usuarios de los dispositivos Google Nexus dieron un grito colectivo de tristeza el martes por la mañana luego de que Google presentó oficialmente sus dos nuevos celulares: Pixel y Pixel XL.
Entre los solemnes tuits, muchos usuarios se lamentaron de que Google jubilaría la marca Nexus, y que además, aumentó los precios de sus teléfonos insignia a más de US$ 649.
Por su parte, el equipo de Google Nexus comentó en Twitter que sus usuarios “jugaron un papel integral en esta travesía” y dijeron que continuarán su apoyo de los dispositivos Nexus con ayuda al cliente y actualizaciones del software, aunque no dieron muchos más detalles.
El evento de Google del martes marcó una nueva dirección en la línea de celulares de la gigante de tecnología que, aunque no le puso el último clavo al ataúd de Nexus, sí dejó en claro que sus celulares de hoy en adelante se llamarán Pixel y no Nexus. Es más, los dispositivos Pixel ya han reemplazado a los celulares Nexus en la tienda Google Store.
Al igual que los celulares Nexus, los nuevos Pixel y Pixel XL serán los primeros celulares en recibir las actualizaciones del sistema operativo Android. (Los Pixel ya traen Nougat 7.1 integrado). Por otro lado, a diferencia de los Nexus, los Pixel estarán a la venta no sólo en la tienda Google Store, sino también en donde se pueda activar una línea de Verizon (como en Best Buy), marcando la primera vez que un dispositivo de la compañía se puede conseguir por una operadora en EE.UU. Esto le dará la oportunidad a Google de poner el celular al alcance de más personas y no sólo de los fanáticos de Android.
En total, Google lanzó ocho celulares, cuatro tablets y dos cajas de streaming de video Nexus desde 2010.
Se suponía que los fabricaría Huawei, pero HTC se llevó el contrato
Los nuevos teléfonos Google Pixel iban a ser fabricados por Huawei, la empresa china que como muchos recordarán también estuvo detrás del Nexus 6P el año pasado, un teléfono con el cual intentó adentrarse en el mercado EE.UU. Sin embargo, algo en la relación entre las dos empresas salió mal.
Según un informe de Android Police, Google efectivamente quería que Huawei desarrollara los nuevos teléfonos Pixel. La empresa china estaba de acuerdo con mantener la colaboración, pero entonces surgió un pequeño detalle de esos que echan atrás un negocio: Google no quería que los teléfonos tuvieran el logo de la marca china en ninguna parte, porque en su nueva filosofía, la gran “G” de Google es la que domina los dispositivos.
Este fue el primer problema, pero no fue el único.
El informe asegura que después de esto otros factores fueron tomados en consideración, entre los que destacaron algunas fisuras en la relación que les ha mantenido juntos para vender el Nexus 6P, entre los que destacaron que aunque Google ofreció que el teléfono se vendería en las cuatro mayores operadoras de EE.UU., esto nunca sucedió – aunque el móvil era compatible – y además tampoco se habrían cumplido acuerdos conjuntos de publicidad.
Actualmente Huawei es el tercer mayor fabricante de teléfonos móviles del planeta, según IDC Research, sin embargo su penetración en EE.UU. es menor. Su colaboración con Google tenía el objetivo de ayudarle a darse a conocer en este mercado.
Huawei y Google fueron contactados para que dieran un comentario, pero no respondieron.
Los nuevos Google Pixel X y XL que lanzó la empresa en el evento del 4 de octubre fueron desarrollados o al menos ensamblados por la taiwanesa HTC.
EE.UU. 5 octubre, 2016. Los hackers que utilizan su programación informática, tecnología y habilidades cibernéticas para ayudar a las empresas a protegerse contra los ataques cibernéticos gozan de una gran demanda para hacer frente a la creciente necesidad de especialistas en seguridad informática, Symantec y Science Buddies están ayudando a los estudiantes a conocer más acerca de las carreras en seguridad cibernética. Hay miles de publicaciones de todo el mundo para personas que pueden pensar como hacker para ayudar a combatir a los piratas informáticos en su propio juego.
Un problema creciente
El número de ataques cibernéticos cada año sigue en aumento, y los diferentes tipos de ataques cibernéticos siguen proliferando. Symantec reporta que “descubrieron más de 430 millones de nuevas piezas únicas de malware en 2015, un aumento del 36% en comparación al año anterior. “Ransomware , ataques watering hole, eventos Black Swan, el efecto mariposa, y spear phishing son sólo algunos de los tipos de ataques cibernéticos que Symantec menciona en su Informe sobre Amenazas a la seguridad del Internet en 2016. Estos ataques a menudo apuntan a las vulnerabilidades de día cero – vulnerabilidades en el software que los desarrolladores y las administraciones no saben que existen hasta que se utilizan como base para un ataque cibernético.
Tanto para los individuos y las empresas, los números son alarmantes, y los riesgos son reales. Como resultado de las nueve “mega-violaciones” ya conocidas, Symantec afirma que más de 500 millones de registros de información personal fueron robados por hackers en 2015. Según se informa, el 39% de las violaciones de la seguridad cibernética documentados en 2015 involucró a los servicios de salud.
Los usuarios de computadoras individuales tienen que tener cuidado y ser inteligentes sobre sus prácticas en línea. Pero a medida que más y más información personal es almacenada en línea y cada vez más personas confían en los servicios en línea, la protección contra la piratería informática y la prevención de robo de datos o interrupción del servicio es una misión crítica para las empresas. Para tener éxito, las empresas de hoy deben estar constantemente en la búsqueda de ataques cibernéticos y, cuando sea posible, mantenerse un paso más delante. Las empresas no pueden simplemente esperar a que ocurra un ataque cibernético. Deben estar trabajando activamente en proteger sus sistemas, en la búsqueda de puntos débiles y vulnerabilidades, y protegerse frente a posibles ataques cibernéticos.
Mountain View, EE.UU. 5 octubre, 2016. Las tecnologías que impulsan los negocios digitales están influenciando considerablemente la composición del centro de datos, donde los retos de la administración de la información siguen teniendo un crecimiento exponencial. La tarea de gestionar los costos de almacenamiento, proveyendo la plataforma adecuada para las cargas de trabajo requeridas, se ha convertido en un factor decisivo para el éxito o el fracaso en el ambiente del centro de datos o aun para la propia organización. Este desafío en la gestión de costos de los datos impacta tanto el cliente como a los canales de ventas y los proveedores de soluciones de almacenamiento.
Por Douglas Wallace, gerente general para América Latina y el Caribe (excepto Brasil) de Pure Storage.
La transformación digital, la movilidad, cloud computing y analytics son tendencias que dependen en gran medida de la elección equilibrada de las plataformas de almacenamiento que puedan responder a este volumen de trabajo. Para cualquier ambiente que exija un alto nivel de E/S (entrada-salida) de datos se indica el uso de soluciones de última generación de almacenamiento: la tecnología flash.
En este escenario competitivo, donde el costo y el desempeño relacionados con el funcionamiento son factores críticos, surgen diversas interrogantes: ¿Deben los datos estar dentro de las instalaciones de la organización (on-premise) o fuera de ellas (off-premise)? ¿En la nube pública o híbrida? ¿Los volúmenes de trabajo pueden ser transferidos de una plataforma a otra? ¿Pueden estas plataformas actualizarse a lo largo del tiempo?
Muchas organizaciones están buscando soluciones creativas y considerando ambientes híbridos para mover los datos inactivos a la nube, en vez de moverlos, por ejemplo, a las soluciones tradicionales basadas en discos duros. Sabemos que las empresas necesitan almacenar los datos inactivos aun cuando están conscientes de que difícilmente o casi nunca serán utilizados después de almacenados. De esta forma, mantenerlos en la nube es una opción más económica y más eficiente, una vez que pueden ser recuperados y bajados cuando sea necesario.
Las organizaciones enfrentan muchos retos con relación a qué plataforma o tecnología adoptar y esperan respuestas tanto de sus proveedores de servicios (asesores de confianza), como de sus proveedores de tecnología. Por lo tanto, los canales de ventas buscan entender lo que ocurre con las soluciones de almacenamiento en el mercado y tratan de suplir las necesidades presentes y futuras de sus clientes. Estos canales tienen los ojos puestos en la tecnología que puede ofrecer rutas de almacenamiento sencillas, previsibles, repetitivas, escalables y rentables; pues ellos saben que sus clientes no quieren lidiar con complejidades ni con costos imprevistos.
La posibilidad de prever los costos de mantenimiento y servicio relacionados con una solución totalmente basada en flash ayuda a los socios a tener confianza en la rentabilidad de los compromisos con los clientes y en la alianza con los proveedores. Para los clientes el mantenimiento previsible es una excelente ventaja.
Industria tradicional: ¿hasta cuándo resistirá?
Con la necesidad de expansión en la calidad de los datos, las soluciones tradicionales de almacenamiento rápidamente llegan al límite del desempeño determinado por el controlador y por la propia arquitectura de esta tecnología. Aunque pueda agregarse mayor capacidad, la solución se encuentra limitada por un bloqueo de desempeño (además, aumentar la capacidad en este modelo convencional generalmente es caro y exige tiempo). En este caso, la actualización se refiere a una nueva solución y una nueva compra. Los datos necesitan ser migrados y existe un período de inactividad para el cliente final debido a la velocidad reducida de transferencia. Algunas estructuras de datos y bibliotecas más antiguas pueden verse afectadas durante la migración, que puede llegar a ser compleja y exigir servicios externos profesionales. Además, la renovación del contrato de mantenimiento es muchas veces más costosa que la anterior.
Revisión del concepto
Actualmente, el sector de almacenamiento se encuentra en revisión. Esto porque diversos tipos de almacenamiento son aun utilizados por las empresas, tanto las unidades de disco duro como el almacenamiento en flash y en la nube. Estas opciones seguirán siendo parte de la oferta de los proveedores en los próximos años, principalmente aquellas que apuestan por el almacenamiento híbrido de TI. Sin lugar a dudas, es cierto que el almacenamiento en flash está más preparado para superar las demandas del mercado, siendo construido a partir de tecnologías de estado sólido y con un período de latencia cercano a cero para la consulta y transferencia de datos.
Una vez que las empresas superen el reto cultural de la tecnología convencional y adopten el concepto del almacenamiento en flash, los beneficios podrán ser aprovechados en su totalidad, proporcionando ventajas económicas a toda la organización y no solamente al almacenamiento.
El próximo 20 de octubre se desarrollará por primera vez en Chile el eCommerce Innovation Summit. Este evento, que es organizado por la Cámara de Comercio de Santiago a través de su Comité de Comercio Electrónico, contará con presentaciones de líderes locales y globales en materia de innovación, nuevas tecnologías y tendencias del comercio electrónico.
Santiago, Chile. 5 octubre, 2016. La CCS (Cámara de Comercio de Santiago) a través de su Comité de Comercio Electrónico realizará, por primera vez, en nuestro país el eCommerce Innovation Summit, evento que se desarrollará el próximo 20 de octubre en el Centro de Eventos Parque Titanium y que contará con la participación de destacados expositores nacionales y extranjeros. El objetivo es visibilizar las innovaciones, nuevas tecnologías y tendencias en el eCommerce que están liderando las grandes transformaciones de la economía digital.
George Lever, director del Centro de Economía Digital de la CCS, afirma que: “La Economía Digital ya alcanza ventas anuales por US$ 40.000 millones en nuestro país y penetra a gran velocidad en todos los sectores de actividad. El eCommerce B2C crece 10 veces más rápido que el resto de la economía y 10 millones de personas toman decisiones de compra basadas en Internet. Los nuevos modelos de negocios desplegados a partir de innovación digital se propagan rápidamente, por lo que todas las empresas deben entender la forma en que su negocio está siendo transformado. Este encuentro será una oportunidad para descubrir nuevas ideas, inspirarse y relacionarse con los líderes del mundo digital.”
El eCommerce Innovation Summit contará con conferencias magistrales, sesiones paralelas, exhibición de proveedores de tecnología, espacios de networking y una competencia de startups transformadoras. “Éste será el evento del mundo digital de asistencia obligada del año” aseguró Lever.
Entre los relatores estarán Sucharita Mulpuru, Chief Retail Strategist de ShopTalk; Mary Lou Kelley, presidenta de eCommerce de Best Buy; Luis Rodríguez, Ejecutivo a cargo de Global Commerce Solutions de IBM, Fernando López, Country Manager de Google e Iván Vera, presidente de Innspiral y del Club de Innovación.
Startup fast forward
El día del evento se realizará además una competencia orientada a identificar a los emprendimientos del futuro, en línea con la reciente propuesta de la CCS de desarrollar nuevas industrias exportadoras de servicios basadas en la economía del conocimiento, disruptivas, intensivas en talento y con alto potencial de internacionalización. La Startup ganadora accederá a un proceso de aceleración, que incluye una gira a Silicon Valley, ronda de reuniones con los actores clave del ecosistema local, acceso a tecnología de vanguardia, mentoring, promoción y recursos en efectivo para apoyar su desarrollo. Este proceso de aceleración cuenta con aportes de la CCS, Ripley, IBM y Exceda.
Para más información ingresa el sitio oficial del evento www.eisummit.cl o ingresa a redes sociales de la CCS: Twitter: @SociosCCS / Facebook: SociosCCS /Linkedin: Cámara de Comercio de Santiago
La diferencia entre vender un negocio, una empresa y una marca comercial.
La Valorización de Empresas está adquiriendo una importancia creciente en el mundo empresarial actual. Factores como las fusiones, absorciones, la entrada o salida de capital privado (socios), entre otros, requieren de un proceso para determinar el valor final de una Compañía.
Identificará la valorización vía múltiplo de EBITDA
Identificará la valorización vía CAPM
Conocerá algunos casos prácticos de valorización de Empresas.
Dirigido a: Gerentes Generales, Gerentes y Subgerentes de Administración y Finanzas, Directores, CEO y Empresarios, entre otros.
Expositor: Marcelo Matus de la Parra
Ingeniero Comercial, Universidad de Chile. MBA, Universidad Adolfo Ibáñez. Postgrado en Finanzas, Universidad de Chile. Postgrado en Administración de Riesgo, Universidad del ITSMO, Panamá. Post-título U.C.L.A. Docente de Diplomados, Magíster en Control de Gestión y Magíster en Finanzas, Universidad de Chile. Socio – Director de Integral Chile. Director de 5 Compañías de diversos sectores industriales.
La gobernanza de Internet avanza trasladando el DNS a una entidad internacional.
Los Angeles, EE.UU. 4 octubre, 2016. En el globalizado mundo de Internet hay muchos sistemas técnicos tras los que hay un equipo que representa a la comunidad de usuarios o a las empresas privadas que hacen que todo funcione de forma coordinada y fluida. Muchos de estos sistemas han estado ligados durante las últimas décadas a los Estados Unidos, pero cada vez son más los que pasan al control de entidades sin ánimo de lucro de carácter internacional, sobre las que ni los Estados Unidos ni otros gobiernos pueden ejercer decisiones unilaterales, presiones u otro tipo de acciones.
Así, hace dos años se aprobó un calendario para uno de los cambios más relevantes en esta estructura: a partir del 1 de octubre de 2016, el Sistema de Nombres de Dominio (DNS, el registro de equivalencias entre direcciones IP de servidores y los nombres de dominio conocidos por los usuarios) dejará de estar meramente operado por la ICANN (la Corporación de Internet para la Asignación de Nombres y Números) para pasar a estar enteramente gestionado por esta entidad sin ánimo de lucro, ya al margen de la supervisión del gobierno estadounidense.
Stephen D. Crocker, Board Chair de ICANN.
La ICANN se creó en 1998 con el fin de hacerse cargo del DNS bajo la supervisión del Departamento de Comercio de EEUU, sustituyendo así al anterior organismo responsable (IANA o Autoridad de Números Asignados de Internet) que llevaba 10 años realizando esa labor supeditado al Departamento de Defensa.
El 1 de octubre de 2016, se marcó hace un par de años como el día de transición para la cesión del control del DNS (Sistema de Nombres de Dominio) según requería el gobierno federal de los Estados Unidos. La entidad encargada a partir de ahora será la ICANN (la Corporación de Internet para la Asignación de Nombres y Números), que ya operaba las funciones de la IANA (Autoridad de Números Asignados de Internet) mediante un contrato, que expira en esa misma fecha. De esta forma, la ICANN continuará su camino sin influencia gubernamental estadounidense, actuando de forma privada como una entidad sin ánimo de lucro a nivel internacional.
Todo esto puede parecer un enredo de demasiadas siglas, pero pasando por alto algunos tecnicismos y asuntos legales es fácil de entender.
“Esta transición se concibió hace 18 años, gracias al incansable trabajo de la comunidad mundial de Internet, la que redactó la propuesta final, lo que hizo esto una realidad”, dijo Stephen D. Crocker, Board Chair de ICANN.
El DNS es considerado una de las joyas de la corona de Internet en cuanto a su relevancia
El DNS es un registro de las equivalencias entre los números IP (Internet Protocol) que utilizan los routers y equipos conectados a nombres más fáciles de recordar y de escribir (como infoweek.biz). Cada vez que se teclea una dirección para visitarla, se envía un correo, se hace un clic en un hiperenlace o una app solicita contenidos a un servidor se está utilizando el DNS para convertir esos nombres en números IP.
Si el DNS no funciona, prácticamente nada funciona. De hecho, el DNS se replica por instalaciones de todo el mundo en empresas de telecomunicaciones y otras entidades (como NIC.cl) para garantizar que siempre funcione, aunque la versión maestra estará siempre controlada por la ICANN.
Tormenta política sin muchos conocimientos técnicos
Esto lleva tiempo desatando cierta polémica dado que en la práctica supone para los Estados Unidos renunciar a su “control” sobre parte de Internet y de hecho hace una década ni siquiera se planteaban ceder ese control técnico. También se sugirió que la ONU, a través de la Unión Internacional de Telecomunicaciones, fuera la responsable última de gestionar este importante sistema global.
En Estados Unidos políticos como el republicano Ted Cruz llegaron a plantear una propuesta de ley para “evitar que la Administración Obama regale Internet a una organización global que permitiría a 160 países tener más influencia en la gestión y operación de Internet”. Hasta Donald Trump saltó a la palestra diciendo que la transición “supondría ceder el control de Internet a las Naciones Unidas y la comunidad Internacional”. Los demócratas le respondieron: “Los Estados Unidos no controlan Internet. Nunca lo han hecho. La transición protege a la red de los controles autoritarios”. ¿Qué país inventó la Internet? EE.UU. Es evidente entonces que el inventor sí controla su invención. Por lo tanto, podemos asegurar que la aseveración del partido demócrata es incorrecta.
Al respecto también se ha dejado oír la voz de Tim Berners-Lee, el co-inventor de la Web, probablemente lo más visible y conocido de Internet, quien recordó que el DNS cuya gestión se está cediendo “no es nada más que un catálogo: no es algo que controle el contenido cuando se llega a una web. Y ya hay países, como Rusia, en los que por otros medios se censura qué páginas se pueden ver o cuáles no, sin que tenga que intervenir la ICANN”.
La principal objeción por parte de la mayoría de las naciones a este dominio estadounidense sobre la gestión de Internet radica en la posibilidad de que pudiera emplear su ascendiente para bloquear de manera discrecional páginas web por razones como el incumplimiento de los derechos de propiedad intelectual o por tener vínculos con organizaciones terroristas.
Tras la muerte en 1998 de John Postel, uno de los pioneros de la World Wide Web y el encargado hasta entonces de administrar Internet, el Gobierno estadounidense promovió la creación de la ICANN para asumir esas funciones.
La UE ha venido insistiendo a EE.UU. para que adoptara “pasos concretos y ejecutables” de cara a permitir que la ICANN sea un organismo completamente internacional, libre de cualquier control específico. Muchos, sin embargo objetan a esta cesión que, pese a que el principio que subyace detrás de Internet es el de la libertad, nadie puede asegurar esa premisa con mejores garantías que EE.UU.
Como ya lo viene demostrado desde sus inicios, la intención de la Administración Obama ha sido, paradojicamente, la de siempre perjudicar a EE.UU. y disminuir o anular su influencia económica en el mundo. Por lo tanto, si la Administración Obama está a favor de entregar el control del ICANN, entonces tenemos claro cual es el objetivo final de esta decisión.
Yu Hong, una experta en Internet de la Universidad del Sur de California, señaló que el gobierno de Estados Unidos ha aprovechado “plenamente” sus últimos días de supervisión de las funciones de Autoridad de Números Asignados de Internet para preparar el escenario de la futura evolución de ICANN.
Algunos legisladores y grupos de activistas de Estados Unidos exhortaron al Congreso a actuar para evitar la transición, la cual describieron como “entregar” el control del Internet a China y Rusia, acusación negada tanto por la administración Obama como por ICANN.
“Después del 1 de octubre, la ICANN podrá ser el administrador de las funciones de Autoridad de Números Asignados de Internet y la ICANN estará sujeta a nuevos arreglos de rendición de cuentas que reflejarán la voluntad de la comunidad mundial de múltiples partes de Internet”, indicó Milton Mueller, professor en el Georgia Institute of Technology.
Sin embargo, este año, el auto show estará a media luz, sin marcas importantes como Ford, Mazda, Volvo, Rolls-Royce y Lamborghini, no estarán porque no han querido participar.
Paris, Francia. 29 septiembre, 2016. El auto show de París, que se realizará del 1 al 16 de octubre, trae un montón de conceptos, modelos nuevos o actualizados. Uno de los modelos a presentar más destacados será el nuevo Audi Q5.
El nuevo Q5 utilizará la plataforma de la MLB el grupo VW y la colocación del motor longitudinal, así como perderá 91 kg. de peso en comparación con el modelo saliente.
Audi, también estrenará su más avanzado concepto totalmente eléctrico hasta la fecha. La primera versión de producción de la plataforma EV MEB, tendrá una autonomía de 400 km y saldrá a la venta en 2020. Otro del Grupo VW, Porsche, muestra la segunda generación Panamera por primera vez en auto show.
Dieter Zetsche, CEO de Daimler AG presentó el auto concepto, Mercedes EQ.
Dieter Zetsche, CEO of the Daimler AG presentó el auto concepto, Mercedes EQ. Muchos grandes fabricantes de automóviles ven al Salón del Automóvil de París, como una buena oportunidad para mostrar los nuevos autos eléctricos de emisiones cero, ya que el alcalde de Paris quiere prohibir los motores diesel para reducir la contaminación.
El nuevo Discovery de Land Rover del 2017 estará también en el show, con avances significativos ante el modelo actual, en términos de una estructura de cuerpo más ligero, más fuerte y un mejor, más lujoso interior.
BMW no se queda atrás y llega con el nuevo SUV X2. El X2 se basa en el modelo X1 existente, pero tendrá un carácter más deportivo.
Claro, el fuerte del show son los fabricantes franceses que muestran todo su poder en una exhibición de lujo, con Citroen trayendo su concepto Cxperience, un híbrido plug-in, y el modelo C3 que se suma a la línea de Citroen.
Los italianos no se quedan atrás, y Ferrari trae una versión V8 con motor de su GT4C de cuatro plazas Lusso, con 602 caballos de fuerza. También se rumorea que está revelando una versión descapotable de su superdeportivo Ferrari Laferrari V-12, apodado Aperta.
Para muchos la niña bonita es el concepto gracioso de Volkswagen. Se llama la I.D, y es el primero de una flota mucho más grande de vehículos eléctricos, que dice la automotriz asegura, “será su futuro”.
Por lo que muestra la automotriz puedo decir que es accionado por un motor eléctrico de 125kW que promete una autonomía de hasta 595 km, algo más que el Tesla.
El I.D es también el primer VW compacto en ser erigido sobre una nueva plataforma eléctrica. Se sienta en el kit modular “Electric Drive de VW”, que utiliza un tipo de batería de piso plano para dar cabida a más de almacenamiento eléctrico que el Golf EV de hoy.
“La plataforma de MEB de VW puede cubrir todas las marcas” dijo la automotriz el año pasado”. Esta plataforma cubre los automóviles más grande y más pequeño que el Golf, con rangos de 480 a 595 km.
El ADN de diseño es importante también en este caso, ya que se ve muy práctico para los ojos de con una nueva experiencia futurística, con un volante multifunción que se retrae completamente en el panel de control, cuando está en modo autónomo.
Y ahí está la auto-conducción que asoma su cabeza de nuevo. Aunque este modelo está programado para un lanzamiento cerca de 2020, VW calcula que para el año 2025, también estará disponible con capacidades completas autónomas.
Por el momento el I.D de auto-conducción, es una realidad que asegura salir a Volkswagen del tema de las emisiones, con una venta planeada de un millón de estos modelos eléctricos. ¿Será así?
Apps alternativas como Telegram Messenger y Signal Private Messenger cobran mayor relevancia ahora para los usuarios.
Hamburg, Alemania. 29 septiembre, 2016. Hace un mes, WhatsApp anunciaba que comenzarían a compartir datos con Facebook. De esta forma, la red social pasaría a tener acceso a nuestro número de teléfono y a otros detalles sobre nuestro comportamiento en la app de mensajería, como con quién hablamos y con qué frecuencia. WhatsApp dejó un mes de límite para aquellos que quisieran desactivar esta posibilidad, pero de ahora en adelante, y para los usuarios que no lo hayan desactivado, el compartir información entre servicios es inevitable.
La noticia levantó polémica desde el primer momento entre los reguladores y organismos de protección de datos, con alguna que otra queja en Estados Unidos y otros países. En España, la Agencia Española de Protección de Datos dijo en un primer lugar que lo que hacían “no es legal ni ilegal” aunque después cambiaron de opinión y confirmaron estar estudiando los cambios. Mucha más avanzada tiene la investigación el regulador alemán, que anunció una orden administrativa para que el intercambio de datos entre Facebook y WhatsApp cese por completo.
El Hamburg Commissioner for Data Protection and Freedom of Information (HmbBfDI), que se encarga de velar en Alemania por la protección de datos de los usuarios, no sólo exige a Facebook que deje de compartir datos de los usuarios alemanes entre su red social y su app de mensajería, sino que también va más allá y ordena que se elimine toda la información que se ha recopilado a través de este método de los más de 35 millones de usuarios alemanes de WhatsApp.
Dicho organismo considera que Facebook no ha cumplido su promesa de no compartir datos entre servicios, algo que aseguraron en público tras la compra, según explica el regulador. “El hecho de que esto esté pasando ahora no sólo un engaño a sus usuarios y al público, pero también constituye una infracción de la legislación nacional de protección de datos”, añade el HmbBfDI en el comunicado.
La única forma de que el intercambio de información sea legal es que exista una “base legal” para hacerlo y que consigan el permiso explícito de los usuarios. Johannes Caspar, responsable del organismo, asegura que ésta es una decisión que tienen que tomar los usuarios y, por tanto, “Facebook tiene que pedirles permiso antes”, algo que “no ha pasado”, añade.
Y ahora, ¿qué?
La pelota pasa a estar en la cancha de Facebook y WhatsApp, y se está por ver cómo la devuelven. En el pasado, el HmbBfDI ya se mostró muy crítico e insistente contra las prácticas de algunas empresas de servicios estadounidenses. Contra Facebook, por ejemplo, discutió precisamente por el reconocimiento facial en 2012 y un año después, en 2013, multó a Google con € 145.000 por recoger datos de las redes WiFi con sus autos de Google Maps.
El argumento que esgrime el HmbBfDI, mencionando que Facebook se comprometió a mantener su red social y la app independientes, es común entre algunos de los organismos que protestan contra esta nueva forma de recolectar datos de la compañía que dirige Mark Zuckerberg. Sin irnos más lejos, y también en Alemania, la agrupación de asociaciones de consumidores ya amenazó con una posible demanda contra WhatsApp por este motivo.
Apps alternativas como Telegram Messenger y Signal Private Messenger cobran mayor relevancia ahora para los usuarios.
Santiago, Chile. 29 septiembre, 2016. Así como su nombre en latín lo indica, Trinus es viaje, y el objetivo principal de este proyecto patrocinado por Chiletec, es hacer que la travesía en el extranjero sea una experiencia cómoda, agradable y una conexión como si estuvieses en casa u oficina.
Hoy, nuestro celular se ha vuelto prácticamente algo indispensable en nuestras vidas, no sólo por el hecho de llamar sino por la conectividad e información que entrega sin importar donde estemos. Sin embargo, al momento de viajar fuera del país comienzan los problemas.
José Tomas Poblete, Juan Eduardo Cruz y Manuel Ossa Urtado.
En la actual era de conectividad e inmediatez en la transmisión de información, tener conexión desde el celular en el extranjero resulta fundamental. Es aquí cuando la demanda por el servicio de roaming aumenta con creces, cuadriplicando su demanda en los últimos 10 años y resultando altamente costoso para el usuario.
En julio de 2014, Manuel Ossa comprendió que el tema de la conectividad en el extranjero era un nicho a explotar. Fue en ese momento en que se reunió con otros jóvenes emprendedores, José Tomas Poblete y Sergio Calvo, con quienes decidió dar vida a Trinus Roaming.
Trinus, proyecto ganador de capital semilla Corfo 2015, es un servicio de roaming (voz y datos) de bajo precio y alta calidad. Trabaja con una red de 450 operadores situados en diferentes partes del mundo, con el objetivo de entregar conectividad en más de 195 países, ubicados en los cinco continentes.
El ahorro de hasta un 70% a sus clientes, la alta calidad de redes y un excelente servicio al cliente, son los beneficios que entrega este servicio. “Nuestra gran ventaja es tener una estructura de costos liviana, y un servicio al cliente ágil, dispuestos a solucionar los problemas rápidamente, incluso adelantándose a ellos”, comentó Manuel José Ossa, fundador de Trinus.
Este proyecto, patrocinado por la Asociación de Empresas Chilenas de Tecnología Chiletec, comenzó su marcha blanca en enero de 2015, lanzando oficialmente el servicio dos meses después. A poco más de un año en el mercado, hoy Trinus se consagra como la cuarta empresa más grande del país en entrega de servicios de roaming, después de Claro y antes de Wom.
Actualmente, este grupo de jóvenes emprendedores, cuentan con operaciones en Chile y el extranjero, entregando un reconocido y alabado producto según sus clientes. “Hoy entregamos nuestro servicio a grandes empresas del país -Sky Airlines, CCU, Codelco, Viña San Pedro, Scotiabank, entre otras-, pero también pequeñas y medianas. En ambos casos, adecuados nuestra oferta según las propias necesidades del cliente, detalle que marca la diferencia y preferencia ante la competencia”, comentó Ossa.
Trinus, es un proyecto que continua en crecimiento. Para sus fundadores, las metas a corto plazo son consolidarse como empresa y duplicar sus ventas en los próximos 6 meses, además de abrir a mediano plazo oficinas en Perú, y operar firmemente en Argentina.
Por otra parte, el equipo de este emprendimiento expresó la importancia de contar con un constante apoyo de su entidad patrocinadora, entregando lineamientos y orientación en la formación de sus planes de negocios.
“Desde las primeras reuniones que tuvimos con Chiletec, desarrollamos una relación muy cercana, recibiendo apoyo directamente en el manejo de nuestro proyecto, además en capacitaciones, talleres, difusión y contactos en el extranjero”, expresó Manuel.
Argelia. 29 septiembre, 2016. Goldman Sachs, Société Générale y Julius Baer reiteran sus previsiones sobre el precio del crudo tras el acuerdo de la OPEP.
Las primeras valoraciones de los analistas a la decisión de la OPEP de congelar su producción de crudo relativizan su impacto. La reacción inicial fue mucho más contundente por parte de los inversionistas. Prueba de ello son las alzas de hasta el 6% que registró el precio del crudo nada después de conocerse el acuerdo alcanzado en Argelia.
La sesión de hoy enfría esta tendencia. El barril Brent choca con el nivel de los US$ 49, mientras que el barril tipo West Texas, de referencia en Estados Unidos, sufre para consolidar los US$ 47.
Reunión del Foro Internacional de Energía en Argelia.
El banco más influyente en el mercado de commodities, Goldman Sachs, no dudó esta mañana en reiterar su apuesta ‘bajista’ sobre el petróleo. El banco estadounidense mantuvo sin cambio sus previsiones sobre el precio del crudo para fines de año.
Si se cumplen sus estimaciones, el barril tipo West Texas se situaría a fines de diciembre en los US$ 43, por debajo de su cotización actual. Sus efectos se podrían retrasar a 2017, cuando un cumplimiento estricto de las cuotas podría elevar el precio del barril entre US$ 7 y US$ 10. Las proyecciones de Goldman Sachs no están muy alejadas de una escalofriante realidad: la acumulación de reservas a nivel mundial se encuentra en niveles record. Hay petroleo almacenado por todas partes, fácil de obtener en caso de cualquier emergencia mundial que se produzca. Incluso esta distribución de petroleo almacenado hace que la logística sea el escenario ideal, ante la eventualidad de que estalle una guerra mundial.
Los analistas de Goldman Sachs destacan que incluso aunque la OPEP ratifique finalmente la congelación de su producción, “a largo plazo nos mantenemos escépticos sobre la implementación de las cuotas propuestas”.
Más producción fuera de la OPEP
Apuntan además que si los países de la OPEP son estrictos esta vez en el cumplimiento de los límites establecidos, un repunte de los precios propiciaría a su vez un incremento de la producción, a mediano plazo, por parte de los países no pertenecientes a la OPEP.
Los analistas de Goldman Sachs no son los únicos que mantienen sin cambio sus previsiones sobre el precio del crudo después del acuerdo alcanzado en la OPEP. Los expertos de Société Générale reiteran sus estimaciones anteriores, que contemplan un precio del barril de Brent de US$ 50 en el último trimestre del año.
El banco francés sostiene que, en la práctica, las cuotas pactadas en Argelia implicarían un recorte mínimo, inferior al medio millón de barriles diarios, en la producción de la OPEP, dependiendo del bombeo de países especialmente inestables en los últimos tiempos, como Libia y Nigeria.
Lo limitado de este ‘recorte’ de producción lleva a los analistas de Société Générale a destacar como lo más relevante de la reunión de Argelia el pacto entre Arabia Saudita y el resto de países de la OPEP para volver a tener un papel activo en el mercado del petróleo.
Posible freno a los bajistas
El consenso recuperado en el seno de la OPEP también podría tener otro impacto relevante. Los analistas de Société Générale apuntan a que este acuerdo podría frenar a los inversionistas a la hora de adoptar posiciones bajistas significativas en el mercado del petróleo.
Julius Baer afronta también con ‘escepticismo’ las novedades anunciadas en Argelia. El pacto “parece más una propuesta que un acuerdo”, y excluye a los países con mayor potencial de incremento de producción, como Irán, Libia y Nigeria, subrayan.
La empresa suiza coincide en que un precio del crudo cercano a los US$ 50 aceleraría el resurgir de la producción de petróleo no convencional en EE.UU. De ahí que considere que el acuerdo de la OPEP es improbable que solucione los problemas de exceso de oferta en el mercado, y reitere su previsión anterior sobre el precio del crudo, en el entorno de los US$ 45.
La climatología, más determinante que la OPEP
En línea con el resto de empresas, Citigroup opta igualmente por mantener sin cambio sus anteriores previsiones, próximas a los US$ 50 para fines de año.
El banco estadounidense relativiza el impacto de las novedades procedentes de Argelia al afirmar que el precio del crudo, potencialmente, podría superar el umbral de los US$ 50 como consecuencia en mayor medida de la climatología del invierno que de la acción adoptada por la OPEP.
Santiago, Chile. 29 septiembre, 2016. PepsiCo ha nombrado a Sergio de Francesco como nuevo gerente general para Cono Sur, unidad comercial de la compañía que reúne a Chile, Argentina, Uruguay y Paraguay.
Sergio de Francesco, nuevo gerente general para Cono Sur de PepsiCo Alimentos.
El ejecutivo lleva 20 años en la compañía. Su carrera en PepsiCo comenzó en 1996 cuando ingresó al área de marketing para Argentina y otros mercados de Sudamérica. Posteriormente fue promovido al cargo de Director General de PepsiCo Bebidas Cono Sur. Desde el 2014 Sergio dirige los mercados de Argentina, Paraguay y Uruguay en la División de Alimentos, y a partir de este año lidera también la operación de PepsiCo Chile.
Antes de unirse a PepsiCo Alimentos, de Francesco trabajó en las áreas comerciales y de marketing de Molinos Río de la Plata.
Sergio es Ingeniero Industrial de la Universidad de Buenos Aires; cuenta además con una Maestría en Administración de Negocios de la Universidad Austral.
Madrid, España. 29 septiembre, 2016.La batalla por el talento ya se ha desatado. Como se preveía, una cierta reactivación del mercado laboral ha propiciado que cada vez más compañías se preocupen por algo que, durante los años más arduos de la recesión económica, parecía asegurado. Esta preocupación no es otra que la de mostrarse como la opción más atractiva en la que desarrollar una carrera profesional ante unos candidatos que, ahora, ya pueden volver a elegir.
El 54% de los trabajadores están buscando actualmente un cambio de trabajo, y el 40% de los directores de RR.HH. esperan una rotación voluntaria más elevada de lo normal en los meses que vienen.
De entre todos los factores que pesan en estos hechos, muchos de ellos tienen que ver con aspectos intangibles.
El capitalismo en su vertiente más industrial está dejando paso al ‘talentismo’, como acertadamente señaló Juan Carlos Cubeiro ya en 2012 . Los profesionales ya no buscan un puesto de trabajo, buscan una aventura que merezca la pena ser vivida.
Las compañías tienen un gran reto en este aspecto: sólo podrán conseguir objetivos realmente elevados si logran enamorar al talento para atraer y mantener a los mejores.
Factores de relevancia
Existen, al menos, tres factores de gran relevancia que están obligando a los profesionales del Talento a replantearse algunos aspectos de su labor.
El primer elemento que lo ha cambiado todo son los millennials y sus contagiosos valores. Se trata de la generación nacida entre 1980 y 1999 que, para el año 2025 (según Forbes) representará el 70 % de toda la fuerza laboral en el mundo.
Estos jóvenes profesionales tienen unas prioridades distintas. Priman su vida personal sobre la profesional. No conciben la idea de pasar toda su vida laboral en la misma empresa y necesitan una aventura a su altura, una digna de ser vivida. Y, para colmo, desean invertir sus mejores años y esfuerzos en una actividad en la que, aparte de desarrollarse personalmente, contribuyan a cambiar el mundo para mejor.
La verdad es que, atendiendo a esta radiografía del profesional millennial, nos damos cuenta de que casi todos lo somos, al menos de espíritu. No sabemos qué fue antes, si el huevo (la sociedad ha hecho millennials a los millennials) o la gallina (los millennials han hecho millennial a la sociedad); lo que está claro es que los valores que caracterizan a esta generación imperan actualmente en el mundo.
En segundo lugar, observamos que las personas, independientemente del rol que estemos adoptando, tenemos el cerebro configurado para pensar y actuar como un consumidor.
No es algo bueno ni malo per se; simplemente, es. Los menores de 35 años, que han crecido en un ambiente dominado por el consumismo, toman sus decisiones de empleabilidad como si fueran decisiones de compra. Esto es: “no me iría a trabajar para una empresa a la que no le compraría un producto”.
Esta realidad tiene, además, dos componentes. Por un lado, existe un vector relacionado con las creencias y con los valores: es probable que un candidato que no quiere comprar unas zapatillas a una marca porque sospecha que han sido fabricadas por niños no quiera, tampoco, pasar a formar parte de la plantilla de esa compañía. Por otro lado, existe un condicionante relacionado con la “experiencia de cliente”, por el cual un candidato exige de un empleador el mismo trato que le dispensaría una marca que está deseando complacerle. Por poner un ejemplo: como consumidores no entenderíamos que nuestras necesidades no fueran lo más importante para una marca. Lo mismo empieza a ocurrir dentro de las compañías con sus empleados y con los mejores candidatos.
El tercer factor que entra en juego es la “Transformación Digital”. Se trata de una revolución impulsada por la tecnología pero que, en realidad, donde ha provocado sus mayores efectos ha sido en algo tan poco tecnológico como es nuestra mente.
Gracias a la tecnología nos hemos convertido en unos seres empoderados, acostumbrados a proveer y a recibir feedback inmediato, a participar en la toma de decisiones, a comunicarnos instantáneamente con quien queramos, a compartir conocimiento; a, en definitiva, participar de una sociedad de acceso democrático a la información y a la comunicación. Podemos afirmar que la “Transformación Digital” ha sido, en realidad, una transformación social o cultural, porque, si mañana toda la tecnología desapareciera de un plumazo, nosotros no volveríamos a ser los mismos que antes de la revolución tecnológica. Hemos cambiado.
Por Alejandro Becerra, director de contenido del Chief Data & Analytics Officer, Central America.
México. 29 septiembre, 2016. Las predicciones sobre el crecimiento del mercado de análisis de datos y Big Data han sido bastante positivas en los últimos años para Latinoamérica. Gartner, Frost & Sullivan y muchos otros líderes en el tema, han estimado un crecimiento cercano al 40% en la adquisición de soluciones e implementación de herramientas para análisis de datos avanzado en los siguientes 4 años.
Ciertamente, los sectores Financieros y Aseguradores se encuentran liderando este fenómeno, bien sea por la necesidad de cumplir con agencias regulatorias en relación al uso y manejo de información o por una iniciativa clara de monetizar sus activos de datos. No obstante, otros sectores locales ya se encuentran en un proceso muy adelantado de modernización e implementación de estrategias corporativas para explotar sus datos.
Por ejemplo, industrias como Marketing, Telecomunicaciones, Retail y Producción de Bienes de Consumo están mostrando un mayor interés en las posibilidades que el análisis avanzado y Big Data les ofrece en términos económicos a mediano y largo plazo. Esta tendencia puede verse directamente reflejada, por una parte, en la aparición de un nuevo rol dentro de las estructuras directivas de dichas compañías – Chief Data Officer o Chief Analytics Officer-, y por otra, en, la implementación de procesos de modernización tecnológica para mejorar la captura y análisis de datos en tiempo real.
“Por ejemplo, industrias como Marketing, Telecomunicaciones, Retail y Producción de Bienes de Consumo están mostrando un mayor interés en las posibilidades que el análisis avanzado y Big Data les ofrece en términos económicos a mediano y largo plazo”.
A pesar de lo importante de estas iniciativas, y luego de más de 50 conversaciones directas con altos ejecutivos en la región, es evidente que aún hay un buen camino por recorrer antes de poder ver realmente los beneficios comerciales de cualquiera de estos sectores. Las razones principales para ello oscilan entre (1) la implementación de proyectos de modernización tecnológica en sus etapas iniciales; (2) la consolidación de programas de desarrollo profesional privados y públicos; y (3) la divergencia entre las necesidades locales y las soluciones disponibles en el mercado.
Interesantemente, las dos primeras aspectos han sido rápidamente reconocidos y varios agentes públicos y privados han sumando esfuerzos para poder acelerar sus resultados. Proyectos de modernización de infraestructura tecnológica y capacitación ya están en un estado muy avanzado de desarrollo. Mientras que el tercero, aún está lejos de lo que podría llegar a ser. Está claro que el mercado de soluciones local e internacional todavía se está ajustando al cambio organizacional y que se ven sorprendidos al ver el gran conocimiento que los nuevos CDOs y CAOs tienen sobre Big Data y análisis de datos.
Al parecer, son pocas las compañías que reconocen que éstos líderes regionales son los agentes adecuados y directos con los que pueden establecer posibles alianzas comerciales. De igual forma, son pocos los que se han tomado el tiempo de entender cuáles son sus reales necesidades, cuáles podrían ser las mejores formas de colaboración conjunta y cuál podría ser el camino más corto y económico para implementar programas duraderos de explotación de datos.
Por esta razón, Corinium Global Intelligence ha abierto la primera puerta de discusión directa en la región, para permitir que ambas partes tengan la oportunidad de reunirse y discutir sobre las mejor solución para solventar esta discrepancia. Del 24 al 25 de Enero de 2017 se llevará acabo el primer Chief Data & Analytics Officer, Central America, en el Marquis Reforma en la Ciudad de México, que reunirá más de 100 especialistas en la materia para discutir los aspectos operativos y estratégicos en la implementación de programas alrededor de la explotación comercial de datos. Esperamos ver a todos los expertos el próximo año en México!
Los lectores de InfoWeek cuentan con un 15% de descuento exclusivo y ofertas especiales para participar en la conferencia Chief Data & Analytics Officer, Central America. Los lectores de InfoWeek pueden utilizar el código IWCDAO15, especial para ellos para registrarse en la página web www.cdaoamericas.com.
Evita que tus visitantes se vaya de tu sitio rápidamente, aprende a optimizar tu sitio web.
Santiago, Chile. 28 septiembre, 2016. Cuando un sitio carga muy lento, los usuarios simplemente se van incluso antes de que la página termine de cargar. Como consecuencia de ello la productividad de tu negocio se reduce. Cada sitio necesita mantenerse lo más activo y con una carga de páginas rápida, la optimización del sitio puede ayudar con está difícil tarea.
Ahora bien, cómo saber si un sitio tiene una carga rápida o una carga lenta. Actualmente existen distintos medidores en la web. Incluso existe un sitio, el cual tiene una lista con los sitios con mejor carga diaria a nivel mundial. Pero ¿cómo saber cuando el tiempo de carga es muy lento? Si tu sitio se demora 20 o más segundos en cargar, entonces tu sitio podría considerarse como extremadamente lento. Si se tarda en cargar de 3 a 5 segundos en cargar, entonces tu sitio tiene una velocidad aceptable, pero quizás estés perdiendo muchas visitas. En cambio, si puedes lograr que tu sitio tenga un tiempo de carga entre 1 o 2, entraría en la zona de carga rápida.
Para determinar qué tan rápido es el tiempo de carga de tu sitio hay varios sitios para elegir, pero pueden reportar resultados diferentes unos de otros. Por tal razón recomendamos, que una vez seleccionada la herramienta que te gustaría utilizar para probar la velocidad de tu sitio, es importante utilizar siempre la misma para que pueda tener resultados consistentes. Como te dijimos hay muchos sitios para elegir, entre los más utilizados están PageSpeedGrader y Tools.PingDom. Ambos proporcionan una herramienta robusta y precisa para detectar la velocidad de carga de tu sitio web.
También hay que tener en cuenta que la velocidad de tu sitio puede variar. Por esta razón, se recomienda que utilices entre 5 y 10 exploraciones del mismo sitio para asegurar un conjunto de datos precisos sobre la velocidad de la página. Por supuesto, se pueden realizar más exploraciones a la página pero expertos en la materia recomiendan 10, ya que se ha encontrado que con esa cantidad se puede obtener un informe bastante bueno sobre el estado de la página.
Por otro lado la mayoría de los navegadores web tienen una herramienta integrada, la cual puede detectar la velocidad de carga de tu sitio. Esto puede ser una herramienta valiosa y gratuita para mejorar la velocidad de tu sitio.
¿Cómo utilizar la herramienta incorporada en un navegador para ver la velocidad de carga de tu sitio?
Haz clic derecho en cualquier lugar de la página y selecciona “Inspeccionar elemento”. Esto abrirá las herramientas para desarrolladores de tu navegador web.
Seleccione la pestaña de red.
Recargar la página con F5 o en la parte superior del navegador.
¡Listo! Inmediatamente veras como cargan los resultados.
Otra opción para los usuarios de un servidor VPS (Linux) es utilizar el comando curl [options] [URL…] con este comando además de visualizar el tiempo de carga, podrás enviar documentos a un servidor, utilizando cualquiera de los protocolos soportados (HTTP , HTTPS , FTP , Gopher , DICT , Telnet , LDAP o FILE). El comando está diseñado para funcionar también sin interacción del usuario o cualquier tipo de interactividad, además ofrece otros trucos como soporte de proxy, autenticación de usuarios, reanudar transferencia de archivos, entre otros.
No todos los sitios web necesitan optimizar lo mismo
Cada sitio es único en sus necesidades de optimización, pero se pueden definir ciertos patrones. Las acciones más comunes entre los grandes autores de la lentitud son imágenes muy grandes, mal optimizadas. Un sitio con imágenes pesadas es divertido para mirar, pero esperar a que cargue es aburrido. Para evitar este problema, asegúrate de que todas las imágenes que subas a tu sitio tenga un tamaño adecuado para la web con un máximo de resolución de 72px, asimismo cuida las dimensiones de la imagen. Si una fotografía o imagen tiene que ser redimensionada, se debe cambiar de tamaño antes de que sea cargada a la página. Al hacer esto con todas las imágenes puedes ahorrarte un segundo en el tiempo de carga.
Por lo general, al analizar la velocidad de una página se debe detectar cuales son los archivos que están causando problemas, el número de peticiones realizadas al servidor que se tienen que hacer con el fin de cargar toda la información que hay en la página, y qué tan grande es la página.
Cuando tienes una página que tiene más de 500 peticiones, o tiene que descargar más de 3 MB, puede que tengas muchos problemas con la cantidad de datos que tiene tu página web, los cuales deben ser verificados. Por un lado, optimizar las imágenes ayuda, pero también te ayudará reducir el tamaño de las páginas minimizando el número de contenido dinámico, lo cual puede reducir el número de solicitudes en gran medida.
Otra manera de ayudar a acelerar tu sitio es poner a trabajar el caché. Esta es una forma de optimizar tu sitio web, con ella podrás ahorrar tiempo de procesamiento y memoria. Por ende le tiempo de carga de tu página web será mucho menor. Cuando no se utiliza el caché el navegador debe realiza varias peticiones al servidor, para que este pueda enviar la página completa (imágenes, texto, JavaScript, HTML y CSS) al navegador y se pueda visualizar, está acción es poco eficiente para obtener un tiempo de carga optimo. En cambio, al utilizar la memoria del caché este proceso es más efectivo, debido a que éste guarda una copia de todo el contenido generado en el disco duro y no pierde tiempo solicitando información que ya tiene. Existen varias formas de caché pero este es el concepto o la función general.
Es importante instalar y configurar cualquier sistema de almacenamiento en caché, ya que cada sistema tiene más de una configuración por defecto un poco genérica, que probablemente no se ajuste a las necesidades de tu sitio. Como siempre, la prueba es la clave para encontrar qué ajustes funcionan mejor. Intenta configurar el sistema de almacenamiento en caché para que funcione con una configuración específica, a continuación, realiza algunas pruebas de velocidad y evalúa los resultados de carga. Si no te gusta el resultado, cambia la configuración y prueba de nuevo. Ensayo y error son las mejores herramientas para averiguar las necesidades específicas de tu sitio.
Esperamos que estos consejos te ayuden a mejorar la velocidad de tu sitio, la retención de usuarios, y la clasificación de SEO.
Londres, Inglaterra. 28 septiembre, 2016. Cada vez más gente en el mundo se conecta a Internet vía su celular, pero la experiencia no podría ser más diferente si uno vive en Costa Rica o Uruguay.
Uruguay tiene la mayor velocidad de conexión de América Latina: 10,21 megabits por segundo, según la última medición de la empresa británica Open Signal.
Mientras que Costa Rica se ubica al otro extremo del espectro, con una velocidad de apenas 2,55 Mbps.
Según el estudio, para el que se analizaron 95 países, el promedio mundial de velocidad en navegación está en 8,5 Mbps.
Pero como se puede apreciar en el gráfico de arriba en América Latina solo Chile, Perú y Uruguay están por encima de dicho promedio.
Mientras que a Costa Rica la acompañan en la lista de los más lentos Venezuela y El salvador.
Estos tres son, de hecho, los únicos países latinoamericanos estudiados que tienen conexiones de menos de 5 Mbps. Aunque la medición de Open Signal no incluyó a Honduras, Nicaragua, Cuba y Haití.
Para su estudio, Open Dignal -especializada en mapeo de cobertura móvil inalámbrica- tuvo en cuenta la actividad de más de 800.000 dispositivos que tenían instalada la aplicación de Open Signal, disponible para Android y iOS.
Y encontró que, en lo que a velocidad se refiere, nadie le gana a los teléfonos de Corea del Sur, con un promedio de 43,34 Mbps.
Los megabits por segundo se utilizan para medir la velocidad a la que se mueve la información de un lugar a otro.
Y en el caso de un teléfono celular la calidad mínima necesaria para transferencia de datos es de 0,032 Mbps.
Wifi vs. 3G
El estudio también determinó que la forma de conexión más utilizada por la mayoría de usuarios de teléfonos inteligentes al rededor del mundo es Wifi.
Y en el caso latinoamericano, esto es particularmente cierto en Argentina, Brasil, Venezuela, Uruguay, Colombia y Ecuador.
En estos países, más de la mitad del tiempo de conexión vía celular corresponde a la red inalámbrica en lugar de a los servicios de datos.
La práctica, sin embargo, es mucho menos frecuente en Bolivia, Guatemala y Paraguay.
Todo, a pesar de que el promedio de disponibilidad de redes 3G o superiores en América Latina es, en promedio, bastante bueno.
Tal vez porque aunque el 3G es considerado el estándar mínimo para la conexión de teléfonos inteligentes, su disponibilidad no garantiza la velocidad, y ademas los servicios de datos tienen costos asociados mucho mas altos que los de WiFi.
Sao Paulo, Brasil. 27 septiembre, 2016. La nueva realidad de la TI muestra que las soluciones de Big Data y Analytics tendrán un papel destacado en las organizaciones. De acuerdo con IDC, este mercado alcanzó la cifra de US$ 122.000 millones en 2015 y alcanzará los US$ 187.000 millones en 2019. Atento a este mercado, el congreso Futurecom 2016, que se realizará del 17 al 20 de octubre, en São Paulo, promoverá algunos paneles enfocados en este tema.
Empresas de diversos segmentos podrán beneficiarse de estas nuevas tecnologías para comprender mejor las necesidades y aspiraciones de sus clientes. Con los consumidores cada vez más participativos y con el poder de decisión en sus manos, las herramientas de big data pueden ayudar a extraer valiosas informaciones de las interacciones, que podrán auxiliar en el desarrollo de productos y servicios, promociones y campañas de fidelización.
“Si antes nos tomaba meses para levantar determinadas informaciones, hoy podemos obtenerlas en horas o minutos con las soluciones de Analytics, capaces de agregar valor y ofrecer un diferencial competitivo para las empresas de telecomunicaciones”, afirma Laudálio Veiga Filho, presidente del Futurecom. Según él, la expectativa es que las empresas busquen cada vez más tecnologías disruptivas para adaptarse a la llegada de una nueva Revolución Industrial, también conocida como la Industria 4.0.
En el primer día del evento, el Futurecom promoverá el debate sobre “Big Data y Advanced Analytics impulsando una nueva generación de negocios”. El panel, que será realizado el día 17 de 16h a 17h10, reunirá empresas como Accenture, Embraer, Nokia, Oracle, TIM, Vivo y WeDo Technologies.
“La capacidad de analizar grandes volúmenes de datos – estructurados y no estructurados – mejora la visión total del negocio, permitiendo prever situaciones futuras y actuar en momentos decisivos para fidelizar el cliente. Las empresas tienen mucho a ganar con las herramientas analíticas”, complementa Veiga.
Según datos de IDC Chile, un 80% de las empresas no tienen dimensión de lo que significa tener una brecha en seguridad y todo lo que se pone en riesgo.
Cada vez se hace más necesaria la adopción de aplicaciones de la tercera plataforma en términos de seguridad por la complejidad que están adquiriendo los ataques cibernéticos.
Santiago, Chile. 27 septiembre, 2016. Empleados que subestiman la seguridad, análisis que demoran mucho y que retrasan los sistemas, filtración de información confidencial y datos, presupuestos reducidos para enfrentar amenazas o ahorro de costos. Éstas son las nuevas preocupaciones de las empresas sobre las tecnologías de seguridad en la actualidad.
En este sentido, IDC Chile logró definir que las empresas están haciendo cada vez más necesaria la adopción de tecnologías de la tercera plataforma, y están viendo la información como un activo que se debe valorar y cuidar los procesos internos y externos de manera constante y permanente. La seguridad ya no es vista como un antojo o un complemento, es visto como una necesidad.
Dentro de los desafíos que son prioritarios este año se encuentran: la seguridad como un habilitador de negocios, seguridad en móvil y cloud y protegerse ante ataques cibernéticos que son cada vez más sofisticados y dirigidos.
“Las empresas tienen un valor de inversión bajo en seguridad, se quedan con lo más básico o solo con lo que norma exige e invierten sólo por miedo o por normativa. Hay que hacer un cambio en el paradigma de no sólo invertir por normativa, sino que crear políticas para enfrentar nuevos desafíos”, destaca Patricio Soto, Gerente de Investigación y Telecomunicaciones de IDC Chile.
Otra de las importantes cifras que resalta la consultora es que para el 2018 el 60% de las compañías van a integrar tecnologías de la información y de operaciones, y al 2020 el 10% de los ataques se dirigirán hacia sistemas inteligentes de IOT, por lo cual, la importancia radica no sólo en el equipamiento que tengan las empresas, sino lo que se puede hacer sobre las plataformas para integrar los sistemas de seguridad.
La seguridad de la próxima generación no consiste en un hardware o software, es un sistema inteligente que permite hacer gestión sobre la seguridad, hacer análisis en tiempo real e implementar sistemas cognitivos que le permitan a la empresa anticiparse a una brecha. Así las empresas deben invertir teniendo presente la predictibilidad y no la reactividad, sobre todo en un ambiente dinámico de cambios en los modelos de interacción entre las empresas y sus clientes.
Las estadísticas indican que la economía digital está en ascenso, que un 46% de los chilenos tiene un Smartphone y que 1 de cada 5 usuarios se conectan a Internet solo desde dispositivos móviles. El comercio electrónico móvil o “mCommerce” es el nuevo modelo de negocios.
Santiago, Chile. 27 septiembre, 2016. Como ya todos saben y esperan, en noviembre se realizará la cuarta versión de Cyber Monday 2016, el evento más grande de Internet y comercio electrónico, con símiles en todo Latinoamérica, y que este año espera el fortalecimiento de las plataformas móviles, como canal preferencial de navegación, descarga y compra. En Chile existen 4,5 millones de consumidores online.
A pocos meses de realizarse este evento de comercio electrónico masivo que año a año suma empresas y multiplica tráficos y ganancias, Exceda –representante de Akamai Technologies en Latinoamérica- como socio tecnológico de la CCS (Cámara de Comercio de Santiago) en la disponibilidad de contenidos para el sitio oficial del evento, confirmó que toda empresa sin importar el sector, están mejorando las condiciones técnicas y de seguridad de sus sitios, para garantizar una mejor experiencia de navegación, descarga y compra en las tres jornadas que dura Cyber Monday.
La tendencia indica que el 35% de los usuarios que realizan compras a través de dispositivos móviles, compran productos al menos una vez por semana, comparado con el 15% que lo hacen a través de desktops. De hecho, los usuarios móviles de eCommerce tienen mayor participación en los distintos canales de venta que los de desktop, ya que la experiencia web móvil tiene más impacto en las compras hechas online y offline, y ello se demuestra en que comparan precios y leen referencias antes de sus compras.
En nuestro país 1 de cada 5 usuarios solo usa dispositivos móviles para conectarse a internet y el 74% de los “usuarios mobile” se rehúsa a esperar más de 5 segundos a que descargue un sitio móvil, lo que denota un alto nivel de exigencia para atender sus necesidades y fidelizarlos. Para Rodrigo Valdés, country manager de Exceda Chile, “Los móviles ya no son la plataforma del futuro, sino la actual. El mCommerce es un nuevo modelo de negocio para toda empresa, y desde ya son fortalecidas para el siguiente Cyber Monday 2016, en noviembre próximo”.
Según el último Informe de eMarketer, Brasil es el país con mayor cantidad de usuarios de smartphones en América Latina en 2016, con 57,8 millones, seguido por México, Colombia y en quinto lugar Chile, con 7,9 millones. En proporción a la población total del país, Chile encabeza la región, ya que alrededor del 46% de sus habitantes posee un teléfono inteligente, anticipando una rápida penetración del comercio electrónico a través de móviles, o mCommerce.
El número de usuarios de smartphones residentes en Latinoamérica ascenderá a 182,4 millones al cierre de 2016 y se prevé un aumento del 22,2% cada año, alcanzando los 245,6 millones en 2019.
Estadísticas de la CCS indican que la economía digital mueve en Chile US$ 40.000 millones al año. El eCommerce se duplica cada tres años y crece 10 veces más rápido que el comercio físico.
Las mediciones respecto del tamaño de la economía digital indican que en Chile representa alrededor del 3% del PIB, similar al que tiene la industria alimenticia, el sector silvoagropecuario o los servicios de electricidad, agua y gas. Hacia el año 2020 su incidencia representará el 4,5%, mientras que en países avanzados como Japón o Estados Unidos y la EuroZona, la economía digital es del orden de 7% y 8% del PIB y hacia fines de la década podría acercarse a un 12%.
En la próxima versión de Cyber Monday 2016, las expectativas apuntan a seguir ampliando la cantidad de participantes, superar los US$ 100 millones en ventas y atraer a cada vez más consumidores al canal online.
Hitos y curiosidades del Cyber Monday
Los cyberataques registrados correspondieron a un total de 9.150.113 intentos maliciosos, todos ellos mitigados, un 66% de éstos se originaron en Chile, seguido de Brasil (14%), Estados Unidos (10%), Rusia (7%) y México (0,5%). Los ataques frustrados fueron en un 99,74% del tipo DDoS.
Las ventas alcanzadas por el Cyber Monday 2014 superaron en un 36% los resultados del año anterior (US$ 56 millones). Las cifras del primer día del evento multiplicaron por casi 10 veces las ventas de un día normal en Internet.
En la versión 2015, el total de visitas a los 83 sitios participantes llegó a 26 millones, casi 10 millones por sobre lo observado en 2014.
Los consumidores realizaron más de 390.000 compras por un monto récord de US$ 83 millones, sobrepasando las poco más de 300.000 transacciones por US$ 76 millones que se registraron el año anterior.
El uso de móviles durante el evento tuvo un fuerte crecimiento, alcanzando al 41% de las visitas a las tiendas online, por sobre el 30% registrado en el año pasado. Las ventas a través de móviles -casi inexistentes en 2014 – alcanzaron a un 12% del total este año, lo que permite prever una rápida expansión de este tipo de conectividad en el comercio electrónico para los próximos años. Esto resulta particularmente relevante si se considera que la movilidad permite a los usuarios realizar compras prácticamente desde cualquier lugar y momento, con la comodidad que ello implica.
Entre las visitas que ingresaron al evento desde el sitio oficial www.cybermonday.cl, el 55% correspondió a mujeres y el 45% a hombres, otro dato interesante, considerando que hasta hace unos años, los hombres eran compradores más frecuentes en el canal online. Por grupo etario, en tanto, la mayor cantidad de usuarios provino del segmento entre 25 y 34 años, seguido por los jóvenes entre 18 y 24 años y los adultos entre 35 y 44.
A diferencia de años anteriores, las últimas horas del evento mostraron gran intensidad, duplicándose las compras en relaciones a 2014 durante gran parte de la tarde y noche del miércoles 18. Los medios de pago funcionaron sin contratiempos, convirtiéndose en un aporte a los buenos resultados que obtuvo el evento. El sitio web del Cyber Monday soportó la carga extraordinaria sin interrupciones.
En promedio, las empresas participantes reportaron más de 20.000 nuevos clientes cada una, en línea con el objetivo de poner los beneficios del comercio electrónico al servicio de más consumidores. Asimismo este considerable incremento de los usuarios revela que crece la confianza en este canal, en virtud de una buena experiencia de compra.
Luego del increíble éxito alcanzado por Corinium Global en el Chief Data and Chief Analytics Officer varios lugares del mundo, incluyendo USA, UK, Europa, áfrica, Australia, Asia y el Medio Oriente, llevaremos acabo el evento inaugural en Latinoamérica en Ciudad de México del 24 al 25 de Enero de 2017.
El evento reunirá más de 100 altos ejecutivos especialistas en análisis avanzado de datos y Big Data, con la finalidad de discutir los desafíos operativos, innovación, mejores prácticas y casos exitosos luego de la implementación de programas específicos al interior de sus organizaciones. Ciertamente, el CDAO, Central America, será una plataforma crítica para fomentar la discusión y el contacto profesional para promover el uso lucrativo de análisis de datos.