En 2016 se dará “la batalla de los robots”

  • El informe de Radware revela las tendencias de los ataques en 2015 y las predicciones del mercado para 2016. Esto incluye aumento en la automatización de los robots, de ataques con rescate, y de Frecuencia y Volumen de DDoS.

Mahwah, EE.UU. 6 febrero, 2016. Radware (NASDAQ: RDWR), proveedor global de soluciones de seguridad cibernética y de entrega de aplicaciones que garantizan un óptimo nivel de servicio para aplicaciones en centros de datos virtuales, de nube y definidos por software, anunció el lanzamiento de su Informe Global de 2015-2016 sobre la Seguridad de Aplicaciones y la Seguridad de la Red.

El informe anual identifica las principales tendencias de ataque de 2015, describe de qué forma se prepara la industria y ofrece predicciones para 2016. Durante 2015, Radware descubrió que ninguna industria era inmune a los ciberataques, y solo unas pocas estaban preparadas. En 2016, se estima que los ataques serán aún más agresivos con la llegada de los ataques avanzados y persistentes de denegación de servicio (APDoS, Advanced Persistent Denial of Service), y un aumento en la cantidad y alcance de los ataques sofisticados originados por robots contra la infraestructura de aplicaciones web.

Radware - Informe Seguridad

“La primera línea de seguridad de la información no incluirá humanos”, dijo Carl Herberger, vicepresidente de soluciones de seguridad de Radware. “Como las defensas siguen sucumbiendo ante la interminable ola de ataques sofisticados y automatizados, y una cantidad infinita de nuevas técnicas de ataque, la idea de que los humanos tengan la capacidad de utilizar tecnologías de detección y diseñar respuestas en tiempo real, desaparecerá. Nos acercamos a la caída de las defensas cibernéticas humanas y al surgimiento de la defensa cibernética a través de robots”.

El Equipo de Respuesta a Emergencias (ERT, Emergency Response Team) de Radware, el cual monitorea de manera activa y mitiga los ataques en tiempo real, crea este informe anual para que pueda ser utilizado por la comunidad de la seguridad, basado en las propias experiencias de esa comunidad en las batallas contra los ciberataques y las perspectivas de los proveedores de servicio externos. El informe se preparó a partir de una combinación de datos de una encuesta independiente de proveedores con más de 300 organizaciones y la experiencia del Equipo de Respuestas a Emergencias para ofrecerle las perspectivas y las mejores prácticas a la industria, lo cual será de ayuda para prepararse para el panorama de seguridad del 2016.

Estos son algunos de los descubrimientos clave del informe:

  • Aumento en la frecuencia de los rescates: Los atacantes centran sus demandas de rescates en los proveedores de servicio, y cuando no se realiza el pago impulsan grandes ataques de DDoS y SSL.
  • Una gama más amplia y más sofisticada de modalidades de ataque: Los ataques se están volviendo completamente automatizados y más sofisticados cada día. Las nuevas técnicas, como los ataques en ráfagas (Burst Attacks), Denegación de Servicio Avanzada y Persistente (APDoS), el aumento en los ataques volumétricos y los ataques a IP dinámicas hacen que sea más difícil defenderse con la mayoría de las soluciones manuales.
  • Aumento de ataques en las industrias de la educación y de hosting: En 2015, muchos mercados verticales se enfrentaron a niveles constantes de amenazas, mientras que tanto la educación como el hosting pasaron de un riesgo “Medio” a uno “Alto” en el mapa del Anillo de Fuego de Radware. Las organizaciones en estos mercados verticales tienen una mayor probabilidad de experimentar DoS/DDoS y otros ciberataques, y sufrirlos con más frecuencia que el año pasado.
  • Una creciente necesidad de automatización de la seguridad: Con el aumento de APDoS y otros ataques volumétricos, entre los cuales se incluyen la imitación del comportamiento del usuario y el enfoque en direcciones IP dinámicas, existe una amenaza emergente que exige una detección y una mitigación más avanzadas.
  • Más del 90% sufrió ataques en 2015: Más del 90% de las organizaciones mencionó que sufrió ataques en 2015. Solo una de diez no había sufrido ninguno de los ataques mencionados en el informe.
  • El sector empresarial aún no está preparado para los ciberataques: Mientras que más del 60% está extremadamente o muy bien preparado para protegerse contra el acceso no autorizado y los daños de gusanos y virus, la misma proporción de encuestados indicó que estaba levemente o no muy preparado contra las amenazas persistentes avanzadas (APT, Advanced persistent threats) y el robo de información. En el caso de la denegación de servicio distribuida (DDoS, Distributed Denial of Service), los resultados se dividen de forma pareja entre preparado y no preparado para protegerse contra estos ataques.
  • Se identificaron brechas en la protección de manera generalizada: Un tercio de los encuestados mencionó una debilidad en la saturación volumétrica o de la línea, y otro cuarto mencionó vulnerabilidad de la red y ataques HTTPS/SSL. Las debilidades generales se distribuyen relativamente de forma pareja, lo que supone una verdadera brecha en la protección para la mayoría de las organizaciones en la actualidad.

“En 2015, los ciberataques pasaron a formar parte de la normalidad, ya que el 90% de las organizaciones encuestadas fueron víctimas de ellos en diferentes grados”, agregó Herberger. “Las organizaciones se deben preparar para los desafíos que surgirán en 2016, preparando el terreno ahora para comenzar a combatir los nuevos métodos y la motivación”.

Las recomendaciones del ERT de Radware incluyen los siguientes pasos para anticiparse y mitigar los ataques:

  • Una apuesta a los robots y la automatización. Ya no es realista creer que los humanos pueden utilizar tecnologías de detección y diseñar respuestas para enfrentar las amenazas en tiempo real. En realidad, se ha vuelto necesario pelear contra las amenazas automatizadas con tecnología de automatización.
  • La protección del punto ciego. Para atacar el punto ciego de una organización, los atacantes utilizan campañas de ataques multivectoriales mediante el aumento de la cantidad de vectores de ataque que se lanzan en paralelo y que tienen como objetivo diferentes capas de la red y el centro de datos. Si se omite la detección de un solo vector, el ataque es exitoso y el resultado es altamente destructivo.
  • Mitigue todos los tipos de ataques de DDoS. Las organizaciones necesitan una solución híbrida de un único proveedor que pueda proteger las redes y las aplicaciones de una gran cantidad de ataques. Una solución verdaderamente integrada incluye todas las diferentes tecnologías necesarias, esto incluye la protección de DoS, análisis de comportamiento, IPS, protección de ataques cifrados y firewall de aplicaciones web (WAF).
  • Comprenda las probabilidades y las causas de los ataques. Las suposiciones de las mitigaciones se deben mover en paralelo con el nivel de riesgo. Ya sea que se esté preparando para un aumento en el riesgo para la industria, o que esté atento a la manera en la que los hacktivistas operan y seleccionan sus objetivos, la comprensión fomenta la preparación para mitigar los riesgos y defender su red.

Para descargar el Informe Global de 2015-2016 sobre la Seguridad de Aplicaciones y la Seguridad de la Red completo, el cual incluye las predicciones y las recomendaciones de ERT sobre cómo se pueden preparar las organizaciones de la mejor manera para mitigar las amenazas cibernéticas en 2016, visite www.radware.com/ert-report-2015/.

Yahoo, gigante con los pies de barro

EE.UU. 4 febrero, 2016. Yahoo agoniza. La compañía nacida en los albores de Internet y la era de los portales anunció un doloroso plan de ajustes, que incluye no solo el despido del 15% de su plantilla, 1.600 empleados (la multinacional ya había pasado de tener 14.000 trabajadores en 2012 a 10.700 en la actualidad), sino también el cierre de sus oficinas en Madrid, Dubái, Buenos Aires, Milán y México DF.

La compañía fundada en 1995, que se ha convertido en un gigante con pies de barro, hizo el anuncio tras presentar unos malos resultados. En el último trimestre de 2015, tuvo un ingreso de US$ 1.270 millones y obtuvo US$ 63 millones de ganancias. Para el año 2015 dio pérdidas de US$ 4.359 millones, frente a los US$ 7.522 millones de ganancias de 2014.

La tecnológica, que también cerrará negocios como Yahoo Games y su plataforma de smart TV y venderá algunas patentes e inmuebles, dijo que “el agresivo plan estratégico” persigue elevar sus ingresos procedentes de sus negocios de vídeo, móviles y las redes sociales hasta los US$ 1.800 millones en 2016. También, busca que su EBITDA ronde los US$ 1.000 millones en el segundo semestre y reducir sus gastos operativos en más de US$ 400 millones para final de año.

Marissa Mayer
“El plan de reestructuración incluye la inversión en lo que la compañía llama ‘Mavens'”, dijo Mayer. Mavens se refiere a los móviles, el vídeo, y negocios nativos y sociales de Yahoo, donde su ingresos por publicidad están creciendo.

Más allá de despidos y cierres, la compañía hizo veladamente una confesión relevante. Está dispuesta a vender algunos activos. En una nota, aseguró que “el consejo de administración cree que explorar alternativas estratégicas adicionales, en paralelo a la ejecución del plan de gestión, beneficia a los intereses de nuestros accionistas”. Aunque la separación de su participación en Alibaba sigue siendo su principal intención y “el camino directo hacia la maximización de nuestro valor”. El pasado diciembre, Yahoo decidió abandonar el plan inicial para escindir su participación del 15% en la compañía china de comercio electrónico después de que las autoridades de EE.UU. rechazaran comprometerse a que la operación fuese a ser libre de impuestos.

Es evidente que Yahoo necesita desesperadamente una transformación. Y por ello, anunció que se concentrará en tres plataformas globales, su buscador, su correo electrónico y su plataforma social Tumblr, mientras en el área de contenidos volcará sus esfuerzos en las noticias, los temas relacionados con el deporte, asuntos financieros y estilo de vida. Quiere poner foco en lo que funciona y generar más ingresos.

La cuestión es si el actual esfuerzo –que llega después de que la empresa de inversión Starboard Value pidiese a Yahoo en noviembre pasado que vendiera su negocio central de Internet– da sus frutos. Y si Marissa Mayer, al frente de la empresa des­de 2012, consigue quitarse la presión de los inversionistas, que ven cómo el valor de la compañía sigue cayendo. Sus acciones han perdido un 35% en el último año.

“Yahoo hace mucho tiempo que es una empresa en busca de identidad. Sus servicios han quedado envejecidos o desconectados. Todo a pesar de haber sido un ico­no de la Internet de los noventa”, explica Gonzalo Mar­tín, socio director de Territorio Creativo. En su opinión, el fichaje de Mayer, proveniente de Google, fue el gran intento de reconvertir una empresa “a la que siempre se la vio muy dependiente en sus valoraciones de su importante presencia en Japón y de su participación en el gigante chino Alibaba”. Según Martín, hoy el sentimiento generalizado es que Mayer ha fracasado después de haber sido casi una ejecutiva de moda. “Aunque los ingresos de Yahoo siguen subiendo (demasiado poco), el resto de sus indicadores financieros son muy decepcionantes para una sociedad que cotiza en la Bolsa. En general, se puede decir que Yahoo es un servicio que no es innovador en el entorno de Internet actual y sin expectativas de encontrar fuentes de crecimiento atractivas. En general Yahoo hace mucho que es irrelevante en la mente de cualquier usuario de la Web”.

Para Nacho de Pinedo, CEO de la escuela de negocios digitales ISDI, pocas veces ha habido en la historia una empresa que haya sabido entender tan bien su mercado y que haya generado una tecnología competitiva pero que, por otro lado, haya sido incapaz de aprovecharse estratégicamente de todo ello como Yahoo. Este experto recuerda que la compañía nació apalancada en el concepto de portal: un lugar en Internet donde básicamente se podía satisfacer todas las necesidades del usuario sin tener que de salir de su dominio. “Para lograrlo, la clave era ofrecer contenidos y desarrolló una serie de ofertas que son precursoras de muchas de las grandes empresas que hoy existen en el panorama digital: Yahoo News precursor de las verticales de noticias, Yahoo Music un concepto similar a Spotify o Yahoo Answers parecido a la Wikipedia”.

Según De Pinedo, el problema de Yahoo es que se quedó anclada en su mentalidad sin desarrollar todas las piezas de su puzle y encajarlas. “Tuvo toda esta tecnología a su alcance pero no supo generar una visión estratégica capaz de unificar estos elementos ni de enfocarse en profundidad en los más relevantes para generar verdaderos Category Killers en sus segmentos”. Tampoco supo frenar, dice, el aluvión de huidas de directivos hacia otras compañías motivado por la falta de foco de sus directivos principales y tal vez por no haber superado el trauma de introducir como marca a su buscador a una joven startup llamada Google, sin ser capaces de aprovecharse de su éxito. “Yahoo acabó concentrando su negocio en lo que fue la base de su startup inicial: la comercialización publicitaria de contenidos, lo cual a estas alturas no lo diferencia demasiado de los principales periódicos tradicionales que operan en el entorno digital”. Ahora habrá que ver si Mayer es capaz de enderezar el dudoso destino de Yahoo o acaba en manos de algún gigante como Verizon.

Mayer, ahora quiere simplificar el negocio para mejorar su ejecución, justo todo lo contrario de lo que ha hecho en los últimos años cuando ha gastado más de US$ 3.000 millones comprando decenas de startups que hoy valen mucho menos y que nadie sabe que hacen en Yahoo.

El análisis que disecciona a Yahoo

Si le interesan las finanzas y ver cómo se analiza la creación o destrucción de valor en una empresa, entonces le recomendamos que lea el informe que elaboró SpringOwl Asset Management LLC diseccionando la evolución de Yahoo bajo la dirección de Marissa Mayer en los últimos 5 años. Podemos estar o no de acuerdo con las propuestas del informe pero el análisis que realizan sobre la compañía tiene una capacidad de síntesis y una precisión quirúrgica que son todo un manual de cómo debería ser analizado el trabajo de un CEO al frente de una empresa que cotiza en la Bolsa.

Chile y China estudian unir telecomunicaciones

  • El subsecretario de Telecomunicaciones, Pedro Huichalaf anunció que en abril se licitará la construcción de un tendido de fibra óptica de 3.000 km, entre Puerto Montt y Puerto Williams.

Shanghai, China. 4 febrero, 2016. En el marco de la visita oficial a China encabezada por el subsecretario de Telecomunicaciones, Pedro Huichalaf, y en la que participaron miembros del sector público y privado de Chile, la comitiva chilena organizó el Seminario sobre “Oportunidades de Inversión en Telecomunicaciones y Tecnologías de la Información”, presentando los principales proyectos de inversión en el área que se desarrollan en Chile. Especialmente, se destacó el proyecto de Fibra Optica Austral. La delegación también visitó la ciudad de Shanghai para estudiar en terreno la fabricación, composición y utilidades de cableados submarinos en Hangtong Group y Huawei Marine.

Chile - China - Telecomunicaciones - Pedro Huichalaf
El subsecretario de Telecomunicaciones, Pedro Huichalaf.

China y Chile están estudiando la construcción de un cable transoceánico que una ambos países y pueda ser la puerta de entrada de las telecomunicaciones chinas a América Latina, explicó el subsecretario de telecomunicaciones de Chile, Pedro Huichalaf.

Huichalaf destacó que Chile es el país “líder en conectividad” de América Latina, por lo que una relación de “socios estratégicos” entre ambos países puede beneficiar a Chile en la recepción de inversión y tecnología y a China con la entrada a la región del Cono Sur.

El recorrido por las dependencias de la fábrica, tuvo como objetivo profundizar en detalle los tipos de insumo que serán claves para el proyecto de Fibra Optica Austral, que en Chile será crucial para conectar a los magallánicos con el resto del territorio nacional utilizando tecnología de punta.

Los anfitriones exhibieron al subsecretario Huichalaf diversas redes, dándole a conocer hitos importantes en el ámbito de telecomunicaciones y en el cual la entidad ha sido partícipe.

En ese contexto, explicaron el importante avance que han tenido desde sus inicios en 2008 a la actualidad, convirtiéndose en una de las empresas más importantes en el mundo en esta materia.

“Nos interesa seguir perfeccionándonos porque nuestro trabajo beneficia a todo un país. En la visita a la fábrica pudimos profundizar nuestro conocimientos en cuanto a la eficiencia, confiabilidad y seguridad de las redes, conocimiento que será clave para cada paso que demos en Chile con el proyecto de Fibra Optica Austral, el cual se ha posicionado como uno de los más novedosos que se gestionan en nuestra región. El trazado comprende una longitud de  3.000 km desde Puerto Montt hasta Puerto Williams”, relató el subsecretario Huichalaf.

Chile - China - Telecomunicaciones
Miembros de la comitiva del sector público y privado de Chile.

Posteriormente, se realizó una exposición de los trabajos y proyectos que realiza Huawei Marine, reunión encabezada por el vicepresidente de la compañía, Ma Yanfeng, instancia en la que se conoció un plan de fibra submarina que unirá a Brasil con el continente africano y que contempla al menos 6.500 km de fibra.

Asimismo, se expuso un segundo proyecto destacado que es el “Upgrade” de red de cable submarino existente entre Sudáfrica e Inglaterra, con más de 14.500 km de redes construidas.

Por último, la delegación chilena conoció las dependencias donde se elabora la fibra óptica, oportunidad donde vieron los pasos de fabricación y empalme, y cómo posteriormente el material es embarcado para su implementación o distribución.

Huichalaf, recordó que Chile necesita mejorar su infraestructura de telecomunicaciones para una mayor capacidad de transmisión de información, algo necesario en los numerosos observatorios astronómicos que tiene el país, y que requieren un elevado procesamiento de datos.

Huichalaf explicó que su visita a China también buscó captar posibles empresas que quieran llevar a cabo el proyecto de FOA (Fibra Optica Austral), una infraestructura que uniría la aislada parte sur de Chile con el resto del país, y que “en abril” entrará en licitación.

FOA puede traer oportunidades para crear “polos de desarrollo” en estas zonas poco pobladas y menos desarrolladas.

En este sentido, el subsecretario de Telecomunicaciones comparó el caso chileno con China, ya que ambos países tienen zonas urbanas muy pobladas pero una “ruralidad” que necesita más inversión del Estado para ponerse a la altura del desarrollo del país.

Chile - China - Telecomunicaciones - Pedro Huichalaf

“Ambas naciones tenemos la misma lógica de política pública”, aseguró Huichalaf, que explicó cómo el Gobierno chileno actúa -a través de subsidios o ventajas- para que las grandes teleoperadoras den un servicio con el mismo precio y calidad a las zonas rurales más aisladas.

Aún así, ha asegurado que la situación de Chile en el campo de las telecomunicaciones es puntera en América Latina, aunque por debajo de la media de la OCDE (Organización para la Cooperación y el Desarrollo Económicos).

Según los datos ofrecidos por Huichalaf, el 70% de los chilenos acceden a internet (el 78% de ellos a través de sus teléfonos móviles), mientras que la media de América Latina es del 35% (la media de la OCDE, por otro lado, es del 78%).

Nueva York lanza WiFi gratis de 300 megas

  • En Chile quizás quien se encuentre en la mejor posición para imitar esta idea seria GTD con su extensa red de fibra óptica en Santiago.

Nueva, York. EE.UU. 2 febrero, 2016. Donde antes se levantaban sucias y viejas cabinas telefónicas, la municipalidad de Nueva York está instalando puntos de acceso de banda ancha que darán una conectividad sin precedentes a los que pasean o conducen por las calles de Nueva York. El servicio LinkNYC es, para los ciudadanos que todavía no lo conocen, poco más que un mueble urbano alto, de más de dos metros de altura, con un anuncio en uno de sus lados, y una tablet táctil en el otro.

Pero su verdadero interés reside en lo que no se ve. Instalado en la 15ª con la 3ª Avenida, el primero de estos puntos de acceso inalámbrico ofrece un ancho de banda simétrico de 300 megas a través de una conexión WiFi convencional (802.11 ac) y a un alcance de hasta 50 metros.

Y lo mejor de todo es que es gratis. Esta especie de kiosko de Internet permite a cualquiera conectarse a su red sin pagar, y realizar videollamadas, descargar su serie favorita o cualquier otra cosa que se le ocurra.

NYC - linknyc - WiFi

Este peculiar mueble también cuenta con cargadores USB (la electricidad también la regala), permite realizar videollamadas sin cobrar, cuenta con un servicio de información a ciudadanos (mediante la pantalla táctil), los ingresos provendrán por la publicidad convencional que luce en sus costados.

Son muchos los que se plantean ahora si tiene sentido pagar por tener una conexión de banda ancha en casa (el promedio en EE.UU. es de 30 Mbps), cuando al domicilio ahora llega la señal de estos monstruos de la conectividad de LinkNYC. Y lo más paradójico es que la compañía ya aseguró que no impedirán a nadie que se conecte continuamente desde su casa.

LinkNYC planea extender esta red en los próximos meses y sus kioskos, que se conectan a través de la red de fibra óptica existente en el suelo, crecerán hasta alcanzar los 500 este verano. A mediano plazo, el plan es reemplazar 7.500 cabinas telefónicas.

Tatuaje y chip para el seguimiento de datos médicos y financieros

EE.UU. 2 febrero, 2016. Una nueva compañía de software ha desarrollado un tatuaje que se coloca en el brazo de una persona permitiendo el seguimiento de la información médica y financiera.

La empresa Chaotic Moon, fundada en 2010, afirma que el tatuaje puede monitorear el cuerpo y enviar información a los médicos evitando que las personas realicen exámenes anuales, ya que le dirá a los médicos cuando una enfermedad está a punto de ocurrir.

“Este tatuaje se puede colocar sobre la piel una vez al año para monitorear toda la información que normalmente se genera en un examen físico y enviarla a su doctor, y si hay un problema él puede llamarlo”, dijo Eric Schneider, hardware creative technologist.

También eliminará la necesidad de una billetera, deteniendo así a hackers y ladrones de identidad, lo que se ha convertido en un problema creciente.

Algunas personas también piensan que habrá aplicaciones militares o para ayudar a niños que requieren de un seguimiento constante.

Tatuaje - chip - Chaotic Moon - Ben Lamm
“Es una plataforma respetuosa con el medio ambiente, no invasiva, que básicamente convierte al cuerpo humando en una placa de circuito”, dijo su cofundador y CEO, Ben Lamm.

Otro experto, el Dr. Ian Peterson cree que en los próximos 35 años, la gente será capaz de comunicarse con los computadores a través de pequeños implantes bajo la piel. Él se llama a sí mismo un “futurólogo”, a medida que estudia los desarrollos de la tecnología a través de la sociedad.

Peterson afirma que el transhumanismo será normal para el año 2050, cuando la gente utilice la electrónica para hacerse más inteligente, más feliz y más saludable.

Smart Living

Isabel Palma es ingeniero comercial de la Universidad Austral de Chile, MBA de la Universidad Adolfo Ibáñez y Master of Sciences of Sociology de la Universidad de Oxford. Actualmente, gerente comercial de Inmobiliaria Exxacon.
Isabel Palma es ingeniero comercial de la Universidad Austral de Chile, MBA de la Universidad Adolfo Ibáñez y Master of Sciences of Sociology de la Universidad de Oxford. Actualmente, gerente comercial de Inmobiliaria Exxacon.

Santiago, Chile. 2 febrero, 2016. Hace un tiempo (y aún muy esporádicamente para mi gusto) hemos venido escuchando a nuestras autoridades hablar de “convertir a Santiago en una Smart City”. ¿Pero qué se entiende por Smart City? Básicamente, están pensando en que nuestra capital sea una ciudad inteligente que brinde a sus habitantes una mejor calidad de vida a través de la implementación de una nueva forma de “hacer ciudad”.

Las Smart Cities se caracterizan porque en su planeamiento coinciden y se vinculan criterios urbanísticos, de transportes, energía, servicios e incluso de gobiernos para lograr un verdadero cambio en la forma en que hoy se planifica una ciudad, todo esto orientado a facilitar la vida de sus habitantes y ahorrar recursos de toda índole. Hay ahorro en el uso de los más variados insumos, incluso en el tiempo de sus habitantes, lo que se logra con buenas conexiones de transporte, deteniendo la expansión de la ciudad (compactándola) y facilitando el uso de suelo mixto, lo que permite vivir cerca de la oficina y/o que los hijos tengan el colegio a una distancia caminable o pedaleable.

Dada la “sincronía” que se requiere para lograr comunión entre las políticas urbanísticas, de trasporte y otras áreas de la planificación de una ciudad, un requerimiento para lograr una verdadera Smart City es una adecuada gobernanza. La Región Metropolitana no tiene un alcalde mayor, lo cual podría presentar un problema a la hora de lograr una visión macro de la ciudad. Un ejemplo es lo que ocurre hoy con las bicicletas de libre uso, en que cada comuna tiene su propio sistema, en contra de la visión global que se requiere.

Una de las ramas de Smart City que más impacta a los usuarios es la que tiene relación con el lugar de residencia de los individuos. Surge en este contexto el Smart Living, que se refiere a la habitabilidad de una Smart City. Esta área se hace cargo de temas relacionados con la ubicación geográfica de los nuevos barrios y edificios, privilegiando desarrollos inmobiliarios en sectores altamente conectados a transporte y servicios. También con una arquitectura que favorezca el ahorro de diferentes insumos (energéticos, de espacio, etc.).

En lo energético, por ejemplo, va mucho más allá de poner luces led. Hay varias soluciones que permiten que los edificios recojan mejor la luz o que eviten altas temperaturas en su interior. También existen soluciones de aislación para disminuir el gasto tanto en calefacción en invierno o enfriar en verano.

Otra demostración del Smart Living es que los espacios de las viviendas están diseñados en base al estilo de vida de las personas y no solo a la cantidad de ellas que vivirá en un departamento. Por ejemplo, departamentos con cocinas interactivas, que se integran o separan del living a través de un panel móvil dependiendo de las necesidades de quienes ahí viven, que pueden transformarse en un bar si hay una fiesta o bien en una cocina tradicional, en definitiva, espacios polifuncionales, dinámicos.

Por otra parte y bajo el mismo concepto, la cantidad de enchufes ya no es trivial en una vivienda, dada la cantidad de aparatos eléctricos que requieren conectarse. Y si de seguridad se trata, hay opciones como el Smart Eye (timbre inteligente) que permite incluso estando fuera de casa, ver quién está llamando a la puerta, y además responderle, a través de un app que se instala sencillamente en el celular.

Y así en cada detalle, en el reciclaje de la basura, incorporando basureros sustentables. En el consumo de plásticos, incluyendo dispensadores de agua purificada que permiten reutilización de envases, disminuyendo así el consumo de botellas plásticas, etc.

En definitiva, si queremos hacer de Santiago una Smart City, no debemos perder de vista el concepto de Smart Living y asumir la responsabilidad y rol que tenemos como desarrolladores inmobiliarios en este objetivo. Atender inteligentemente a nuestros clientes, entendiendo que hoy se busca más que un recinto compartimentado en dormitorios, baño y cocina. Hoy se busca vivir excelentemente conectado, en edificios construidos con tecnologías que aporten a la sustentabilidad y el ahorro energético, con diseños creativos e innovadores, que sepan capturar la forma de vida de quienes lo habitan. Vivir inteligentemente.

MWC 2016 – Barcelona Mobile World Congress 2016

Un pilar fundamental de la Mobile World Capital Barcelona es GSMA Mobile World Congress, el evento más importante del mundo en su tipo, que reúne en Barcelona las principales empresas y profesionales del sector de las telecomunicaciones móviles. Desde el año 2006 una vez al año Barcelona se ha transformado en el principal escaparate de la tecnología móvil en el mundo durante este evento de cuatro días.

En su última edición en 2015, 93.000 profesionales – incluyendo 4.500 ejecutivos de empresas del sector de todo el mundo – aprendieron sobre las últimas innovaciones en soluciones móviles, presentados por más de 2.000 expositores internacionales. 3.800 periodistas y analistas de todo el mundo cubrieron el evento, informando de todo lo que pasó en los 94 000 metros cuadrados de exposición y hospitality.

MWC 16

En 2015 el impacto del evento en la economía local se ha estimado en 436 millones de euros, además de promover la creación de 12.675 puestos de trabajo.

En 2016, la GSMA Mobile World Congress se celebra del 22 al 25 de febrero en el recinto de Gran Via de Fira de Barcelona, ​​con el evento paralelo 4 Years from Now para las startups, en el recinto de Montjuïc.

  • Lugar: Gran Via de Fira de Barcelona
  • Ciudad: Barcelona
  • País: España
  • Fecha: 22 – 25 febrero, 2016
  • Mayor información ingrese aquí.

Chip fijo en teléfonos móviles reemplazará tarjeta SIM

  • El chip físico que identifica al cliente desaparecerá y provocará cambios profundos como el fin del ‘roaming’.
  • Empresas como Gemalto también se verán golpeadas por la nuevas disposiciones de la GSMA.

Barcelona, España. 2 febrero, 2016. Las empresas del sector de telecomunicaciones, tanto operadores como fabricantes, afrontan este año una de las mayores revoluciones tecnológicas de las telecomunicaciones móviles: la desaparición de la SIM, la tarjeta chip que incorpora los datos del cliente y lo identifica ante la red del operador.

Esta tarjeta, proporcionada por los operadores como elemento extraíble del móvil, será sustituida por un chip fijo, instalado de fábrica en el dispositivo móvil.

Las telcos se han resistido al cambio, posible técnicamente desde hace años, por los riesgos inherentes para su negocio, ya que la SIM es el vínculo del operador con su cliente. La masificación de la nueva SIM electrónica, o eSIM (embedded SIM), que se iniciará este año, tendrá grandes repercusiones en la industria y en la forma en que se comercializan los dispositivos y los servicios.

Tarjeta SIM

La GSMA, asociación que agrupa a más de 800 operadores móviles y 250 compañías, ya tiene disponible la primera especificación técnica para implementar esta tecnología, que llegará de forma inmediata y será uno de los grandes anuncios del próximo Mobile World Congress, que se celebra en Barcelona a partir del 22 de febrero.

Dos etapas

Esta primera especificación técnica, llamada Fase 1, estará disponible de forma inminente para instalarse en todo tipo de dispositivos excepto los smartphones. Es decir, se aplicará a tablets, relojes inteligentes y todo tipo de vestibles, así como autos. A esta norma le seguirá la Fase 2, que se espera después del verano, destinadas a smartphones y que permitirá almacenar un número amplio de perfiles, es decir, de cuentas en la que se establezca una relación entre el cliente y un operador.

Como habrá muchos perfiles, podrán precargarse muchos operadores diferentes, aunque sólo podrá haber un perfil activo cada vez, Eso permitiría, por ejemplo, portátiles express, ofreciendo una enorme rapidez para de cambiar de operador, lo que tomaría unos minutos, ya que evita la necesidad de recibir la SIM física del nuevo operador.

El fin de ese tráfico de SIM físicas, impactará sustancialmente en la cantidad de público que pasa por las tiendas de móviles. Además, el traslado al modelo de activación remota, permitirá desviar mucha actividad de gestión de los clientes al mundo online, lo que supondrá una ventaja en costos para los operadores.

Sin embargo, para los canales de distribución física, es decir las tiendas o aquellas vinculadas a los operadores, el cambio supondrá un reto, ya que cuestionará su valor. Probablemente, al contar con menos tráfico de personas, la cantidad actual de tiendas deberá reducirse y los establecimientos tendrán reconsiderar su modelo de negocios: menos tiendas, pero más grandes y con personal más experto para asesorar a los clientes en el uso de dispositivos cada vez más complejos.

Otro efecto importante se dará, previsiblemente, sobre los costos del roaming internacional. Si el cliente puede llevar en su dispositivo una veintena de perfiles diferentes de operadores, tendrá la capacidad -como ya ha sucedido con el último iPad Air para los clientes de EE.UU.- de poder cambiar de operador cuando viaje y usar siempre una tarifa de un operador local.

El impacto sobre los costos del roaming dentro de Europa no será muy acentuado, ya que, en cualquier caso, el concepto de sobrecosto por roaming va a desaparecer por ley en Europa en 2017. Pero sí puede obligar a los operadores a ser más proactivos y reducir drásticamente esos costos en los viajes internacionales, si no quieren arriesgarse a que los clientes cambien sus hábitos de consumo y usen operadores locales en cada país.

Según el estudio Embedded SIM Study realizado por EY, los eSIMs son ahora una tecnología dominante en el mercado M2M (conexión de máquina a máquina), especialmente en el sector automotriz ya que esta tecnología trae múltiples beneficios para los fabricantes de automóviles.

Cambio tecnológico

Las operadoras se han visto obligadas a ceder al cambio tecnológico porque con el modelo actual es imposible su protagonismo en la nueva frontera del sector: el Internet de las Cosas (IoT o Internet of Things) que prevé que la mayoría de los objetos de uso cotidiano estén conectados a redes móviles.

Para ello es necesario que los objetos (autos, electrodomésticos, ropa, relojes y otros vestibles, etc.) lleven incorporada de serie la SIM, y que ésta pueda ser activada de forma remota y automatizada, para convertirse en la eSIM.

En caso contrario, es decir de mantenerse la SIM física, es muy poco probable que los usuarios conecten todos los objetos cotidianos. De hecho, y como ejemplo, según fuentes de la industria, el 80% de las tablets que tienen capacidad para usar redes 3G ó 4G, sólo utilizan conexiones WiFi.

Uruguay y Chile entre los 25 países menos corruptos

Madrid, España. 2 febrero, 2016. Uruguay es considerado el país con menos corrupción de América Latina de acuerdo al informe de Transparencia Internacional de 2015. Está en el nivel 21 del mundo y a nivel de la región le sigue Chile, que ocupa globalmente el lugar 23.

El Indice de Percepción de Corrupción que elabora anualmente la organización Transparencia Internacional ubica a Uruguay en el lugar 21 del mundo y primero en América Latina.

Venezuela es el país peor ubicado de la región, por delante de Paraguay y Guatemala, al tiempo que Argentina está también entre los países percibidos más corruptos, ocupando el lugar 107 en el mundo de acuerdo al ranking internacional.

mapa-ipc-2015

El Índice de Percepción de Corrupción 2015, en el que se toman datos de 268 naciones, es liderado por Dinamarca. El estudio se basa en la percepción que expertos del sector privado tienen sobre la corrupción en el público.

De 100 puntos posibles en transparencia, Uruguay obtiene 74 y queda colocado, al igual que en 2014 (donde sumó 73), en la posición número 21. El país peor ubicado de América Latina es Venezuela, en la posición 158, con tan solo 17 puntos.

Los cinco países más transparentes son Dinamarca (91 puntos), Finlandia (90), Suecia (89), Nueva Zelanda (88) y Holanda (87).

Después de Uruguay, a nivel regional aparecen Chile en el puesto 23 (70 puntos), Costa Rica en el 40 (55), Cuba en el 56 (47) y Jamaica en el 69 (41).

Brasil es el país que más descendió en el índice mundial (cinco puntos), tras salir a la luz el escándalo de Petrobras.

También bajó cuatro puntos Guatemala, con la caída del presidente Otto Pérez Molina, y Chile, ejemplo tradicional de limpieza en la región, perdió dos puntos en un año en el que el hijo de la presidenta Michelle Bachelet, se vio envuelto en un caso de corrupción.

Indice de Percepcion de la Corrupcion 2015
Acto de presentación del IPC 2015. Intervinientes:
Manuel Villoria, Jesús Lizcano y Jesús Sánchez-Lambás.

Alejandro Salas, director de Transparencia Internacional para América Latina, señaló a Efe que 2015 debería ser considerado como un año “muy interesante”, ya que salieron a la luz grandes escándalos en distintos países y vinculando a diferentes personas, que parecían intocables apenas doce meses antes, acabando en la cárcel o ante la justicia.

Transparencia en América Latina

21. Uruguay (74 puntos)

23. Chile (70) ​

40. Costa Rica (55)

56. Cuba (47)

69. Jamaica (41)

72. El Salvador (39)

​72. Panamá (39)

72. Trinidad y Tobago (39)

76. Brasil (38)

83. Colombia (37)

​88. Perú (36)

88. Surinam (36)

95. México (35)

99. Bolivia (34)

107. Argentina (32)

​107. Ecuador (32)

​123. Guatemala (28)

130. Paraguay (27)

158. Venezuela (17)

El mercado inmobiliario camino a la normalización

Urbest - Felipe Moreno
Felipe Moreno, gerente de desarrollo de Urbest, planificadores inmobiliarios.

Santiago, Chile. 31 enero, 2016. Tras finalizar un año 2015 cargado de incertidumbre en materia económica y en línea con la cautela de los inversionistas, muchos se preguntan sobre el estado actual de la inversión inmobiliaria (en terrenos, desarrollos o inmuebles), que históricamente han presentado atractivos índices de rentabilidad, y si son o no una buena alternativa de inversión.

El ciclo económico el cual estamos viviendo como país, cargado de cambios en la legislación e incertidumbre en cuanto a la inversión, obviamente no favorece a ninguna industria. Sin embargo, frente a otras alternativas de inversión o mercados financieros, pareciera seguir siendo una apuesta segura, principalmente frente a la volatilidad de otros mercados.

Santiago seguirá creciendo, sus límites están geográficamente muy marcados y continuaremos experimentando un proceso de densificación en barrios consolidados, como ha sido hasta ahora, principalmente en torno a Santiago Centro y el Sector Oriente, donde además el suelo disponible es cada vez más escaso.
Claro ejemplo de eso es el aumento de las ventas del último año, superando en más de un 30% la misma cifra respecto al periodo anterior, y que prácticamente aumentaron significativamente desde que se anunció la reforma tributaria, amenazando con alzas de precios en torno al 8%. Por esa razón muchos compradores finales e inversionistas adelantaron su decisión de compra.

Estamos en un período excepcional en el mercado inmobiliario. Si se compara el 2015 con el 2016, el cambio va a ser notorio. Si se analiza históricamente, el 2016 va a ser un ajuste de mercado, volveremos a tendencias normales.

En base a eso, la inversión inmobiliaria es seductora y sin duda una muy buena apuesta, pero hay que saber dónde, cuándo y cómo hacerlo. La mayor disposición a pago por un terreno va en directa relación a lo que permite la normativa vigente, en términos de constructibilidad, densidad y lo consolidado del barrio en términos de urbanización, áreas verdes, equipamiento y conectividad. En esa línea, comunas consolidadas como Las Condes, Providencia, Ñuñoa y Santiago Centro son buenas alternativas, dado el volumen de ventas que puedan generar los proyectos que se emplacen en dichos terrenos.

Sin embargo, en todos los sectores donde se pretende invertir es importante conocer bien el stock disponible y sus meses para agotarlo, dado que es crucial saber el cuándo invertir en determinados sectores.

La inversión inmobiliaria no sólo significa comprar un inmueble y arrendarlo, existen varias aristas del negocio que van desde la compra de terrenos para armar paños para proyectos, la compra de paños aptos para desarrollo, la compra y venta de promesas u opciones de compra de unidades a desarrollar, hasta la compra final. Todas ellas presentan atractivas rentabilidades siempre y cuando se realicen en el momento y sector adecuado.

El Banco de Japón sorprende con interés negativo del 0,1%

  • Las tasas de interés negativas son simplemente un impuesto o una tasa sobre los depósitos. El depositante paga por el privilegio de que la institución financiera reciba su dinero.

Tokio, Japón. 29 enero, 2016. El Banco de Japón aplicará un interés negativo del 0,1% por la caída de las previsiones de inflación.

El Banco de Japón (BoJ), reunido desde ayer, anunció hoy por sorpresa la aplicación de un tipo de interés negativo del 0,1% a las cuentas que las instituciones financieras niponas mantienen con la entidad para favorecer el crecimiento y sus metas de inflación.

La decisión coincide con una sensible revisión a la baja de las previsiones de inflación por parte del instituto emisor japonés, que espera concluir 2016 con una tasa de inflación de referencia, que no incluye los alimentos frescos, pero sí la energía, del 0,8%, frente al 1,4% previsto el pasado mes de octubre.

Banco de Japon - Haruhiko Kuroda
Haruhiko Kuroda, presidente del Banco de Japón, explica su plan de tasa de interés negativa. El BoJ cobrará a los prestamistas por no utilizar su dinero, estrategia gradual en su larga batalla para reactivar la economía.

Es el primer movimiento de tasas de interés en Japón desde octubre de 2010, cuando el BoJ los situó en entre el 0 y el 0,1% para estimular el avance de la tercera economía mundial.

Esta medida, junto a la aplicación del programa masivo de compra de activos, establecido en 2013, pretende acelerar su objetivo de que Japón logre una inflación de en torno al 2% a mediados de 2017.

La iniciativa ha sido aprobada por cinco votos a cuatro, y “ampliará los recortes de los intereses en territorio negativo si se considera necesario”.

La decisión del órgano emisor coincide con una revisión a la baja de sus pronósticos sobre el IPC en el archipiélago, ya que hoy recortó hasta el 0,8% la subida de precios que espera para el próximo ejercicio fiscal, que comienza en Japón el próximo 1 de abril, y cuyas previsiones de octubre estaban en el 1,5%.

La aguda caída de los precios del petróleo ha neutralizado los efectos del programa expansivo que el banco inició en 2013 y obligó a la entidad a aplazar su objetivo de sacar a Japón de casi dos décadas de tendencia deflacionaria, una meta que inicialmente se había propuesto alcanzar en 2015.

Después de hacer público el anuncio, la Bolsa de Tokio respondió con una fuerte subida del Nikkei.

La Bolsa de Tokio cayó el pasado día 26 con fuerza arrastrada por los precios del petróleo, aunque los analistas locales apuntaron a que las expectativas de nuevos estímulos monetarios en Japón ayudarían a contener en parte las pérdidas.

La bolsa repunta con fuerza

La bolsa de Tokio ha cerrado la sesión con una subida del 2,8% después de que el Banco de Japón sorprendiera al anunciar un tipo de interés negativo del 0,1% para favorecer el crecimiento y sus metas de inflación.

El índice Nikkei de la bolsa de Tokio cerró con una subida de 476,85 puntos, un 2,8%, hasta las 17.518,30 unidades; mientras que el segundo indicador, el Topix, que agrupa los valores de la primera sección, avanzó 40,87 puntos, un 2,87%, hasta los 1.432,97 enteros.

El volumen de negocio ascendió a 4,43 billones de yenes, muy por encima de los 2,37 billones de yenes de la víspera.

Tasa de interés negativa

Las tasas de interés negativas son simplemente un impuesto o una tasa sobre los depósitos. El depositante paga por el privilegio de que la institución financiera reciba su dinero.

Durante los períodos de deflación, la gente y las empresas ahorran dinero en vez de gastarlo o invertirlo. El resultado es una caída de la demanda que provoca a su vez una caída aún mayor de los precios, una ralentización o paralización de la producción y la producción real, y un aumento del desempleo. Para lidiar con tal situación económica por lo genera se utiliza una política monetaria relajada o expansiva. Sin embargo, si las fuerzas deflacionarias son lo suficientemente fuertes, simplemente bajando la tasa de interés del Banco Central a cero puede que no sea suficiente para estimular los préstamos y créditos.

Una tasa de interés negativa significa que el Banco Central y tal vez los bancos privados cobrarán interés negativo: los depositantes en lugar de recibir dinero por sus depósitos, deben pagar regularmente para mantener su dinero en el banco. Con ello se pretende incentivar a los bancos a que presten dinero con mayor libertad a las empresas e individuos para que inviertan, lo presten o lo gasten, en lugar de pagar una cuota para mantenerlo seguro.

Robusta infraestructura TI para tu negocio

Santiago, Chile. 29 enero, 2016. IFX Networks ofrece un completo portafolio de soluciones de telecomunicaciones y servicios de computación en la nube, disponible en todo el continente americano y que incluye entre otros, capacidades de acceso a Internet dedicado (1:1), redes MPLS, conexiones Ethernet L2 y data center virtuales, apoyando a sus clientes integralmente en el desarrollo de sus proyectos de tecnología.

Todas sus soluciones son complementadas con modernos y potentes sistemas de gestión que permiten monitorear en tiempo real cada uno de los componentes críticos en los procesos que ejecutan.

IFX - infraestructura TI
Click para zoom.

 

Es así, como por ejemplo los servicios de Datos e Internet integran naturalmente una plataforma web para uso de sus clientes que les permite conocer estadísticas de comportamiento de cada enlace y definir así proactivamente, acciones preventivas o correctivas sobre el tráfico del enlace.

Por su parte, los servidores en la nube de IFX integran herramientas que permiten conocer y alertar sobre el comportamiento de procesadores, utilización de la memoria, nivel de ocupación de los discos, administración de fallos y disponibilidad, generación de informes, swaps y en general cualquier parámetro a nivel de hardware o software que el cliente requiera mantener controlado.

Los ingenieros del Soporte Técnico Regional y el Centro de Operación de Red, mantienen un estricto monitoreo de cada una de estas herramientas (24x7x365), lo que les permite actuar antes, durante y después de cualquier evento que pueda suceder con los servicios de sus clientes.

Desafíos del Día Internacional de la Protección de Datos

Santiago, Chile. 28 enero, 2016. Hoy el Ministerio de Economía y la Segpres convocaron a un Seminario para conmemorar el Día Internacional de la Protección de Datos y promover y escuchar las preocupaciones de diferentes actores al respecto.

La instancia patrocinada por la ACTI (Asociación Chilena de Empresas de Tecnologías de Información A.G) y Microsoft contó con ponencias del ministro de Economía; la subsecretaria interina de Economía, Ana Vargas; el jefe de la Unidad de Modernización del Estado y Gobierno Digital, Jorge Alzamora; la directora del Consejo para la Transparencia, Andrea Ruiz; el presidente del Instituto Chileno de Derecho y Tecnologías, Carlos Reusser; Alex Pesso de Microsoft, Yerka Yukich de la Cámara de Comercio de Santiago y Federico Allendes de Proacceso.

ACTI - Dia de la proteccion de datos
Juan Luis Nuñez de País Digital, Jorge Alzamora de la UMGD de la Segpres, Jaime Soto de ACTI, Yerka Yukich de CCS, Luis Felipe Céspedes, ministro de Economía y Lorena Donoso del Ministerio de Economía.

El seminario realizado en el Edificio Moneda Bicentenario reunió a diferentes representantes de la industria y actores interesados en conocer, comprender y aportar a la contingente discusión sobre la Protección de Datos Personales y la eventual promulgación de una ley actualizada que vele por éstos.

La cita retomó la importancia de socializar este tema y dar a conocer sus dimensiones, para que personas fuera de este limitado círculo también puedan conocerla y aportar a ella. “¿Qué pasa con el ciudadano común? El que ni siquiera cuestiona o duda, ni nada, cuándo en un evento, seminario, reunión o encuentro le pasan una lista para que anote su nombre, rut, teléfono y correo electrónico (…) Eso es exactamente lo que queremos cambiar con este encuentro. Buscamos que la ciudadanía tome conciencia de lo importante que es proteger sus datos personales y también de promover las mejores prácticas en este sentido, que sepan que sí pueden existir límites y un nivel de respeto y exigencias que se deben cumplir con la información personal que se entrega”, afirmó al respecto Jaime Soto, secretario general de ACTI.

“Esperamos que instancias como ésta se repitan y podamos generar una conciencia nacional de la importancia de tener una legislación que proteja de manera adecuada los derechos de las personas, frente al tratamiento de su información personal, agregó la subsecretaria interina de Economía, Ana Vargas.

ACTI - Dia de la proteccion de datos
Federico Allendes de la Fundación Pro Acceso, Jaime Soto de ACTI, Andrea Ruíz del Consejo para la Transparencia, Romina Garrido de la Fundación Datos Protegidos y Jorge Alzamora de la UMGD de la Segpres.

Por su parte, el ministro de Economía, recalcó el compromiso de esta administración por concretar esta nueva legislación pronto: “Como gobierno, hemos comprometido una iniciativa legal que regule adecuadamente, modernice nuestra regulación y que la ponga en los altos estándares internacionales. Nosotros hemos tomado esa decisión como gobierno y lo vamos a hacer (…) Aquí nuestro compromiso, y quiero ser muy claro respecto de esta materia, es un compromiso con una nueva regulación. Una regulación que sea eficiente y que podamos ser capaces de implementar en un plazo razonable y breve, dentro de nuestra administración y, por lo tanto, incluya la tramitación de un proyecto de ley en el Congreso, que responda a las necesidades de generar una estructura que nos permita, con los recursos que tenemos, que sea eficiente, pero que se pueda implementar. No queremos acá comprometernos con grandes transformaciones institucionales, que probablemente tomaría muchísimo más tiempo en implementar. Queremos hacerlo bien, de manera eficiente, reconociendo la situación que enfrentamos hoy día como país”, recalcó el ministro de Economía, Luis Felipe Céspedes.

Durante la instancia, además, se pusieron en tela de juicio las condiciones bajo las que los datos de funcionarios del Estado debían ser públicos, considerando la sensibilidad de algunos de estos. Al respecto, el jefe de Unidad de Modernización y Gobierno Digital de la Segpres, Jorge Alzamora, presentó las interrogantes “¿Aplica la privacidad para los funcionarios públicos? ¿Dónde está el límite en la privacidad de los datos públicos?”.

Por ello, el presidente de la Fundación Pro Acceso, Federico Allendes, fue enfático en afirmar que se trata también de un aspecto que debe ser considerado en la actualización de la legislación actual, porque tanto “la Protección de Datos Personales, como el Acceso a la información pública y la Transparencia, están todos conectados, porque son complementarios”, agregó.

Apple informó las mayores ganancias de su historia, pero el iPad cada vez vende menos

Cupertino, California, EE.UU. 28 enero, 2016. Apple presentó los resultados financieros para el primer trimestre de su año fiscal 2016 (Q1 2016), con las mayores ganancias trimestrales que ha logrado en su historia. En general, Apple tuvo un ingreso de más de US$ 75.900 millones durante los últimos tres meses, de los cuales obtuvieron una ganancia de US$ 18.400 millones.

Apple - iPhone

Las ventas del iPhone, como ya parece ser tradición, fueron muy altas. En los últimos tres meses de 2015 lograron vender unos 74,78 millones de iPhones, lo cual supone un ligero incremento en comparación con el mismo período de tiempo el año pasado (YoY), en el que vendieron 74,47 millones de smartphones.

No obstante, no todas las noticias son buenas. El iPad ha caído notablemente en ventas durante el trimestre pasado: mientras que en Q1 de 2015 vendieron 21,4 millones de unidades, en el Q1 2016 vendieron 16,1 millones, lo que indica una caída bastante considerable en el mercado.

Además, aunque vendieron casi 75 millones de iPhones, es indudable que el crecimiento de las ventas se ha desacelerado de una forma drástica. Por ejemplo, si comparamos años anteriores, vemos que durante el último año el aumento en las ventas del móvil de Apple fue mínimo:

  • Q1 2014: 51,03 millones de unidades -> Q1 2015: 74,47 millones
  • Q1 2015: 74,47 millones de unidades -> Q1 2016: 74,78 millones

De cualquier forma, Apple logró otro trimestre lleno de grandes cifras. Y es que aunque obtuvo un poco menos de los ingresos que estimaban, las ganancias superaron las expectativas que tenía el mercado, y actualmente cuentan con más de US$ 216.000 millones en sus arcas.

En España la banca ‘online’ multiplica por 400 su ganancia

  • La crisis del sector ha provocado el cierre de oficinas y ha sido una ventaja para estas entidades.

Madrid, España. 29 enero, 2016. La banca online en España ha multiplicado por 400 su beneficio en los últimos cinco años, pasando de los 2,95 millones de euros que registró a septiembre de 2010 a los 1.126,8 millones a cierre del tercer trimestre de 2015, según datos de la AEB (Asociación Española de Banca). Este grupo de entidades —compuesto por Allfunds, especializado en fondos de inversión; Popular-e (perteneciente a Banco Popular), Uno-e (el banco online del BBVA), Openbank (del Santander) e Inversis (Banca March)— no dispone de cajeros ni sucursales bancarias, por lo que opera únicamente de manera digital.

En 2010, sin la reestructuración del sistema financieros iniciada y con una banca que aún no había sufrido su crisis reputacional, los bancos que ofrecían servicios únicamente vía online no conseguían hacer despegar su ganancia y algunos de ellos incluso registraban pérdidas. Este era el caso de Uno-e, que a septiembre de 2010 presentaba unos ‘números rojos’ de 6,35 millones de euros, y de Openbank, que registró 5,5 millones de euros de pérdidas en el mismo periodo de tiempo.

Banca Online

Sin embargo, la crisis financiera que ha atravesado el sector en los últimos años provocó el cierre de oficinas hasta reducir la red en un 30% e implicó la desaparición de muchos grupos financieros, lo que constituyó una ventaja para los bancos online, que ofrecen inmediatez y ahorro de tiempo.

Así, en los últimos cinco años Banco Popular-e ha conseguido multiplicar por 35 sus ganancias, hasta los 89,2 millones de euros; Allfunds por siete, hasta los 51,7 millones, e Inversis ha ganado un 44% más, hasta los 7,2 millones de euros. Por su parte, Uno-e y Openbank han conseguido salir de pérdidas y registrar un resultado de 20,7 millones y 958.000 euros, respectivamente.

Cifra de negocio al alza

A diferencia de la banca tradicional, las entidades online ofertan productos con condiciones más estandarizadas, cobran menos comisiones, aplican diferenciales hipotecarios más bajos y remuneraciones más competitivas, según han explicado fuentes de Bankimia.

“Cada año, las cifras de negocio online continúan creciendo y las reticencias iniciales sobre seguridad que tenían algunos clientes han dado paso a una mayor utilización, ligada también a un mayor uso de teléfonos inteligentes y generalización en el uso de Internet”, destaca el analista de XTB Carlos Fernández, que recuerda que el cierre de oficinas ha supuesto un ahorro de costos que repercute en menores comisiones para el cliente.

El experto señala como principal ventaja de este tipo de banca su inmediatez y el hecho de no tener que desplazarse a las sucursales, lo que supone un ahorro de tiempo y un aumento de la satisfacción del cliente. Otro de sus beneficios, según Bankimia, es que ofrecen hipotecas más baratas y depósitos más rentables que la banca tradicional, aunque en un entorno de bajos tipos de interés las diferencias entre unas entidades y otras se está acortando.

Futuro amenazado

Si bien es cierto que la banca online ha logrado abrirse un hueco en el sector financiero español, su futuro puede verse amenazado por la aparición de nuevos competidores, como la banca en la sombra o las fintech, cuya regulación es menos exigente.

“La facilidad a la hora de montar una empresa que desarrolle su negocio a través de Internet, unido al incremento de clientes que utilizan esa vía para sus servicios financieros, hace que muchas empresas vean un nicho de mercado que explotar, por lo que esperamos que la competencia al sector bancario tradicional sea cada vez más fuerte”, advierte Fernández. Como ejemplo, el analista cita la existencia de empresas dedicadas al intercambio de divisas, “que pueden contar con una única oficina en España y con ella prestar servicios a todo el territorio, lo que les permite un fuerte ahorro en costos que repercute en bajas comisiones a los clientes”.

¿Cómo evitar colusión, fraudes y actos de corrupción en las empresas?

  • Casi 20% de los fraudes son cometidos por ejecutivos y propietarios. Las empresas pierden 5% de sus ingresos anuales por casos de fraude.
  • En Chile muy pocas empresas tienen un canal de denuncias.

Descargar Informe: Shifting into high gear: mitigating risks and demostrating returns.

EY - Ricardo Gameroff
Ricardo Gameroff, socio líder de prevención e investigación de fraudes de EY Chile.

Santiago, Chile. 27 enero, 2016. Ricardo Gameroff, socio líder de prevención e investigación de fraudes junto a Jorge Vio, senior manager de prevención e investigación de fraudes ambos de EY Chile entregaron las claves para el desarrollo de técnicas para evitar los fraudes, además de las falencias en las compañías en Chile.

Un 19% de los fraudes realizados en empresas son cometidos por sus propietarios y ejecutivos, según el Report to the Nations on Occupational Fraud and Abuse 2014, realizado por la ACFE (Asociación de Examinadores de Fraude Certificados. El informe también indica que alrededor del 47% de los fraudes son revelados por una denuncia o autodenuncia.

Gameroff explica, “Las personas se ven influenciadas a realizar un fraude por 4 factores principales: Presión, alguna razón personal, como una enfermedad grave que obliga a la persona a realizar un fraude; Oportunidad, la persona tiene la ocasión para realizar el fraude; Racionalización, la persona se auto justifica diciendo, ‘esto me lo merezco, he trabajado 20 años aquí y nunca he recibido un bono’; y finalmente Capacidad, es decir, la persona tiene la jerarquía, posibilidad de realizar el fraude.

“La forma más eficaz de detectar un fraude es por la denuncia de personas que fueron excluidas de los ‘beneficios’, o que no estaban de acuerdo con las decisiones tomadas”, explica Ricardo Gameroff, quien agrega que casos como Penta, Caval y CMPC fueron descubiertos por este motivo.

Según el informe de la ACFE a pesar de tener relativamente altos indices de implementación para la detección de fraudes, las auditorias externas (81%) y las internas (70%), sus niveles de efectividad son realmente muy bajos, 3% para la primera y 14% para la segunda.

El robo de activos, la corrupción y la manipulación de datos financieros son las principales actividades ilícitas que ocurren dentro de las empresas, y son el tema que cada vez toma mayor importancia para la gerencia a nivel mundial.

Según la última encuesta internacional realizada por EY, un 32% de los directorios y gerentes generales señaló estar significativamente más preocupado por una filtración de datos de sus compañías que hace dos años, mientras un 17% aseguró que ven con una alta preocupación un posible riesgo de corrupción o de sobornos.

En este sentido, Gameroff, explicó que las primeras medidas que debe adoptar una empresa para evitar el fraude es establecer una serie de reglamentos y comportamientos que los empleados deben seguir dentro de la organización, especialmente respecto a procedimientos y manejo de información. También, llamó a identificar los riesgos más comunes de fraude, considerando el sector específico en que se desenvuelve la compañía. “Por ejemplo, en una empresa minera, el riesgo más común sería el fraude en las licitaciones”, agregando que es crucial realizar una verificación cada vez que se contrata un nuevo proveedor, para saber si existe alguna conexión (parentesco, amistad, etc.) con alguno de los propios empleados.

También, la naturaleza humana juega en contra de quienes realizan estos hechos ilícitos. Gameroff explicó que es simple detectar conductas que podrían indicar actos de fraude, “basta con observar que autos tiene la persona sospechosa estacionados en su casa, o en la cuenta de facebook que viajes ha realizado”.

Gameroff aconsejó que es necesario establecer procedimientos de investigación. “Muy pocas empresas en Chile tienen un canal de denuncias, con lo cual la efectividad de ese mecanismo es muy baja”, afirmó Gameroff, explicando que éste debe funcionar necesariamente asegurando el anonimato, y preferiblemente desde una agencia externa.

De acuerdo al informe bianual de la ACFE, la empresas en caso de contar con un buen canal de denuncias, informaron tener un 41% de menores pérdidas por fraude, y aumentaron su velocidad de detección en un 50%.

A nivel de costos, la encuesta arrojó que en promedio los fraudes alcanzaron los US$ 145.000, mientras que un 22% costaron al menos US$ 1 millón.

La ACFE reportó que  el promedio la duración de un fraude desde que comenzó hasta que fue detectado se ubicó en 18 meses. Gameroff aseguró que en Chile, muchas veces el proceso de investigación se entrega a auditorías internas, pero advirtió que “muchas de esas agencias no están capacitadas para identificar fraudes, basan sus exámenes en documentos digitales escaneados, no los originales. Y es más fácil falsificar un documento electrónico que uno físico”.

Finalmente, Jorge Vio, destacó la figura del Oficial de Cumplimiento -que de acuerdo a la ley de responsabilidad penal de las personas jurídicas- es la persona a través de la cual las empresas se deben relacionar con la UAF (Unidad de Análisis Financiero). En este sentido, advirtió que muy pocas empresas en Chile dan relevancia a este actor, quien es responsable de “reportar operaciones sospechosas, y de coordinar políticas y procedimientos de prevención y detección de lavado de activos y financiamiento del terrorismo”, de acuerdo a la definición de la UAF. Además, criticó que la ley establezca que en las empresas que facturan menos de 100.000 UTM anuales, el mismo controlador, administrador o dueño pueda ejercer esa función. “Le quita bastante imparcialidad al rol”, sostuvo.

“Hoy, la tecnología e innovación se desarrolla en un ámbito global”

Santiago, Chile. 26 enero, 2016. Comentó Cesar Hidalgo durante un Diálogo Cerrado organizado por la Agrupación Chilenas de Software (Chiletec), aludiendo que en Chile falta el espíritu de trascendencia. Como país perdemos oportunidades y proyectos por el hecho de enfocarnos en una visión local y cortoplacista.

Con éxito se realizó, una discusión cerrada dirigida por César Hidalgo, físico chileno y director del Grupo Macro Connections en el MIT (Massachusetts Institute of Technology) de Media Lab, a la cual asistieron diversas autoridades públicas y privadas quienes debatieron libremente sobre temas enfocados en tecnología, innovación y desarrollo.

Chiletec - Directorio Chiletec en Dialogo Cerrado - Cesar Hidalgo
César Hidalgo (al centro), físico chileno y director del Grupo Macro Connections en el MIT (Massachusetts Institute of Technology) de Media Lab junto al Directorio de Chiletec.

Durante esta iniciativa generada por Chiletec, Hidalgo deleito a los asistentes con una entretenida e interesante presentación sobre su trabajo, tocando temas como: la importancia de la tecnología y el cambio que ha generado a lo largo de la historia, el poder y manejo de la concentración de datos, la exclusividad de sus nuevos trabajos, y lo importante que es el desarrollo de innovación para el crecimiento de los países.

Además, durante el evento, Cesar recibió el galardón como “Personaje Tecnológico 2015”, premio otorgado durante la tradicional Cena Anual Chiletec, realizada el pasado noviembre, actividad de la que no pudo participar ya que su residencia es en Boston, USA.

El académico elegido por la revista Wired UK como una de las 50 personalidades que van a cambiar al mundo, creador de “Why Information Grows” -libro donde analiza el por qué crecen las economías de los países desde el punto de vista de la información que generar y las redes con las que operan- y “The Atlas of Economic Complexity” -texto que permite entender el ambiente competitivo de los países a nivel mundial al graficar las relaciones entre los diferentes productos que fabrican- empapó de información a los asistentes, quienes pudieron realizar diversas consultas y comentarios.

Actualmente, ¿cómo vez este interés más creciente por temas como la tecnología e innovación en nuestro país?

En Chile, lo que es la calidad del emprendimiento es bastante buena en comparación a otros países que he visitado. Existe calidad en los emprendedores que están levantado proyectos, pero también he visto muchas veces que se quedan estancados a mitad de camino, y por lo mismo, cuando estoy acá, trato de ayudar y generar las comunidades que se necesitan para que estos proyectos surjan.

Cuesta encontrar proyecto con más ambición, pero no sólo en el contexto de la tecnología. Cuando recibo estudiantes chilenos o latinoamericanos en MIT, muchas veces tengo que pasar los primeros meses cambiándoles el chip, porque deben pensar en grande, lo importante es hacer un proyecto que tenga trascendencia.

Me pasa, que a veces siento que las personas están haciendo cosas en un contexto local, el problema es que hoy en día a tecnología e innovación se desarrolla en un ámbito global, o simplemente no resulta, no existe.

¿Qué elemento es necesario inculcar educacionalmente para potenciar el desarrollo de la tecnología e innovación en nuestro país? ¿afecta el hecho de que tengamos una más visión local y cortoplacista?

Dentro del proceso de aprendizaje hay distintos modelos, generalmente nos enseñan de pequeños el modelo “aprender del otro”, pero también es necesario aprender “de uno mismo”. A mí me encantaba en el colegio hacer disertaciones, y ahora que lo pienso quizás fue lo que más me sirvió, porque ahora sigo realizando disertaciones, pero de manera profesional.

Creo que es importante que las personas aprendan a ejecutar proyectos, donde no sólo tengan que tomar decisiones sino también trabajar y ejecutar el proyecto en equipo, diferenciar y detectar prioridades, etc. La vida profesional, no se trata de que alguien te mande a hacer una tarea y después te ponen nota, la vida profesional es cuando uno trabaja en equipo, toma decisiones, crea proyectos, selecciona prioridades. La componente creativa y el trabajo en equipo es lo que se debe desarrollar.

Generar redes de conocimiento, formar equipos es lo primordial para el desarrollo de cualquier cosa. Los bajos niveles de desconfianza, limitan las capacidades que tienen las personas de formar estas redes, las cuales ayudaran a acumular un conocimiento productivo, necesario para hacer cosas, cualquier proyecto.

¿Tiene un proyecto en mente que te gustaría implementar en nuestro país?

En Chile, hubo una primera generación de sitios de Open Data que tenían el corazón en el lugar correcto, pero en la implementación se quedaron cortos, desde 2012 no se avanzó mucho más. Pero yo creo que se viene una segunda generación de sitios de dados abiertos que van a estar bien pensados y diseñados.

Me encantaría colaborar con un país, Chile sería ideal, para ser el ejemplo que otros países pueden seguir. Yo creo que no se puede avanzar diciendo que es lo que se debería hacer desde un punto de vista narrativo, uno tiene que ser ejemplo, digno de imitar. Lo que cuentan son las obras, no las palabras.

Basándose en la tesis del libro “Why information Grows”, ¿cuán importante es el intercambio de información y trabajo colaborativo para el desarrollo de los países?

La principal tesis del libro, se enfoca principalmente en que nuestras células individualmente son pequeños computadores que conforman un individuo completo, y yo como individuo puedo realizar cosas que mis células no pueden hacer individualmente, como escribir un libro, jugar videojuegos, manejar un automóvil, etc. Y eso se da, porque nuestras células encontraron una forma de actuar como un conjunto.

Esto mismo pasa con la sociedad, nosotros como individuos tenemos la capacidad finita de ciertas cosas que podemos saber y otras no, pero al generar una red de conocimiento podemos almacenar más conocimiento y trabajar de forma más competa. De esta forma, podríamos decir que hoy las redes sociales son el hardware y el conocimiento el software. Nuestra capacidad de hacer cosas que se expresan en los productos que desarrollamos en el MIT, es un reflejo de la capacidad de nuestro hardware y la calidad de nuestro software, es por ello la importancia en la confianza en las personas y la generación de vínculos.

Es de esta forma como crece la economía, y al mismo tiempo los países; no en el ámbito de los números, sino desde cómo ven y manejan la información y las redes con las que operan. La razón de por qué unos países crecen más que otros, tiene que ver con los tipos de información que generan.

Codelco anuncia un plan para reducir un 11% los costos en 2016

Santiago, Chile. 30 enero, 2016. La estatal chilena Codelco, la mayor productora mundial de cobre, anunció un plan para reducir un 11% los costos de producción en 2016 con el objetivo de aumentar su competitividad y paliar la caída internacional del precio del metal rojo.

El presidente ejecutivo de la minera, Nelson Pizarro, explicó que la medida permitirá reducir los costos desde US$ 1,386 a US$ 1,255 por libra, lo que equivale a bajar unos US$ 574 millones el costo de caja este 2016.

Codelco - Nelson Pizarro
“El desafío de Codelco es seguir elevando la productividad, sin importar el precio”, dijo el presidente ejecutivo de la Codelco, Nelson Pizarro.

“Seguir reduciendo costos es un deber que tenemos con Chile, porque está en juego la sustentabilidad de la empresa”, señaló Pizarro.

El ejecutivo dijo que Codelco ahorró US$ 1.203 millones desde que el año pasado aplicó un plan de reducción de costos, más de los US$ 1.000 millones que se impuso como meta, y espera alcanzar US$ 1.800 millones a fines de 2016.

Además subrayó que el presupuesto de Codelco para este año contiene una reducción de gastos de US$ 1.100 millones en comparación con el primer documento que se elaboró.

Pizarro dijo que la empresa no despedirá a trabajadores y que los nuevos ahorros se obtendrán por la caída del precio de suministros mineros, un mejor tipo de cambio y un incremento de la productividad y la eficiencia.

“El desafío de Codelco es seguir elevando la productividad, sin importar el precio. De esta forma, cuando el mercado se recupere, Chile contará con una empresa capaz de rentabilizar el mayor precio”, sostuvo.

La minera dijo que, si se cumple esta meta adicional y con un precio promedio del cobre de US$ 2,20 por libra, resistirá el panorama actual de bajos precios y entregará excedentes de unos US$ 700 millones al Estado.

El precio del cobre ha caído abruptamente estos últimos meses, una situación que debería mejorar en los próximos meses, sostuvo el presidente ejecutivo de Codelco, que llamó a la calma y recordó que la minería del cobre “son negocios a largo plazo”.

La Comisión Chilena del Cobre (Cochilco) ajustó a la baja su previsión del precio del cobre, que este año promediará US$ 2,15 dólares, 35 centavos menos que lo previsto en su informe de septiembre pasado.

La ministra de Minería, Aurora Williams, explicó al presentar el informe que la proyección para este año contempla un incremento del 3% de la demanda de metal de China, la cifra más baja de los últimos cinco años del gigante asiático, el principal consumidor de cobre chileno.

Air Nostrum abandona Argentina ante la quiebra de su socia Sol

Buenos Aires, Argentina. 29 enero, 2016. Los accionistas de Air Nostrum abandonan Argentina tras la quiebra de su socia Sol, provocada por la ruptura del acuerdo con Aerolíneas Argentinas para que la primera alimentara con tráfico regional las operaciones de la compañía de bandera nacional, lo cual dejó sin base el proyecto conjunto entre las dos aerolíneas regionales.

El pasado mes de septiembre, los socios de la compañía española aceptaron el ofrecimiento de los propietarios de la aerolínea argentina Sol para entrar en su capital como socio tecnológico a través de la sociedad ILAI. El objetivo era tutelar el proyecto de cambio de flota de SOL para sustituir los turbohélices Saab 340 por reactores CRJ200 con los que Air Nostrum tiene una amplia experiencia así como operadora de tráfico regional.

air nostrum

La renovación de flota se debía a que, un mes antes, Sol –aerolínea regional independiente radicada en Rosario- había suscrito un acuerdo con Aerolíneas Argentinas para alimentar los vuelos de la compañía mediante una operación regional, contribuir a la racionalización del mercado doméstico de ese país y aumentar la conectividad con las regiones más aisladas y ultraperiféricas. “Este tipo de contrato de ‘compra de capacidad’ (CPA: capacity purchase agreement) es práctica habitual en el sector, y está muy extendido en Estados Unidos y Europa entre aerolíneas regionales y de bandera”, explican desde la aerolínea valenciana.

Reiteran que “la dilatada experiencia de Air Nostrum en la operación de reactores canadienses Bombardier de la familia CRJ así como los 18 años de trabajo como franquicia para vuelos regionales de Iberia favoreció que Air Nostrum fuese escogida por SOL como socio tecnológico para llevar a cabo el proyecto y que se llegase a un acuerdo para que los socios de la aerolínea española entrasen en la propiedad accionaria de la compañía”. Por lo tanto, la entrada de los propietarios de Air Nostrum en el capital de Sol a través de la sociedad ILAI estaba condicionada a la existencia del acuerdo antes citado entre Aerolíneas Argentinas y Sol.

En el contrato firmado en septiembre de 2015 entre ILAI y Sol, los socios de Air Nostrum promovieron la inclusión de una cláusula de salida del accionariado de Sol si se rompía el acuerdo con Aerolíneas Argentinas.

Tras las elecciones de octubre de 2015, cambió toda la cúpula directiva de la compañía de bandera argentina. Una de las primeras decisiones de los nuevos gestores tras tomar posesión de su cargo fue informar a Sol de la resolución del contrato de forma inmediata y unilateral.

“Ante esta circunstancia los responsables de ILAI han optado por hacer efectiva la cláusula de salida que habían incorporado. El impacto económico para ILAI ha sido mínimo porque su aporte se circunscribía fundamentalmente a su papel tecnológico dentro de la remodelación de la flota”, señalan.

También aclaran que las inversiones de los socios de Air Nostrum en el resto de Hispanoamérica “se mantienen inalteradas, sin que esta ruptura de contrato haga disminuir la confianza en las posibilidades que ofrece la aportación de knowhow español en Latinoamérica”, han puntualizado.

Proyecto en Estocolmo permite ir de casa al trabajo por la azotea

Estocolmo, Suecia. 28 enero, 2016. Como muchas capitales europeas, Estocolmo con 2,2 millones de habitantes está creciendo y necesita hacer sitio para los nuevos habitantes. En lugar de extender la ciudad por la periferia, un estudio sueco propone construir edificios verticales, a diferente altura para que pase la luz, y unidos con pasarelas elevadas que estén llenas de verde.

Estocolmo - Klarastaden

El plan se llama Klarastaden, “cuidad clara”, y fue un encargo del Partido del Centro a los arquitectos de Anders Berensson. La consigna era imaginar una hilera de barrios en la costa oeste de la ciudad, por donde actualmente transcurren las vías del tren. Para amortizar una inversión así, la ciudad tendría que ser alta y densa, de modo que quepa la mayor cantidad de gente posible.

Alto y denso suena triste y oscuro, pero el estudio sueco imagina vegetación y mucha luz —como se aprecia en las imágenes. En lugar de un bloque de viviendas tradicional, los edificios serían delgados y a diferentes alturas, para adaptar las vistas y las condiciones de luz. Además irían escalonados para que los más bajos permitan que la luz siga llegando a la calle.

Estocolmo - Klarastaden

En vez de azoteas grises, los rascacielos tendrían terrazas con parques o piscinas para los residentes. Y aquí es donde viene la magia: Anders Berensson propone abrir al público esa ciudad elevada, construyendo puentes que unan las terrazas para crear, en definitiva, una gran pasarela transitable con buenas vistas.

Klarastaden tendría en total 5.800 apartamentos, de los cuales el 90% contaría con vistas al lago, 8.000 oficinas y 300 tiendas.

Los ‘efectos colaterales’ de las grandes fusiones

EE.UU. 27 enero, 2016. Una de las consecuencias habituales de las grandes fusiones es la venta de activos por parte de los grupos resultantes de estos procesos de integración, bien para alinear sus negocios, por exigencias de los reguladores de la competencia, o con el objetivo de reducir deuda.

Cerrado un 2015 que batió récords en el valor de las adquisiciones anunciadas en el mundo, los analistas están ya haciendo números sobre la gran cantidad de operaciones colaterales que pueden producirse en los próximos meses.

Fusiones - Venta De Activos

AB InBev, incluso antes de finalizar la compra de SABMiller (la mayor fusión de la historia en el sector cervecero), está deshaciéndose de varias de las marcas que absorberá con la transacción.

Ya ha acordado la venta del 58% de SABMiller en la compañía estadounidense MillerCoors a Colson por US$ 12.000 millones, y ahora busca comprador para las cervezas europeas Peroni y Grolsch.

El grupo japonés Asahi es uno de los favoritos para hacerse con estas marcas por unos US$ 3.000 millones, aunque afronta la competencia de la cervecera catalana Damm y varias empresas de capital riesgo.

Medicinas

La adquisición de Allergan por Pfizer, otro de los grandes acuerdos de 2015, puede provocar un espacio vacío significativo para el sector farmacéutico. Los analistas creen que la empresa británica Reckitt Benckiser estudiará hacerse con la actividad de medicamentos sin receta de Pfizer.

“Existen elevadas opciones de que Pfizer decida vender este negocio antes de 2018”, opina Graham Jones, analista de HSBC. En 2006, la farmacéutica estadounidense ya se deshizo de sus medicamentos sin receta, al venderlos a Johnson & Johnson (J&J), pero volvió al mercado al hacerse con Wyeth dos años después.

Tras la fusión con Allergan, el negocio de salud de consumo (que incluye analgésicos, vitaminas y jarabes contra el resfrío, entre otros productos) sólo representará el 6% de las ventas de Pfizer.

En caso de que vuelva a poner en venta esa división; que incluye marcas como Centrum, Anadin y Robitussin; Reckitt Benckiser aparece como el gran favorito por su deseo de crecer en ese sector.

Este grupo, que es más conocido por sus marcas de productos del hogar como Woolite, Calgon y Harpic, lleva tiempo intentando hacerse de un hueco en el área de salud. Tras invertir 7.600 millones de libras en adquisiciones en el sector durante la última década, ahora tiene la necesidad de responder a las operaciones realizadas en los últimos meses por Sanofi (compra de una filial de Boeringher), GSK (alianza con Novartis) y Bayer (adquisición de marcas de Merck). Reckitt ya intentó ir por la división de Merck, sin éxito.

“Desde 2013, los directivos de Reckitt han mostrado su deseo de crecer en el segmento de salud, donde el ritmo de consolidación se ha acelerado y existe una gran complementariedad entre su división de salud de consumo con la de Pfizer “, señala Celine Pannuti, de JPMorgan.

Rakesh Kapoor, CEO de Reckitt Benckiser, admitió en diciembre que estaría interesado en comprar esa división de Pfizer en caso de que salga a la venta.

Los analistas creen que la empresa británica debería desembolsar unos US$ 15.000 millones para ejecutar esa compra. La división de fármacos sin receta de Pfizer-Allergan factura anualmente más de US$ 3.000 millones. Unidos a los US$ 4.200 millones que ingresa Reckitt con productos como Nurofen y Strepsils, se crearía el líder del sector por delante de J&J, Bayer y Sanofi.

Turbulencias

Estas compraventas de activos pueden compensar el descenso de grandes fusiones en 2016 que pueden generar las fuertes turbulencias en los mercados, según los analistas.

China cae a su peor nivel en 25 años… y no es sólo el PIB

Beijing, China. 26 enero, 2016. La economía de China creció a su ritmo más lento de los últimos 25 años según los datos publicados por la oficina de estadística de Beijing. Esto aumenta la presión para hacer frente a los temores de una desaceleración prolongada y obliga a poner muchos resguardos para aliviar la preocupación que afecta a los mercados globales.

Lo de China bien puede ser la tercera oleada de la crisis por el alto endeudamiento privado que enfrenta el gigante asiático desde el año 2009. La banca en la sombra ha crecido a niveles exponenciales y más de 6.000 bancos subterráneos (que en 2008 no existían) pueden provocar el nuevo tsunami financiero global.

China PIB

Según las cifras oficiales, el crecimiento anual de 6,9% estuvo apenas por debajo de las expectativas del gobierno fijadas en 7%. En los últimos tres meses del año el crecimiento del PIB fue de 6,8%, una décima menos que los tres meses previos y dos décimas menos que el primer y segundo trimestre del año. Sin embargo, el PIB nominal estuvo por debajo del 6% y fue el más lento de los últimos 30 años.

Puede parecer curioso que el PiB nominal esté por debajo del PIB real, cuando por lo general es al revés. Pero existe una razón: la deuda ha crecido al doble de la tasa de crecimiento del PIB oficial mientras la inflación se ha hecho negativa, esto hace que el deflactor sea mayor. Por lo mismo, gran parte de los nuevos préstamos no se dirigen a estimular la economía sino a pagar los préstamos viejos. Es el triste círculo vicioso de la deuda en que ha entrado China, y del cual, como todas las adicciones, se hace difícil salir. El hecho de que el PIB nominal sea menor al PIB real indica la aceleración de los precios negativos. Hay deflación para rato.

Este es el tercer trimestre consecutivo en que el deflactor de precios es negativo en China. El estallido de la burbuja inmobiliaria ha arrastrado a todos los sectores creando una crisis de sobreproducción que golpea a la industria y los servicios. La caída del deflactor en los últimos cuatro años puede estar camuflando el verdadero crecimiento de China: en torno al 0%. Por algo hay tanto nerviosismo en los mercados.

Sin embargo, cuando contemplamos el incremento de la deuda privada para el período 2009-2014 quedamos atónitos y con razón:

China - Aumento Del Credito Al Sector Privado

China y Hong Kong han aumentado su deuda privada mas que nadie en los últimos siete años. A niveles del 80% y el 100% del PIB.

Con precios a la baja y estancamiento económico los países más endeudados son los que más sufren las crisis financieras, como quedó demostrado con Europa y Estados unidos en 2008. Ahora, siete años después, estamos frente a frente al tercer tsunami de la crisis y esta vez directamente de China. Dejo a los lectores las hipótesis de lo que puede acontecer.

LG también quiere autos inteligentes

  • La empresa surcoreana firmó una alianza con Google y muestra un sistema inteligente de paneles que son capaces de convertir los focos frontales y laterales del vehículo en auténticas pantallas.
  • El auto conectado: Big Data, grandes oportunidades.

Seoul, Corea del Sur. 27 enero, 2016. LG aprovechando el lanzamiento de sus televisores OLED, ahora quiere dar el siguiente paso. De hecho, esta vez se trataba de llevar la experiencia audiovisual “al siguiente nivel”. Algo que Skott Ahn, presidente de la división de Electrónica de Consumo de la compañía, aseguró que la surcoreana se dispone a hacer con su nuevo sistema de pantallas para automóviles. Llamadas Panoramic Displays, estos nuevos paneles son capaces de convertir los focos frontales y laterales del vehículo en auténticas pantallas de televisión.

LG - Skott Ahn - Autos Inteleginetes y Conectados
“La mayoría de los conductores de EE.UU. desean tener dispositivos de entretenimiento, de alta tecnología y conectividad en sus vehículos”, dijo Skott Ahn, presidente y CTO de LG.

Todo ello, conectado a un sistema de conducción inteligente basado en sensores desarrollados por la compañía y que permitirán que nuestros autos se desplacen solos, sin necesidad de conductor. De esta forma, el interior del vehículo será una auténtica extensión de nuestro hogar, desde donde podremos disfrutar de todo el ecosistema de productos de la empresa que tengamos instalados en el hogar.

LG anunció también un acuerdo estratégico con Google, con quien colaborará para hacer realidad el proyecto de un hogar conectado. Según el gigante de Internet, en el hogar del futuro (hacia 2020) en cada hogar habrá una promedio de 26 dispositivos conectados, y es necesario que todos estos dispositivos sean capaces de “hablar” entre sí y conectarse unos con otros.

En cuanto a productos, la palma se la llevó la nueva generación de televisores de la empresa coreana. Bajo la denominación genérica de LG Signature, LG presentó sus nuevos paneles OLED Ultra UHD Premium, así como sus nuevos electrodomésticos de gama blanca (frigoríficos, aire acondicionado y lavadoras), dotados con las últimas tecnologías. Y todos desarrollados bajo un mismo concepto de diseño que es común a todas las categorías de productos.

Televisores: mejores contrastes

Los nuevos televisores, por ejemplo, son poco más que un simple panel de cristal, casi sin bordes, tienen apenas 6,6 milímetros, de grosor, lo que hace que parezca que están suspendidos en el aire. Los parlantes y otros componentes están incorporados en la base del televisor cuya pantalla, además, no refleja ningún brillo.

Los negros más profundos y los contrastes más espectaculares son posibles gracias a la tecnología Dolby Vision, capaz de distinguir y reflejar en pantalla hasta 1.000 millones de colores y tonalidades diferentes. Los contenidos, en consecuencia, parecen salirse de la pantalla, y los percibimos como si fueran absolutamente reales. Se trata de la misma tecnología usada, por ejemplo, en películas como “The Martian”. Todos los modelos Premium incluyen HDR, incluido el “monstruo” con resolución 8K y 98 pulgadas presentado por la compañía y que empezará a comercializarse a partir de junio.

Tecnologías avanzadas para el auto conectado

Cámaras de retroceso, puertos USB y de carga de teléfonos inteligentes están entre los items mas solicitados por las personas, de acuerdo a una encuesta realizada por AutoTrader.com a propietarios de vehículos. Alrededor del 55% dijo que los servicios de streaming de música, tales como Pandora Media y Spotify hacen que la conducción sea más agradable.

Los fabricantes de automóviles y proveedores de tecnología van tras un pedazo de la torta de US$ 11.300 millones en tecnologías instaladas de fábrica en los autos, según la Consumer Electronics Association.

Según analistas la electrónica de consumo se está convirtiendo rápidamente en la cereza de la torta en la industria automotriz. Los consumidores están gastando más tiempo y dinero en la tecnología del auto y están particularmente interesados en lo que están comprando.

La tecnología incorporada en el auto es el punto de mayor importancia para el 39% de los compradores de automóviles, en comparación con el 14% que se preocupan más acerca de los caballos de fuerza y conducción, según una encuesta de la consultora Accenture. Los autos conectados a Internet en todo el mundo crecerán más de cuatro veces a 152 millones en 2020 desde los 36 millones actuales, según una investigación de IHS Automotive. En 2013 había en el mundo 1.183 millones de vehículos, 865 millones de autos y 318 millones de vehículos comerciales.

Según SAS, en los próximos 10 años los vehículos conectados crecerán mas rápidos que la población. Durante más de un siglo, la industria automotriz ha sido un
semillero de innovación. Ahora, en su segundo siglo, el ritmo de la innovación se está acelerando. La tecnología de conexión viene ahora estándar en muchos vehículos nuevos y la conducción  semiautónoma es una realidad, con sistemas avanzados de asistencia al conductor que permiten una mayor seguridad, y vehículos totalmente autónomos están entrando en servicio.

Dinamarca bate el récord en producción de energía eólica

  • Dinamarca es uno de los países que más han invertido en energía eólica, y ese esfuerzo está dando resultados: el 42% de su electricidad provino en 2015 de esa fuente.

Dinamarca. 25 enero, 2016. Dinamarca ha vuelto a batir el récord suministrando un 42% de su demanda con energía eólica. Otro hito más para un país cuya historia de energías renovables es un ejemplo para todo el mundo.

Aunque dos de los grandes parques eólicos del país están “desconectados”, esto no ha impedido que Dinamarca se anote 2015 como el año que batió el récord produciendo energía renovable a base de viento. Con nada más y nada menos que un 42% de la energía producida en todo el país, el año pasado se tornó en algo digno de mención para Dinamarca. Un país que cuenta con una historia inusual en producción de energías renovables, especialmente en energía eólica.

Dinamarca - Energia Eolica

Batiendo récords en energía eólica

Lo cierto es que esto no es nuevo para Dinamarca. El país ya batió el récord en 2014. Sin embargo, en 2015 han incrementado un 3% la producción con respecto al año pasado. Esto se debe en parte, según explican desde el ministerio, ha que ha sido un año especialmente ventoso. Porque además, lo han conseguido a pesar de no contar con la producción de dos de sus mayores parques eólicos. Aunque eso no es problema para los más de 2.400 parques eólicos disponibles en el país. En Dinamarca, además, se encuentran Bonus y Vestas, dos empresas que comenzaron a explotar la energía del viento. Así lo cuenta Rubén Lijó, ingeniero eléctrico especializado en integración de energía eólica en red. “Ahora Vestas es el mayor fabricante eólico del mundo, seguido por la española Gamesa“, comenta. “Dinamarca siempre ha sido un referente en este sector”.

Según explican desde el ministerio, actualmente Dinamarca está sobreproduciendo un 16% de energía gracias a sus parques eólicos. Esto les permite vender el excedente y comerciar con países vecinos. Para que nos hagamos una idea, las dos regiones danesas de Jutland y Funen produjeron durante el año pasado unas 70 veces más energía que las que toda su población es capaz de consumir. El dos de septiembre, indican desde el ministerio, el país no necesitó encender ninguna central eléctrica, alimentándose solo de la producción de energía eólica y ciclos combinados. “Dinamarca tiene una necesidad de unos 3.236 MW y tienen capacidad de producir unos 3.800 MW de potencia eólica instalada“, explica Lijó, “y luego de convencional solo unos 500 MW. Tienen una producción eólica sobredimensionada a propósito“.

¿Por qué no el 100%?

Por poner un ejemplo concreto, España no sería capaz de producir el mismo porcentaje de energía eólica que Dinamarca. “En España faltaría espacio si quisiéramos producir el 42% de su demanda… pero no se queda atrás con el 23% para lo grande que es el sistema”, explica Lijó mientras analiza la situación de Dinamarca. España es el cuarto país del mundo que más eólica produce, solo por detrás de China, Estados Unidos y Alemania que ya tenía tradición eólica, comenta el ingeniero. Pero claro, estamos hablando de producción neta y no de producción relativa. “La clave de Dinamarca es que tienen un sistema eléctrico relativamente pequeño por su pequeña población“.

El plan energético danés busca para 2050 que el 50% de su demanda energética se cubra con energía eólica, dejando las centrales convencionales fuera de la ecuación. “En esa línea, han apostado por la eólica desde hace décadas hasta tener en la actualidad la mayor penetración eólica (potencia eólica producida en relación a la potencia total del sistema eléctrico) del mundo”, explica Lijó. Pero si son capaces de producir 500 MW más de energía eólica de los que realmente son capaces de producir, ¿por qué no depender al 100% de la energía eólica?

El resto del mix energético de Dinamarca está compuesto en la actualidad por centrales de combustibles fósiles, con la participación de solo el 5% en energía solar y otras renovables, e importaciones de países vecinos (fundamentalmente de las hidroeléctricas noruegas). La cuestión está en una energía que no siempre se puede producir, por cuestiones meteorológicas, y tampoco se puede almacenar. Inyectar a la red eléctrica supone que la energía debe estar siempre disponible según las necesidades de la red. “Hasta que se consigan gestionar adecuadamente las renovables que tengan participación en el sistema eléctrico de forma que no afecte la variabilidad del recurso a la disponibilidad de la energía” responde Lijó a la pregunta, “el objetivo 100% renovable seguirá siendo inasumible”. Mientras tanto, Dinamarca nos acercan cada vez más a ese objetivo con su fuerte inversión en el sector de las renovables, innovadoras investigaciones en mejora de su rendimiento y gestionabilidad; una apuesta decidida por un cambio de modelo que tienda hacia la sostenibilidad.

La nueva generación de procesadores de Intel llegarán en 2017

Santa Clara, California, EE.UU. 26 enero, 2016. La sexta generación de procesadores Intel Core está comenzando a ser realmente popular entre fabricantes y usuarios: Skylake ha ganado tracción y es evidente que aporta novedades interesantes para muchos ámbitos, pero la empresa ya está preparando una nueva renovación de sus microchips.

Se trata del que será el próximo tick de Intel, un ciclo en el que se mejora la tecnología de integración y fabricación para pasar a procesos de 10 nanómetros. Eso implica más transistores en el mismo espacio, aunque ese salto será más prolongado que de costumbre, ya que cada ciclo ahora es mas difícil de realizar.

Los 5 nm llegarán en 2020

Se espera que los primeros procesadores de la familia Cannonlake lleguen en 2017, y será entonces cuando ese nuevo tick pueda presumir de una escala de integración nunca vista en microprocesadores. Antes, eso sí, tendremos a nuestra disposición la familia Kaby Lake, que mantendrá el actual proceso de 14 nm pero que introducirá también algunas mejoras destacables.

Intel - Tick-Tock

Ese futuro proceso de fabricación comienza ya a poner en aprietos a Intel, que tardará algo más en volver a dar otro salto en ese sentido. De hecho este tick no irá acompañado de un tock (cambio de microarquitectura), sino de dos. Así pues, asistiremos a un ciclo “Tick-Tock-Tock” que demuestra lo complejo que es ya mejorar esa escala de integración.

De este modo tendremos tres familias de procesadores de 10 nm: la primera, Cannonlake, debutará en 2017. La segunda, Icelake, lo hará en 2018, mientras que la tercera y última sera Tigerlake, que aparecerá en 2019. Tras ese ciclo se espera que Intel dé el salto a los microprocesadores de 5 nm en 2020.

Crean chips que se alimentan de energía igual que las células vivas

EE.UU. 23 enero, 2016. Científicos de la Universidad de Columbia han creado un chip que se alimenta de energía igual que las células vivas. Consiste en un circuito electrónico combinado con una ‘biocélula’ artificial que alimenta el circuito con trifosfato de adenosina, ATP. El logro abre la puerta a nuevos sistemas artificiales con componentes tanto electrónicos como biológicos, aunque aún hay que llevarlo a la escala molecular.

Investigadores de Columbia Engineering, de la Universidad de Columbia, han logrado, por primera vez, aprovechar la maquinaria molecular de los sistemas vivos para alimentar un circuito integrado con trifosfato de adenosina (ATP), la divisa energética de la vida. Lo consiguieron mediante la integración de un circuito integrado de semiconductor complementario de óxido metálico (CMOS) con una membrana de bicapa lipídica artificial que contiene bombas de iones impulsadas por ATP, abriendo la puerta a la creación de sistemas artificiales completamente nuevos que contienen componentes tanto biológicos como de electrónica de estado sólido.

ATP - BioPowered Chip
La molécula de ATP (adenosine triphosphate) almacena energía química y es utilizada dentro de las células para transportar energía desde donde es generada hacia donde es consumida.

El estudio, dirigido por Ken Shepard, profesor de Ingeniería Eléctrica y de Ingeniería Biomédica en Columbia Engineering, se publicó en Nature Communications. “Combinando un dispositivo electrónico biológico con CMOS, seremos capaces de crear nuevos sistemas que no son posibles con cualquiera de las dos tecnologías por separado”, dice Shepard. “Estamos entusiasmados ante la perspectiva de ampliar la gama de dispositivos activos que tendrán nuevas funciones, como recolectar energía de ATP, como hemos hecho aquí, o reconocer moléculas específicas, dando a los chips la capacidad del gusto y el olfato. Es un camino verdaderamente singular para nosotros”.

Shepard señala que a pesar de su éxito abrumador, la electrónica CMOS de estado sólido es incapaz de replicar ciertas funciones naturales de los sistemas vivos, como los sentidos del gusto y el olfato y el uso de fuentes de energía bioquímica. Los sistemas vivos logran esta funcionalidad con su propia versión de electrónica basada en membranas lipídicas y canales y bombas iónicas, que actúan como una especie de ‘transistor biológico’. Utilizan carga en forma de iones para llevar energía e información -los canales iones controlan el flujo de iones a través de membranas celulares. Los sistemas de estado sólido, como los de las computadoras y los dispositivos de comunicación, utilizan electrones; su señalización electrónica y su alimentación se controlan mediante transistores de efecto campo.

En los sistemas vivos, la energía se almacena en potenciales a través de membranas de lípidos, en este caso creadas a través de la acción de bombas de iones. El ATP se utiliza para transportar la energía desde donde se genera hasta donde se consume, en la célula.

Prototipo

Para construir un prototipo de su sistema híbrido, el equipo de Shepard, dirigido por el estudiante de doctorado Jared Roseman, empaquetó un circuito integrado CMOS con una ‘biocélula’ recolectora de ATP. En presencia de ATP, el sistema bombea iones a través de la membrana, produciendo un potencial eléctrico recogido por el circuito. “Hemos hecho una versión a macroescala de este sistema, de varios milímetros, para ver si funcionaba”, señala Shepard. “Nuestros resultados proporcionan una nueva visión de un modelo de circuito generalizado, lo cual nos permite determinar las condiciones que maximizan la eficiencia de aprovechamiento de la energía química a través de la acción de estas bombas de iones. Ahora vamos a buscar la manera de disminuir la escala del sistema”.

Aunque otros grupos han recolectado energía de los sistemas vivos, Shepard y su equipo están explorando cómo hacer esto a nivel molecular, aislando simplemente la función deseada e interconectándola con la electrónica. “No necesitamos toda la célula”, explica. “Simplemente tomamos el componente de la célula que hace lo que nos interesa. Para este proyecto, aislamos las proteínas ATP porque eran las que nos permitían extraer energía del ATP”.

La capacidad de construir un sistema que combine el poder de la electrónica de estado sólido con las capacidades de los componentes biológicos es muy prometedora. “Si usted necesita un perro detector de bombas, pero pudiera tomar sólo la parte del perro que le es útil -las moléculas que detectan las bombas-, no necesitaría todo el animal”, dice Shepard. “Con la escala adecuada, esta tecnología podría proporcionar una fuente de energía para sistemas implantados en entornos ricos en ATP, como el interior de las células vivas”, añade Roseman.

Resoluciones que desafían a las grandes compañías de TI

Bruselas, Belgica. 25 enero, 2016. Las decisiones tomadas por los tribunales europeos e internacionales convirtieron a 2015 en un ‘annus horribilis’ para las principales empresas de economía digital como Google, Facebook, Apple o Yahoo.

Los países de la UE llevan años luchando y legislando para alcanzar el mercado único digital. Sin embargo, tampoco están dispuestos a que este avance se haga a cualquier precio, por lo que la protección de los usuarios de Internet sigue siendo su primera prioridad.

El mejor ejemplo de esta batalla legal entre cambios tecnológicos y derechos de los ciudadanos son las decisiones sobre el Safe Harbour (Puerto Seguro), el derecho al olvido o el tratamiento de datos de terceros.

Google - EU
La comisaria europea de competencia, Margrethe Vestager, en la conferencia de prensa en la que acusa formalmente a Google de abusar de su posición de dominio.

‘Safe Harbour’

El pasado 6 de octubre de 2015 pasará a la historia como el día en el que el Tribunal de Justicia de la Unión Europea (TJUE) invalidó la decisión Safe Harbour de la Comisión, aprobada en el año 2000, que facilitaba la transferencia de datos personales desde países miembro de la UE hacia Estados Unidos.

El fallo se convirtió en una gran victoria para la privacidad de los ciudadanos europeos y sobre todo para Maximilian Schrems, el estudiante austriaco que decidió llevar ante los tribunales a Facebook por entender que esta red social no otorgaba suficiente protección a sus datos personales.

La resolución del TJUE decidió invalidar el acuerdo de Puerto Seguro por dos motivos principales: por permitir que prevaleciera la seguridad nacional o el interés público estadounidense sobre los derechos fundamentales a la intimidad y la protección de datos, sin otorgar a los ciudadanos europeos ningún medio para obtener la tutela efectiva de esos derechos; así como por no otorgar a los estados miembro un margen suficiente para suspender las transferencias en caso de que estos apreciaran una vulneración de los derechos de los ciudadanos europeos.

La sentencia, sin embargo, también ha sembrado mucha incertidumbre en el sector empresarial que utiliza como herramienta habitual la transferencia de datos internacional, como el propio Facebook, Google o Yahoo. Actualmente, muchas empresas se encuentran en una especie de limbo legal. Por esa razón, la gran mayoría se ha centrado en la seguridad jurídica de los datos y ha tratado de encontrar un sistema adecuado que le permita cumplir la normativa vigente.

Derecho al olvido

El 13 de mayo de 2014, el TJUE se pronunció positivamente sobre el llamado derecho al olvido, una suerte de derecho de rectificación en Internet, en el caso Costeja contra Google España. Los coletazos de este fallo llegaron hasta 2015 y sus consecuencias han sido muy relevantes en el ámbito jurídico español y entre los principales motores de búsqueda.

En este sentido, hay que destacar la decisión del 23 de enero de la Audiencia Nacional (AN) en relación al caso Costeja, que corroboró la doctrina introducida por la corte europea, desestimó los recursos planteados por Google Inc. y su filial española y que confirmó el derecho de este particular a ejercer el derecho al olvido y hacer prevalecer el derecho de protección de datos sobre los intereses y actividad del motor de búsqueda.

En abril de 2015, y según datos de la Agencia Española de Protección de Datos (AGPD), la AN se había pronunciado sobre 72 asuntos relacionados con el derecho al olvido, de los cuales 54 (75%) terminaron el retiro de links a los resultados de búsqueda.

La AN no ha sido el único organismo que se ha centrado en este asunto. El pasado 19 de octubre, el pleno de la sala de lo civil del Tribunal Supremo (TS) se pronunció en contra de la eliminación de la hemeroteca de un diario, en su versión digital, de las identidades de dos personas que estuvieron implicadas en el tráfico de drogas hace 30 años.

En su fallo, el TS rechazaba que cualquier medio de comunicación modificara su archivo para borrar datos, puesto que esto supondría, según explicaba la resolución, “un sacrificio desproporcionado por excesivo del derecho a la libertad de información. El llamado derecho al olvido no puede suponer una censura retrospectiva de informaciones correctamente publicadas en su día”. Sin embargo, el fallo sí que obligaba a poner todos los medios tecnológicos necesarios para evitar que esa información no pudiera encontrarse a través de motores de búsqueda.

Tratamiento indebido

El 9 de noviembre, el tribunal de primera instancia de Bruselas falló contra Facebook en una sentencia en la que solicitaba a la red social que terminara con la recogida de datos de navegación de internautas no usuarios de Facebook a través del uso de cookies. La corte belga especificaba que los cambios realizados que se adoptaran para permitir esta mejora no deberían suponer ningún perjuicio para los internautas.

La plataforma dirigida por Mark Zuckerberg decidió no acatar la sentencia, a pesar de enfrentarse a 250.000 euros de multa por día de incumplimiento, y anunció que apelaría la decisión por no estar conforme con el fallo.

Un mes después de la sentencia, y frente al desinterés mostrado por la red social, las autoridades de protección de datos de Bélgica, España, Francia, Hamburgo y Países Bajos exigieron en un comunicado común que la red social acatara definitivamente la resolución por la que fue condenada por espiar a los internautas a través del uso de cookies.

La AGPD recordaba en la nota emitida que la ley obliga a Facebook a dos cosas: por un lado, a dejar de colocar la cookie .datr cuando el internauta accede a una página web del dominio facebook.com sin proporcionarle previamente información suficiente y adecuada sobre el hecho de que esta plataforma usa esa cookie para monitorizar datos; y, por otro, a dejar de recoger la cookie .datr a través de plug-ins sociales situados en los sitios web de terceros.

La Unión Europea contra el poder de Google

Otro asunto relacionado con Google y la Unión Europea tiene que ver con la Comisión y la larga batalla legal contra la compañía tecnológica. Los reguladores de la UE presentaron, en el mes de abril, cargos formales por abuso de competencia contra Google, a la que acusaron de manipular los resultados de las búsquedas por Internet para favorecer sus propios servicios.

Esta acusación llegó tras una investigación de cinco años durante los cuales la UE intentó, sin éxito, llegar a un acuerdo con Google en tres ocasiones. En la respuesta de 150 hojas que Google remitió a Bruselas, la compañía estadounidense sostuvo la inexactitud del pliego de cargos de la Comisión y señaló que este organismo no ofrecía ningún apoyo a la afirmación de un supuesto “desvío del tráfico de los servicios de compras a sus propios anunciantes” y no tenía “en cuenta los importantes beneficios a consumidores y anunciantes”.

Tampoco proporciona una teoría legal clara para vincular esta declaración a una solución propuesta. Google afirmaba además que dichas acusaciones era infundadas tanto desde el punto de vista “de hecho, de derecho, como de economía”.

WhatsApp bloqueado por orden judicial

La UE no es el único frente legal abierto contra las grandes tecnológicas. La primera corte penal de Sao Bernardo do Campo (Brasil) decidió bloquear durante 48 horas la aplicación de mensajería instantánea WhatsApp, propiedad de Facebook. La decisión se tomó porque la empresa tecnológica se negó a ofrecer informaciones que le solicitaron dentro de una investigación penal sobre un usuario de este servicio. Como Whatsapp no respondió a la solicitud judicial, la fiscalía exigió el bloqueo de los servicios durante dos días, basándose en la ley del Marco Civil de Internet. Horas después del bloqueo, una nueva sentencia anuló el primer fallo alegando que según los principios constitucionales, “no era razonable que millones de usuarios se vieran afectados por la omisión de la empresa de ofrecer informaciones a la justicia brasileña”.

Google pagó US$ 1.000 millones 2014 por ser el buscador del iPhone

  • Google dio a la empresa de Tim Cook el 34% de los ingresos que logró por publicidad en los soportes móviles de Apple.
  • Tanto Google como Apple solicitaron que se mantuviesen bajo secreto datos similares al considerar que dañan su capacidad negociadora con terceros.

EE.UU. 24 enero, 2016. Ser la puerta de acceso a la Red de un público potencial de más de 700 millones de dispositivos es un privilegio. Google pagó por ello US$ 1.000 millones a Apple en 2014. Entonces ya se habían vendido más de 500 millones de iPhone y las tablets iPad en manos de consumidores superaban los 224 millones.

El litigio que Oracle mantiene contra Google desde 2012, acusando al buscador de usar patentes de la empresa de Larry Ellison para la creación del sistema operativo Android, ha revelado este movimiento del buscador.

Google - Apple - Oracle - Java

Google es el buscador por defecto de los móviles y tablets de Apple. Cada vez que se busca algo en Internet, los iPhones o iPads usan el servicio creado por Larry Page y Sergei Brin. La cantidad no se fijó previamente, sino que es la consecuencia de la comisión que se llevan los de Cupertino.

Según el abogado de Oracle, esa comisión suponía que Google transfería a Apple el 34% de lo generado en publicidad por el buscador en el iPhone y el iPad.

Este detalle confronta con una de las máximas de Apple, no lucrarse del negocio publicitario en Internet. El argumento del CEO de Apple, Tim Cook, siempre se ha centrado en que sus ingresos provienen de la venta de sus objetos físicos y aplicaciones. Algo que no encaja con el cobro de la comisión que genera el buscador de sus dispositivos.

Y es un negocio boyante: en el litigio judicial con Oracle también se ha revelado que, para Google, un usuario de Apple es cuatro veces más lucrativo que uno de Android, el sistema operativo que ellos mismo promueven. Un negocio por el que en 2014 también batalló, Marisa Mayer. Después de comprar Tumblr, la plataforma de blogs de moda entre los millennials, intentó otro golpe, pero el nicho de lujo sigue en manos de Google.

Al término de la sesión judicial por el litigio con Oracle, tanto la defensa de Google como un representante de Apple solicitaron que se mantuviesen bajo secreto datos similares al considerar que dañan su capacidad negociadora con terceros. Algo a lo que de momento se ha negado el juez.

Google no distingue entre sus ingresos de publicidad a los inversionistas, y mantiene —o mantenía— esas cifras privadas para evitar ofrecer detalles de su negocio a competidores y socios.

Las cifras reveladas, a las que habría que sumar unos US$ 10.000 millones de ingresos obtenidos por la venta de apps en Android Market y posteriormente en Google Play, seguro van a ser motivo de algunas reuniones de urgencia en las sedes de los fabricantes de smartphones con Android, para usarlas cuando haya que renegociar los acuerdos de distribución del sistema operativo de Google. Con muchos de ellos sin obtener ningún tipo de ganancia trimestre tras trimestre, intentarán mejorar las condiciones que negociaron con Google en el pasado.

Oracle reclama contra Google por el supuesto uso de su software Java en la creación de Android, hoy plataforma líder en móviles. Google intentó llevar el caso la Corte Suprema, sin suerte. Todo apunta a que los de Mountain View tendrán que compensar a Oracle con más de US$ 1.000 millones y una cantidad a estipular por las futuras versiones del sistema operativo. El abogado de Oracle reveló que Google ha obtenido US$ 31.000 millones en ingresos gracias a Android, de los que US$ 22.000 fueron ganancias. Nada mal para un sistema operativo gratuito.

El índice báltico BDI cae a mínimos históricos

  • El Indice Báltico Seco viene cayendo desde el 5 de agosto y marca mínimos históricos, lo que anticipa una paralización del comercio mundial.

EE.UU. 24 enero, 2016. Este índice, que se creó en 1985 y mide el comercio marítimo, está en los 354 puntos, lejos de los 1.222 que marcó el 5 de agosto (fecha clave que señaló el punto de inflexión) o de los 4.000 que marcaba en 2010. Desde el inicio de año ha seguido un claro camino cuesta abajo y marca sus mínimos históricos. ¿Qué significa?

El Indice Báltico Seco (BDI) mide la evolución del precio del transporte por mar de las materias primas más importantes (mineral de hierro, trigo, algodón…) y se considera un buen barómetro económico: su oscilación varía con la actividad global (depende del crédito, de la demanda de materias primas y de la preparación de la producción) y no tiene carácter especulativo.

BDI - Indice Baltico

Hay que destacar que ya anticipó la crisis en 2008 (en el segundo semestre de 2008 pasó de marcar los 11.000 puntos a situarse por debajo de los 700) y también la recuperación posterior.

El analista financiero Juan Ignacio Crespo, autor del libro ‘Cómo acabar de una vez por todas con los mercados’, señala que la caída se debe a que hay demasiados barcos y poca demanda de transporte. “En otras ocasiones influye uno de los dos factores, pero en este caso son ambos”, indica.

Si miramos más allá de los motivos, parece que en esta ocasión el índice anticipa cierta desaceleración del comercio mundial. “A mediano y largo plazo, la correlación entre el índice y el comercio no es muy ajustada, pero en los últimos meses ha ido anticipando su comportamiento”, explica Crespo.

Santiago Carbó, catedrático de Economía de la Bangor University e investigador de Funcas, apunta en la misma dirección. “Estamos ante un indicador más de la caída del comercio mundial. Ya venían observándose caídas importantes desde el año pasado, especialmente llamativas desde noviembre. Es cierto que a veces se exagera la correlación entre este índice y el comercio mundial pero, cuando menos, está reflejando la menor demanda de manufacturas en Europa, principalmente las de países asiáticos. También, más recientemente, menores flujos de carga desde Europa a Asia. La relativa caída del sector de la construcción en China también explica una menor demanda de mineral de hierro y otras materias primas”, destaca.

Eso sí, hay quien advierte de que hay que tomarse estos datos con cautela. Para José Luis Martínez, estratega de Citi, “es un indicador importante pero no con la correlación histórica de un mundo tan global como teníamos antes de la crisis”.

Y, ¿qué podemos esperar los próximos meses? Pues los expertos consideran, por un lado, que la coyuntura china no se por donde vaya a mejorar, lo que evidentemente va a pesar. Y, por el otro, “el índice refleja una sobrecapacidad porque muchas compañías de carga marítima aumentaron su capacidad en los últimos años porque endeudarse para hacerlo era relativamente barato. Ahora la sobrecapacidad es aún más evidente”, concluye Carbó.

BT enfrenta cientos de miles de ciber ataques cada dia

  • La red de BT tiene que lidiar con “cientos de miles” de ataques cibernéticos cada día, dijo su CEO a los asistentes del Foro Económico Mundial en Davos.

Davos, Suiza. 23 enero, 2016. Gavin Patterson dijo que los ataques, han aumentado en un 1.000% en los últimos 18 meses, y también son cada vez más avanzados.

“El riesgo está cambiando su naturaleza y es cada vez más sofisticado”, dijo. “Aunque pienso que hay un reconocimiento a nivel de Directorio de las empresas, no estoy convencido de que exista un alto entendimiento técnico”.

Patterson agregó que los actores detrás de los ataques han “cambiado de manera significativa”, y que en lugar de encontrar debilidades en el muro de seguridad de una empresa, ahora tratar de “volar el muro”.

BT - Gavin Patterson
Gavin Patterson, CEO de BT, dijo que los ataques, han aumentado en un 1.000% en los últimos 18 meses, y también son cada vez más avanzados.

Explicó que la situación ha cambiado desde BT luchó contra 200 millones de ataques en cuatro semanas cuando proporcionó la seguridad para los Juegos Olímpicos de Londres 2012.

“¿Cómo se identifica la amenaza en el ruido?”, Preguntó. “Dentro del gran aluvión de ataques tienes que ser capaz de identificar el que puede burlar nuestras defensas”.

Patterson agregó que los ciberdelincuentes están atacando a la industria financiera porque “ahí es donde está el dinero”, representando un tercio del total de ataques.

También hizo hincapié en que las empresas tienen que ser más conscientes del riesgo que representan las amenazas internas.

En una encuesta reciente de EY las violaciones cibernéticas y las amenazas internas fueron los dos riesgos de mayor crecimiento para los ejecutivos de las compañías.

Y dos tercios de los consumidores esperan que su información financiera sea hackeada este año, subrayando que la prioridad para los hackers es el sector financiero.