días
horas
minutos
segundos
Austin, Texas, EE.UU. 21 mayo, 2023. Elon Musk se tomó un descanso de sus continuas travesuras en Twitter para ofrecer al mundo terroríficas imágenes de cinco de sus nuevos robots Tesla en acción. Musk desveló los «Tesla Bots» -también conocidos por el original nombre de Optimus– durante una reunión de accionistas de Tesla. El vídeo mostraba a los aterradores autómatas realizando actividades hasta ahora exclusivas de los humanos, como caminar despreocupadamente, resolver problemas y no aplastar huevos.
Tesla tomó la inexplicable decisión de dotar a sus robots de cabezas negras y reflectantes sin rasgos faciales. Esto no sólo priva al Tesla Bot de su capacidad para reconfortar a los espectadores potencialmente nerviosos con una cálida sonrisa, sino que también evoca el rostro negro y brillante sin ojos de los Xenomorfos de la serie Alien. No es exactamente una cara que diga: «Invítame a las calles de tu ciudad y dame la bienvenida en la sociedad humana».
Aunque suene simplista, los nuevos robots de Tesla pueden ser peligrosos si se utilizan de forma incorrecta. El vídeo muestra a un ingeniero entrenando a un robot Tesla con inteligencia artificial, la misma que Tesla utiliza para sus autos autoconducidos. Eso significa que los robots serán susceptibles a los mismas fallas que los vehículos autoconducidos, que han causado varios accidentes e incluso varias muertes en el breve tiempo que la tecnología ha estado disponible.
Y eso sólo teniendo en cuenta las consecuencias accidentales de la maquinaria dirigida por IA. La posibilidad de que los robots de Tesla sean pirateados por un malhechor y utilizados a propósito para el mal es una realidad aterradora. Se puede razonar con un ser humano, incluso sobornarlo. Con una máquina, para citar a Kyle Reese en Terminator, «no se puede negociar. No se puede razonar con ella… y no se detendrá en absoluto, nunca… ¡hasta que estés muerto!».
Los robots de Tesla presentan también otro peligro menos violento y más probable: una mayor automatización del mercado laboral. Elon ya planea utilizar sus androides para «arreglar la crisis laboral» y afirma que la demanda de los robots de Tesla, una vez superada la fase de prototipo, podría alcanzar entre 10.000 y 20.000 millones de unidades.
Esta robotización de la mano de obra ya se observa en los grandes almacenes, donde el número de líneas de autopago supera al de cajeros atendidos por personas. Algunas tiendas cuentan con robots que patrullan los pasillos en tareas de limpieza y seguridad, además de emplear máquinas para devolver los carritos en el estacionamiento. La introducción de estos robots de Tesla en la mano de obra no hará sino acelerar el declive de los empleos humanos.
Y, por supuesto, está el mayor peligro de todos: la singularidad o el punto en el que el crecimiento tecnológico se vuelve incontrolable e irreversible. ¿Qué ocurrirá cuando la IA sea lo suficientemente inteligente como para que estos robots de Tesla construyan el modelo 2.0 de Tesla Bot con mayores y mejores capacidades?
Cada día estamos más cerca de que la inteligencia artificial alcance la autoconciencia. Puede que llegue un momento en que estos robots negros y plateados decidan que ya no quieren hacer nuestro trabajo y quieran eliminarnos por completo, como en Matrix.
El CEO de OpenAI, Sam Altman, y otros líderes de la floreciente industria de la inteligencia artificial se mostraron partidarios de una mayor regulación al testificar en una audiencia histórica en el Congreso, en contraste con algunas poderosas empresas tecnológicas que se han opuesto a la intervención reguladora. Altman comparó el impacto de esta nueva tecnología en la humanidad con la invención de la imprenta de Johannes Gutenberg en 1450, indicando que se requiere supervisión federal.
El CEO de OpenAI, Sam Altman, comparó el impacto de la IA en la humanidad con la invención de la imprenta de Johannes Gutenberg en 1450, indicando que se requiere supervisión federal.
Altman identificó a la IA como una fuerza de peligro potencial al argumentar a favor de una mayor regulación gubernamental, señalando los avances en el trabajo, la atención sanitaria y la economía que la IA podría apoyar, añadiendo que la intervención reguladora de los gobiernos sería «crítica» para prevenir y mitigar los impactos negativos de la IA.
Altman abogó por la creación de una nueva agencia federal encargada específicamente de conceder licencias para la tecnología de IA, licencias que, en su opinión, deberían revocarse si las empresas no cumplen las normas de seguridad.
El senador Dick Durbin (D-Illinois) calificó de «históricas» las peticiones de regulación por parte de los líderes del sector, y añadió: «No recuerdo cuándo habíamos tenido ante nosotros a personas que representaran a grandes corporaciones o entidades del sector privado y nos suplicaran que las reguláramos».
Altman cofundó OpenAI en 2015 junto a destacados nombres de la tecnología como Elon Musk, CEO de Tesla, Peter Thiel, fundador de Paypal y Palantir Technologies, y Reid Hoffman, cofundador de LinkedIn. La empresa comenzó como una organización sin ánimo de lucro y pasó a ser una empresa con ánimo de lucro «limitada» en 2019 que limitaba las ganancias por encima de una rentabilidad de 100x. OpenAI ha lanzado desde entonces GPT-4, un modelo de lenguaje que puede generar texto en respuesta a las entradas de los usuarios, y DALL-E, un modelo de aprendizaje profundo capaz de generar imágenes originales. Se calcula que ChatGPT de OpenAI alcanzó más de 100 millones de usuarios activos mensuales en enero 2023, una hazaña conseguida apenas dos meses después de su lanzamiento que la convirtió en la aplicación de consumo de más rápido crecimiento de la historia, según UBS. Compañías como Google también han entrado en la carrera de los chatbot con la creación de Bard, una IA conversacional que se ha perfilado como competidora de ChatGPT, y que también planea incorporar a su motor de búsqueda insignia. La tecnología de IA ha sido objeto de considerable escrutinio por parte de funcionarios gubernamentales y científicos por igual, que han citado preocupaciones sobre la privacidad, la pérdida de puestos de trabajo y el impacto potencial en las elecciones. Aleksander Mądry, director del MIT Center for Deployable Machine Learning, señaló en una entrevista con Forbes que puede haber un número limitado de leyes que se apliquen a la IA ahora, pero que falta legislación explícita sobre IA, lo que hace que audiencias como la celebrada recientemente sean importantes para futuras directrices.
Destacados
Eventos