Infoweek

Mar, 6 diciembre, 2022
Mar, 6 diciembre, 2022

Insignia Marketing

Los autos sin conductor chocan con un problema: los autos con conductor

  • Uno de los mayores retos a los que se enfrentan los autos automatizados es su incorporación a un mundo en el que los seres humanos no se comportan según las reglas.
  • Después de seis años de conducción en zonas de prueba y en las calles de California, los coches sin conductor de Google han cubierto 2,9 millones de kilómetros y acumulado 16 accidentes.

EE.UU. 29 septiembre, 2015. Google, que lleva la delantera en las iniciativas para crear autos sin conductor, ha chocado con un peculiar problema de seguridad: los seres humanos.

El mes pasado, cuando uno de los autos autónomos de Google se acercaba a un paso de peatones, hizo lo que se supone que tiene que hacer cuando frenó para permitir que el peatón cruzase, ordenando a su “conductor de seguridad” que pisase el freno. El peatón estaba en lo correcto, pero no tanto el auto de Google, que recibió un golpe por detrás de otro auto conducido por un humano, que no alcanzó a frenar.

La flota de autos de prueba autónomos de Google está programada para cumplir la ley al pie de la letra. Pero puede resultar difícil circular si se es muy estricto con las leyes de transito. Un auto de Google, en una prueba en 2009, no pudo pasar un cruce con cuatro signos pare porque sus sensores seguían esperando que otros conductores (humanos) se parasen completamente y lo dejasen pasar. Los conductores humanos seguían avanzando poco a poco, intentando pasar y paralizando al robot de Google.

Vehiculo Autonomo

No es solo un problema de Google. Los investigadores en el incipiente campo de los vehículos autónomos aseguran que uno de los mayores retos a los que se enfrentan los autos automatizados es su incorporación a un mundo en el que los seres humanos no se comportan según las reglas. “El verdadero problema es que el auto es demasiado seguro”, explica Donald Norman, el director del Laboratorio de Diseño de la Universidad de California, San Diego, que estudia los vehículos autónomos.

“Tienen que aprender a ser agresivos en su justa medida, y esa justa medida depende de la cultura”.

Es muy posible que los accidentes de transito y los fallecimientos pudieran caer en picada en un mundo sin conductores, como vaticinan algunos investigadores. Pero todavía faltan muchos años para que el uso de autos que se conducen solos sea generalizado, y los probadores siguen resolviendo hipotéticos riesgos – como los piratas informáticos – y los problemas del mundo real, como qué ocurre cuando un auto autónomo se avería en una carretera.

Estudios optimistas predicen que la producción en masa de autos sin conductor empezará en apenas 15 años, y que la adopción de la tecnología podría reducir los accidentes de transito hasta el 90% y ahorrar cientos de millones en costos sanitarios en Estados Unidos. El ahorro – tanto en vidas humanas como en el costo material – sería incluso mayor en países como India y China, donde la tasa de accidentes de transito mortales es de más del triple que la tasa de EE.UU.

Por ahora, está el problema más a corto plazo de mezclar a los robots con los humanos. Ya hay autos de varios fabricantes de automóviles que disponen de una tecnología capaz de avisar a un conductor o incluso quitarle el mando, bien mediante un control de crucero o mediante unos frenos que se activan solos. Uber está trabajando en la tecnología de autos que se conducen solos, y Google amplió sus pruebas en julio a Austin, Texas.

Los autos de Google realizan con frecuencia maniobras rápidas y evasivas y toman la opción más prudente, pero que no encaja con los otros vehículos en la carretera. “Me refiero a que siempre va a seguir las normas, casi hasta un punto en que los conductores humanos que se suben al auto se preguntan por qué hace eso el auto”, decía Tom Supple, un conductor de seguridad de Google durante una reciente prueba de conducción en las calles cercanas a la sede central de Google de Silicon Valley.

Desde 2009, los autos de Google se han visto involucrados en 16 accidentes, la mayoría de ellos solo choques sin importancia, y en cada caso, afirma la empresa, la culpa fue de un humano. Uno de ellos fue el golpe en la parte trasera del 20 de agosto, comunicado por Google. El auto de Google frenó por un peatón, y luego el empleado de Google activó manualmente los frenos. El auto recibió un golpe por detrás, lo que causó que el empleado fuese llevado a urgencias por un traumatismo cervical leve.

El informe de Google sobre el incidente da otro giro al tema: aunque el conductor de seguridad hizo lo correcto al activar los frenos, si se hubiese dejado solo al auto autónomo, podría haber frenado menos bruscamente y haberse acercado más al paso de peatones, dándole al auto de detrás un poco más de espacio para frenar. ¿Habría evitado la colisión? Google señala que es imposible saberlo.

Solo ha habido un caso en el que, según Google, la empresa fue responsable del accidente. Ocurrió en agosto de 2011, cuando uno de sus autos chocó contra otro vehículo en movimiento. Pero, sorprendentemente, el auto de Google lo conducía en esa época un empleado, por lo tanto fue culpa de un humano.

Según parece, los seres humanos y las máquinas son una mezcla imperfecta. Un ejemplo es la tecnología de salida de pista, que utiliza un pitido o una vibración del volante para avisar al conductor cuando el auto invade otra pista. Un estudio del sector asegurador de 2012 que sorprendió a los investigadores descubrió que los autos con estos sistemas registraban un índice de accidentes ligeramente más elevado que los autos sin ellos.

Bill Windsor, un experto en seguridad de Nationwide Insurance, señala que los conductores que se irritan con el pitido pueden apagar el sistema. Eso pone de manifiesto el conflicto entre la forma en que se comportan en realidad los humanos y la manera en que los autos interpretan erróneamente ese comportamiento; el auto emite un pitido cuando un conductor invade otra pista pero, en realidad, el conductor humano pretende cambiar de pista sin haber señalizado, por lo que el conductor, molesto por el pitido, apaga la tecnología.

No hace mucho, Windsor experimentó de primera mano uno de los problemas en los que la sofisticada tecnología de los autos choca con el comportamiento humano real. Se encontraba de viaje con su nuevo Volvo, que viene equipado con un “control de crucero adaptable”. La tecnología hace que el auto adapte automáticamente su velocidad cuando las condiciones del tráfico lo justifican.

Pero la tecnología, como el auto de Google, conduce según las normas, y deja lo que se considera una distancia de seguridad entre los autos. Eso también significa que hay suficiente espacio para que un auto en una pista contigua se meta, y, asegura Windsor, lo intentaban a menudo.

Dmitri Dolgov, el director de software del Proyecto de Auto Autónomo de Google, comenta que una cosa que ha aprendido del proyecto es que los conductores humanos tienen que ser “menos idiotas”.

En un reciente paseo con periodistas de The New York Times, el auto sin conductor de Google realizó dos maniobras evasivas que mostraron al mismo tiempo cómo el auto exagera con su prudencia, y lo desagradable que puede ser esa experiencia. En una maniobra, giró bruscamente en un barrio residencial para evitar a un auto que estaba tan mal estacionado que los sensores de Google no pudieron determinar si podía o no incorporarse al transito.

Pero más chocante para los pasajeros fue la maniobra que realizó el auto de Google cuando se aproximaba a un semáforo en rojo con transito moderado. El sistema de láser colocado en el techo del auto sin conductor detectó que un vehículo que venía en la otra dirección se estaba acercando al semáforo en rojo a una velocidad más alta que la recomendada. El auto de Google se apartó inmediatamente a la derecha para evitar un choque. Al final, el auto que se aproximaba hacía simplemente lo que los conductores humanos hacen a menudo: no se aproxima a un semáforo en rojo con la suficiente prudencia, aunque el conductor frenó a tiempo.

Courtney Hohne, una portavoz del proyecto de Google, asegura que las pruebas actuales están dirigidas a “limar diferencias” en la relación entre el software del auto y los humanos. Por ejemplo, en los cruces con signos pare, el programa permite que el auto avance poco a poco, como lo haríamos nosotros, esperando su turno mientras busca señales de que le permiten pasar.

La forma en que los humanos suelen afrontar estas situaciones es “estableciendo contacto visual. Acuerdan sobre la marcha quién tiene preferencia”, explica John Lee, un catedrático de ingeniería industrial y de sistemas y experto en seguridad de los conductores y automatización de la Universidad de Wisconsin. “¿Dónde están los ojos en un vehículo autónomo?”, añade.

Pero Norman, del centro de diseño en San Diego, después de años mostrándose cauteloso con los autos sin conductor, se alegra ahora de su rápida adopción porque dice que los otros conductores se distraen cada vez más con los móviles y con otra tecnología que incorporan los autos.

Como prueba de ello tenemos la experiencia de Sena Zorlu, cofundadora de una empresa de analítica de Sunnyvale, California, que vio recientemente uno de los autos autónomos de Google en un semáforo en rojo en Mountain View, y no pudo resistir la tentación de tomar su teléfono y sacarle una foto.

“Normalmente no juego con mi teléfono cuando estoy conduciendo. Pero estaba justo a mi lado y tenía que aprovechar la oportunidad”, dice Zorlu, que subió la foto en su Instagram.

Un camino lleno de baches por delante

Los retos de crear un sistema de navegación auto-dirigido que pueda actuar bien en todos los terrenos – no solo en terrenos simples como autopistas – son todavía numerosos. Para que un auto conduzca tan bien como un humano en todos los aspectos, necesitará un alto nivel de inteligencia artificial para interpretar ciertas señales visuales, como un policía haciendo señales al auto para que pare o continúe, que no son tan simples como detectar un objeto en un mapa radar.

Después están los problemas básicos que vienen con el software. Los PCs antiguos pueden experimentar frecuentes averías, y que se te caiga la llamada mientras hablas por el móvil es una experiencia universal en el siglo XXI. Los sistemas de software auto-dirigidos también podrían ser interceptados por hackers.

“Los retos de ingeniería para el desarrollo de sistemas de software que puedan operar de forma segura en el altamente impredecible ambiente del transito son formidables”, dijo Steven Shladover, ingeniero investigador en la Universidad de Berkeley.

En términos absolutos, dice Shladover, los accidentes de transito, especialmente los mortales, son un evento infrecuente: los daños relacionados con la conducción ocurren una vez cada 65.000 horas de conducción, y los daños mortales cada 3 millones de horas de conducción. Él anticipa que los autos completamente autónomos están al menos a décadas de producirse en masa.

“Compara estas grandes cifras de horas entre errores serios con la frecuencia de fallas en PCs o llamadas caídas en teléfonos móviles para tener una idea de cuánto trabajo más se necesita hacer”, dijo Shladover.

Por otro lado, Google presume de que los accidentes que ha tenido por vehículos autónomos han sido todos rasguños, sin daños materiales, y todos causados por el otro auto – conducido por personas, por supuesto. Pero una vez más, Google está probando sus vehículos en un ambiente ideal, evitando lugares con nieve, por ejemplo, que interferirían con los sensores del vehículo.

Insignia Marketing

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

MontBlanc - The Summit Range
Email encriptado basado en Suiza.
Kushki - experiencia de pago

Destacados

emBlue - Todos los canales en un solo lugar

Eventos

¡No hay eventos!
Banner FonoIP - telefonia para teletrabajo
Postgrados UC - Doctorado de Ingeniería y Tecnología UC
Norton 360
ConnectNow
BannerPropertyPartners300-buenas
Hosting Chile