"Ni 30 millones de ejemplos" de conducción humana son suficientes para enseñar al coche autónomo a gestionar imprevistos

diciembre 23, 2018

En los últimos años, el entrenamiento de redes neuronales profundas a partir de grandes cantidades de datos etiquetados ha mejorado el nivel de desarrollo de muchas áreas vinculadas a la IA, como el de la percepción y predicción de objetos.

Pero, ¿eso basta cuando buscamos desarrollar un sistema de conducción autónoma lo bastante robusto como para conducir coches reales en escenarios de conducción complejos? ¿Miles de ejemplos de conducción humana pueden ayudarnos a enseñar a una IA a ser buena conductora?

Un equipo de investigadores de Waymo (la compañía filial de Google que desarrolla sus coches autónomos) se ha hecho esta misma pregunta y su respuesta ha sido contundente: los coches autónomos no aprenderán a conducir bien si se limitan a copiar el comportamiento humano.

Y no, ni siquiera «30 millones de ejemplos serían suficientes». Cuando estos investigadores entrenaron una IA a partir de datos recopilados durante 60 días de conducción real y continua, descubrieron que no resultaba posible enfrentar escenarios más complejos que aquellos contemplados en los datos de ejemplo.

Obviamente, las personas cometemos algunos errores que la IA no cometería (como, qué sé yo, ‘picarnos’ por un adelantamiento), pero en general somos muy buenos conductores. O, como mínimo, no es habitual que protagonicemos incidentes como choques con otros vehículos o salidas de carril.

Por lo que, en todos esos millones de datos, apenas hay ejemplos suficientes de una amplia gama de escenarios como para que las máquinas aprendan de tales errores.

Esto provocaba que el modelo con el que trabajaban los investigadores a menudo adoptara decisiones sin sentido como quedarse parado detrás de coches estacionados en el lateral de la carretera (o, peor aún, chocar contra ellos):

«El modelo aprende a responder adecuadamente a los controles de tráfico, como las señales de alto y los semáforos. Sin embargo, las desviaciones como la introducción de perturbaciones en la trayectoria o el situarle en situaciones cercanas a la colisión hacen que se comporte erráticamente, porque incluso habiendo sido entrenado con grandes cantidades de datos, es posible que nunca haya visto estas situaciones exactas durante dicho entrenamiento».

ChauffeurNet, la RNN desarrollada por Waymo

De modo que los investigadores decidieron ir más allá del mero aprendizaje por imitación, y apostaron por «simular lo malo en lugar de limitarse a imitar lo bueno», añadiendo toda clase de obstáculos a los datos con que se alimentaba a la IA.

Usaron para ello una red neuronal recurrente diseñada por Waymo y bautizada como ChauffeurNet, compuesta a su vez por dos componentes principales:

  • FeatureNet: una red neuronal convolucional que procesa los datos de entrada y extrae de ella información relevante como la hoja de ruta, los límites de velocidad, la presencia de semáforos, el límite de velocidad, la ruta del modelo, la posición actual y pasada de otros autos.

  • AgentRNN: A partir de los datos de FeatureNet, AgentRNN es capaz de ofrecer una predicción de las posiciones futuras del resto de vehículos. Estos datos son usados por ChauffeurNet para reaccionar en consecuencia.

via GIPHY

Las ‘perturbaciones’ agregadas manualmente por los investigadores actúan como «pérdidas por imitación», forzando al modelo a verse inmerso en situaciones muy diferentes a los ejemplos que se le entrena.

ChauffeurNet aprende a salvar situaciones potencialmente peligrosas minimizando estas pérdidas por imitación, pues empieza a evitar colisiones y a no salirse de las marcas de los carriles. En este enlace puede verse el resultado de las simulaciones realizadas por Waymo.

Pese a esa mejora, los investigadores explican en un ‘paper’ publicado recientemente que esta metodología no basta para construir un vehículo que sea lo suficientemente inteligente:

«Los sistemas de conducción totalmente autónomos deben ser capaces de manejar la larga lista de situaciones que se dan en el mundo real. Aunque el aprendizaje profundo ha tenido un éxito considerable en muchos casos, la gestión de ciertas situaciones cuando se parte de pocos ejemplos de entrenamiento sigue siendo un problema abierto».

Imagen | zombieite (Flickr)

También te recomendamos


Una IA logra contar una a una todas las placas solares de EEUU partiendo únicamente de fotos de satélite


El bueno, el feo y el malo en las comisiones bancarias: ¿es posible evitarlas?


Diagnosticar la depresión con la inteligencia artificial del smartphone y el uso que hacemos de él, la propuesta desde Stanford


La noticia

«Ni 30 millones de ejemplos» de conducción humana son suficientes para enseñar al coche autónomo a gestionar imprevistos

fue publicada originalmente en

Xataka

por
Marcos Merino

.


Xataka
Enlace: «Ni 30 millones de ejemplos» de conducción humana son suficientes para enseñar al coche autónomo a gestionar imprevistos

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies