Imagina que dejas a tu hijo en el colegio y ves un coche vacío avanzando hacia los estudiantes en dirección contraria.
Lo que debía ser una mañana tranquila frente a la primaria Cambridge en Texas se convirtió en una escena de pánico cuando un coche autónomo ignoró las reglas temporales de la zona escolar.
Hablamos de un coche que no responde órdenes de nadie, pero entonces ¿qué sucedió y a qué nos enfrentaremos en el futuro?
Cuál es el problema de los coches autónomos
Los coches autónomos han avanzado a una velocidad impresionante. Empresas como Waymo (de Google) y Tesla lideran esta carrera, pero no son las únicas. En China, gigantes como Baidu ya operan flotas masivas de «robotaxis».
Hoy en día, casi todos estos coches se mueven por Estados Unidos. En ciudades como Phoenix, por ejemplo, los verás por todos lados porque el sol y el buen tiempo ayudan a que sus sensores no se vuelvan locos.
Lo más curioso es que, antes de que una sola rueda toque el asfalto, estos sistemas ya han «recorrido» miles de millones de kilómetros en simuladores virtuales. Es como si el coche hubiera vivido mil vidas en un videojuego para aprender a reaccionar antes de salir a la calle real.
La idea de todo esto es quitar de la ecuación los errores que cometemos nosotros, como distraernos con el móvil o quedarnos dormidos al volante.
El problema es que estos coches son buenísimos siguiendo reglas fijas, pero la vida real es un caos y, a veces, una máquina no sabe cómo interpretar lo que pasa en una calle llena de gente.
Lo que nadie cuenta sobre los coches sin conductor
A pesar del optimismo, el historial de los vehículos autónomos no es perfecto. No es la primera vez que estos vehículos causan problemas: se han registrado desde bloqueos repentinos en medio de intersecciones hasta dificultades críticas para entender a los servicios de emergencia.
Hace poco, en Austin, un coche quedó paralizado en una escena de un tiroteo, estorbando a las ambulancias y obligando a un policía a meterse en el vehículo para moverlo a mano.
Estos errores plantean un debate serio sobre la seguridad y la ética. ¿Qué pasa cuando un coche no sabe leer una señal improvisada o un cambio de sentido temporal?
Las estadísticas muestran que, aunque chocan menos que los humanos, sus fallos suelen ser mucho más extraños e impredecibles.
Precisamente, un incidente ocurrido hace unos días en una zona escolar de Texas ha vuelto a encender todas las alarmas.
Un Waymo en contra del tráfico y hacia los estudiantes
Todo sucedió por la mañana, cuando los padres llevaban a sus hijos a la escuela primaria Cambridge en Alamo Heights.
En esa zona, al igual que en muchas otras, las reglas de tráfico cambian durante la entrada de los alumnos: las calles se vuelven de un solo sentido para que todo sea más seguro.
Los vecinos saben que esto es una norma. Sin embargo, varios testigos grabaron cómo un coche de Waymo ignoraba esta regla y avanzaba en dirección contraria por la avenida Townsend, metiéndose de frente contra los vehículos de los padres.
Un guardia de tráfico intentó detenerlo para proteger a los niños que cruzaban, pero el coche no obedeció las señales manuales y siguió su camino a contramano. Aunque no hubo heridos, la sensación de peligro fue real.
Los padres describieron la escena como algo aterrador. El auto parecía no entender que las reglas habían cambiado por ser horario escolar.
Lo ocurrido en esta escuela de Texas es un recordatorio de que, aunque un coche sea capaz de conducir solo por una autopista, todavía le falta «instinto» para moverse en la vida real.
Al final, el progreso no debería medirse solo por cuántos kilómetros recorre un vehículo autónomo, sino por su capacidad de entender que, a veces, las reglas más importantes están en el sentido común de las personas. Incluso en un contexto en el que muchas de ellas podrían perder su trabajo con la llegada de estos coches.
