El coche autónomo va a revolucionar nuestro mundo. El día que miles de millones de personas puedan dejar de preocuparse por prestar atención a la carretera al desplazarse, no sólo se reducirá drásticamente el número de accidentes, será como añadir años de vida a nuestra generación, al permitirnos abandonar tantas y tantas horas al volante.
Qué maravilloso será cuando podamos ir en el coche, viendo una película, hablando con los acompañantes o apurando algún asunto del trabajo. Dejaremos que la inteligencia artificial del coche se responsabilice de nuestra conducción. Ella decidirá y será capitana de nuestro viaje.
Pero…. ¿Qué pasará cuando algo vaya mal?
El dilema del tranvía
En la carretera nos podemos encontrar con diferentes situaciones morales a las que tenemos que enfrentarnos. La más conocida se llama el dilema del tranvía.
Un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas atadas a la vía por un filósofo malvado. Afortunadamente, es posible accionar un botón que encaminará al tranvía por una vía diferente, por desgracia, hay otra persona atada a ésta. ¿Debería pulsarse el botón?
Un ejemplo de este dilema lo podemos ver en el siguiente vídeo, en el que un niño de 2 años nos muestra su solución al problema:
El dilema del tranvía es un experimento mental ético. Su analogía se puede llevar a nosotros conduciendo nuestro coche particular. En caso de estar en una situación insalvable, en la que ciertas personas van a morir si no hacemos nada, y menos personas si hacemos algo, ¿debemos actuar para que muera el menor número de personas? ¿Seremos culpables de haberlas matado?
¿Qué decisión tomará la IA?
En el caso del coche autónomo, esta decisión la tiene que tomar la máquina, no nosotros. Además, el escenario se puede complicar mucho, al haber infinidad de situaciones diferentes.
En un cruce, un vehículo con 5 personas se salta un semáforo en rojo y se interpone en nuestra vía, el vehículo autónomo no puede frenar a tiempo y debe escoger si seguir recto y matar a las 5 personas o desviarse y colisionar contra un muro, matando solo al propietario del vehículo automático.
¿Qué debería hacer el coche? ¿Qué decisión debería tomar? ¿Qué vida vale más? ¿Qué es más justo? ¿Debemos programarle previamente ante estos escenarios?
Y otra pregunta interesante…
¿Pagará alguien por un coche autónomo que puede matarle cuando éste lo considere justo?
Tenemos que tener en cuenta que ya la gente tiene miedo de los coches autónomos, porque puedan tomar decisiones peligrosas para ellos.
Intentando programar la moral
El problema principal es que estamos pensando en programar la moral, cuando ésta no es una ciencia, no son unas reglas concretas y claras. Si nosotros mismos no conocemos las respuestas correctas, ¿para qué molestarnos en programarlas?
Pero claro, la responsabilidad civil en caso de estos accidentes de coches autónomos, los seguros, la confianza de los propietarios en el vehículo, las posibles demandas a fabricantes de coches… complican todo.
Cuando el accidente se debe a la acción humana directa, el dilema del tranvía es en cierto modo más simple. Pero ahora, al haber una programación detrás, todo cambia.
Si condujéramos el automóvil en modo manual, de cualquier forma que quisiéramos reaccionar [en caso de un choque inminente, con posible escapatoria hacia derecha o izquierda] se entendería sólo como eso, una reacción y no una decisión deliberada. Sería un movimiento de pánico instintivo sin premeditación o malicia.
Pero si un programador tuviera que asignar al vehículo hacer un movimiento, dadas las condiciones que pueden presentarse en el futuro, bueno, eso se parece más a homicidio premeditado, porque los accidentes pueden suceder y sucederán, y cuando sucedan, los resultados pueden determinarse con meses o años de antelación por programadores. – Patrick Lin, director del grupo Ethics + Emerging Sciences de la California Polytechnic State University,
Estás cuestiones filosóficas existen desde que apareció el concepto de robot. Desde Isaac Asimov, la humanidad le ha dado vueltas a la ética de la inteligencia artificial y a nuestra seguridad frente a ella.
Más allá del dilema del tranvía, un grupo de investigadores del MIT publicó un trabajo titulado Rationalizing Neural Predictions en el que se describen algunas ideas sobre cómo debería ser el comportamiento moral de las inteligencias artificiales en situaciones críticas, como por ejemplo ante cuestiones de vida o muerte.
¿Qué va a ocurrir? ¿Qué decisión van a tomar los fabricantes de coches y los desarrolladores de IA?
No está claro. Uno de los primeros en posicionarse ha sido Mercedes Benz, que explicó el año pasado que, como el dueño del producto es el conductor, a quien deben proteger en caso de dilema es siempre al dueño.
En Google, la posición es más bien evitar una posición. Según ellos, no importa:
Lo primero que hay que tener en cuenta es que todavía no nos hemos encontrado con ese problema. Nunca nos hemos encontrado en una situación en la que haya habido que elegir entre atropellar a un bebé o a una ancianita. E incluso si tuviéramos que enfrentarnos a esa situación probablemente significaría que alguien ha cometido un error unos segundos antes. Así que en el papel de «ingeniero moral» que entro a trabajar en la oficina mi objetivo es impedir que llegue a producirse esa situación. Eso significaría que la habríamos cagado antes.
Y aunque le quite intriga al asunto la respuesta es casi siempre pisar el freno a fondo. Normalmente tenemos más información sobre lo que sucede justo enfrente del vehículo –por cómo funcionan los sensores– y el control del coche también es mucho más preciso frenando que intentando esquivar algo.
Así que tendría que tratarse de una situación realmente extrema para que tuviéramos que llegar a plantear otra respuesta. – Andrew Chatham, Ingeniero de Google
En un alcance más amplio, se está planteando que, si la IA que creemos va a ser suficientemente avanzada, ésta podría y debería definir su propia moral. No tendría sentido programar la moral antes, ya que ésta es consecuencia de un razonamiento, y por ende una inteligencia artificial sería capaz de desarrollarla por sí sola. Esta teoría ha sido ampliamente explorada, por ejemplo en este paper o en este otro.
Es más, en el caso de que la inteligencia artificial supere la capacidad de razonamiento del ser humano en el futuro, cabría la posibilidad de que su moralidad fuese más correcta o avanzada que la nuestra.
La importancia de la ética en la tecnología
Lo único que importa detrás de todo esto es que tenemos que entender que la tecnología es parte de nosotros mismos. La IA es parte del desarrollo del hombre, y toda la moral y la ética relacionada será la que nosotros vayamos definiendo.
Por otro lado, entendiendo la tecnología como una herramienta, lo que hagamos con ella debería ser responsabilidad nuestra. Así, preocupados por los usos perversos que se puedan hacer de la inteligencia artificial, hace unos meses, 116 expertos en inteligencia artificial y robótica, encabezados por Elon Musk, solicitaron a la ONU que impida el uso de armas autónomas. Los firmantes advierten de que la veloz evolución de la inteligencia artificial podría lograr que el desarrollo de armas autónomas llegue en unos pocos años, y no en décadas, como se estimaba con anterioridad.
Como ha ocurrido innumerables veces en el pasado, es responsabilidad de todos usar la tecnología con ética, buscando el bien para todos y jamás el daño a otras personas.
Estos días vemos preocupados las amenazas de Corea del Norte con armamento nuclear, incluyendo la infame bomba de hidrógeno. Más que nunca, debemos volver a recordar que en este planeta estamos todos, y que los usos malvados de la tecnología que puedan hacer unos pocos, siempre serán neutralizados si los demás la usamos con ética y responsabilidad como especie humana.
Fuentes: Weforum, El periódico, Omicrono, El país, Mashable, Microsiervos
Un comentario en “La moral del coche autónomo o qué ocurre cuándo la máquina tiene ética”