Los coches autónomos han sido programados según la teoría consecuencialista para 'salvar vidas'.

Quid agendum y coches autónomos

Mediante la ética tratamos de atender y dar respuesta, a aquella cuestión fundamental que nos persigue, como nuestra propia sombra, a lo largo y ancho de la vida: ¿Qué debo hacer? ¿Qué decisión tomar? ¿Qué criterios adoptar?

Tradicionalmente, las teorías éticas se han agrupado en dos grandes grupos:éticas teleológicas y “éticas no teleológicas”, en función de cómo nos enfrentamos las personas a estas cuestiones. Las primeras tienen una idea preconcebida de “bien”, lo que les permite  identificar lo correcto con la maximización de dicho bien (o valor), es decir, la elección del agente debe estar orientada hacia el fomento del bien. Atienden, por tanto, a las consecuencias de la acción.

Las segundas, por su parte, sostienen que más que fomentar un tipo de valor, lo correcto es respetar dicho valor mediante el respeto a la norma que lo reconoce como tal.

Consecuencialismo y coches autonómos

Al primero de los grupos pertenece la teoría ética denominada “consecuencialismo”, de la que el “utilitarismo” es quizá su expresión más popular. De acuerdo con el consecuencialismo, “hacer—lo—correctoimplica no sólo reconocer un valor sino fomentarlo mediante la acción.

Veamos un ejemplo. Un dilema moral establece como valor “salvar vidas”, planteando dos posibilidades para la acción: una ofrece la probabilidad del cincuenta por ciento de salvar cien vidas, otra la probabilidad de salvar un total de cuarenta vidas con una certeza del ciento por cien. Según esta teoría hacer lo correcto implica elegir aquella opción que maximiza el bien, esto es, elegir la primera de las opciones aun considerando que existe la misma probabilidad de que finalmente no se salve ninguna vida.

En los laboratorios de ética se ha comprobado que las personas tendemos a considerar esta opción de forma habitual como lo más “adecuado”. Al menos, siempre y cuando la decisión no nos afecte personalmente, o a nuestras familias y seres más cercanos, podríamos argumentar ahora que conocemos los problemas que están teniendo los coches autónomos.

En un reciente post del World Economic Forum, los coches autónomos figuraban en el número 5 dentro de las diez tecnologías emergentes de 2016. La idea recurrente, y que ocupa el titular de su presentación, es que este tipo de vehículos tienen potencial para “impulsar las economías”, “reducir la polución” o “salvar más vidas”. Atendamos a esta última cuestión, ¿A qué se refiere “salvar más vidas”? Ser más efectivos, maximizar ese “valor” ¿De acuerdo con qué criterios tomará el coche decisiones orientado hacia ese valor?

Siguiendo las recomendaciones de los laboratorios de ética que mencionábamos, los coches autónomos han sido programados siguiendo la teoría consecuencialista y, de acuerdo con el valor “salvar vidas”, minimizar el número de víctimas.

El problema que se plantea ahora es que esta minimización implica muchas veces sacrificar al propio conductor del vehículo y sus acompañantes, algo que ha detenido bruscamente la promoción y legalización de este tipo de vehículos, como publicó la revista Science en su número 352. Las máquinas pueden ser programadas para tomar decisiones “morales”, el problema deviene ahora en cómo establecer las reglas que deben considerar los programadores para orientar a la máquina hacia una decisión “correcta”.

Efectivamente la solución no es sencilla porque operamos en la complejidad, de hecho, muchos consideran que sólo “enseñando” a las máquinas a pensar como nosotros mismos, mediante técnicas de Inteligencia Artificial y algoritmos, podremos ayudar a las máquinas a saber tanto como nosotros mismos en lo que respecta a la toma de decisiones.

Quid agendum ignaciano

Algunos ya ven aquí, Stephen Hawking, entre otros, el surgimiento de un nuevo fenómeno complejo autónomo, máquinas “inteligentes” en tanto que serán capaces de tomar sus propias decisiones, que desplazarán, en razón de su efectividad, a los seres humanos.

El problema, en este caso como en muchos otros en los que los algoritmos ocupan la posición del “sujeto moral”, es que cuando nos dispongamos a identificar a un “sujeto responsable” de la acción ejecutada nos veremos ante una máquina. Y sin responsabilidad que atender, la pregunta fundamental de la ética habrá quedado reducida a un mero automatismo.

Los problemas éticos que emergen en este escenario se multiplican, incluso exponencialmente. Sin ánimo de resultar alarmista, considero urgente atender ahora aquel Quid agendum ignaciano apelando al compromiso con la justicia de las profesiones implicadas: ingeniería, programación, filosofía y ética aplicada, para confrontar o al menos identificar estos problemas que podrán ser generadores, a su vez, de injusticias sociales y ambientales.

Autor

Rosa Colmenarejo

Aprendo cada día, de mis estudiantes, de mis hij@s, de mis amig@s y compañer@s… Enseño en el área de Humanidades y Filosofía: Ética social y profesional, Epistemología, Philosophy & Persons…. Investigo en las implicaciones éticas de la Internet of Things en la promoción de Capacidades (Capability approach): Big Data, Machine learning… Leo novelas, cuentos, guiones, poesía… Curioseo y exploro ciudades, el time-line de Twitter, la sierra de Guadarrama… Juego al tenis ¿el orden de los factores altera el producto?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Calendario de Eventos

« Jul 2017 » loading...
Lun Mar Mie Jue Vie Sab Dom
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31