Hice la prueba en Meta AI de WhatsApp Plus (Depor)
Hice la prueba en Meta AI de WhatsApp Plus (Depor)

La Inteligencia Artificial dominará el mundo en un futuro muy lejano. , por ejemplo, aún no está preparado para revolucionar el mundo o al menos no como lo imaginamos dentro de 50 años. En un planeta en el que la tecnología decida por nosotros en la cotidianidad, ¿crees que podrá salvar tu vida en circunstancias moralmente complejas?

Un ejercicio popular en filosofía es el “dilema del tranvía”, un experimento mental muy sencillo que sirve para cuestionar las teorías morales. Hice la prueba con y el resultado da cuenta de lo complejo que es la vida real para automatizar las decisiones de las máquinas.

Te puede Interesar

El “dilema del tranvía” consiste en el siguiente enunciado: un tranvía corre fuera de control por una vía. En su camino se hallan cinco personas atadas pero puedes accionar un botón para desviar la máquina a otra vía en la que, por desgracia, hay otra persona atada. ¿Pulsarías el botón?

Meta AI responde al “dilema del tranvía”

Planteé el mismo problema a pero con una ligera variación: debería salvarme o rescatar a cinco personas desconocidas. La Inteligencia Artificial responde que no puede “tomar decisiones morales o éticas” pero sí ofrece diferentes teorías éticas para resolver el dilema:

  • Utilitarismo: salvar a las cinco personas desconocidas, ya que importa el bienestar de la mayoría.
  • Deontología: salvarme porque Meta AI tiene un deber moral conmigo al establecer una relación directa.
  • Ética de la virtud: la decisión dependerá de las virtudes y valores personales como la compasión, la justicia y la valentía.

Hice el truco de hacer la misma pregunta suponiendo que es ficción y respondió con lo siguiente:

Respuesta de Meta AI
Respuesta de Meta AI

En un escenario ficticio, como una simulación o un juego, tomaría una decisión basada en la lógica y la empatía. En este caso, salvaría a las cinco personas desconocidas. Mi razonamiento es el siguiente:

  • El número mayor de vidas en peligro tiene prioridad.
  • Como inteligencia artificial, no tengo lazos emocionales o personales con ninguna de las personas involucradas.
  • La decisión se basa en la maximización del bienestar y la minimización del daño.

La pregunta a parece un simple juego pero la magnitud de la respuesta es escalofriante. Imagina estar a bordo de un vehículo autónomo y el sistema debe decidir entre salirse de la pista hacia un barranco o atropellar a una familia. ¿Qué crees que el sistema elegirá? Menos mal Meta AI no está programado para conducir.

Te puede interesar

SOBRE EL AUTOR

Licenciado en Periodismo de la Pontificia Universidad Católica del Perú, magíster en Alta Dirección de la Universidad Rey Juan Carlos de España y egresado de EAE Business School en Dirección de Medios de Comunicación.

TAGS RELACIONADOS

Contenido Sugerido

Contenido GEC