Dilemas Morales Siglo XXII

Las nuevas tecnologías nos van a plantear dilemas éticos y morales nuevos. Los invito a reflexionar en Tabloide para que juntos podamos tener una visión más acabada del asunto.

Primera pregunta:

En un día de lluvia, un niño cruza la calle por un cruce peatonal, una cuadra antes, un perro cruza la calle a mitad de cuadra y un auto autónomo, lo esquiva, pero se enfrenta al dilema de a)Atropellar al niño y salvar a sus pasajeros; b) esquivar al niño, perder el control, estrellarse con un poste y matar a sus pasajeros.

¿Que decisión debe programarse para elegirse en estos casos críticos?

2 me gusta

Matar al perro

3 me gusta

El coche predice el futuro? Si ya sabe que se va a estrellar por esquivar al niño y que van a morir todos…

1 me gusta

No, ahora en serio. Como todos los animales de compañía tendrían un chip, el coche podría escanear al animal y ver si tiene chip, si lo tiene pararse en seco sin esquivar ni nada, ya se verá si el animal sobrevive o no; y si no lo tiene y es un perro callejero, que me imagino que en el siglo XXII los habrá ?¿… pues lo mismo.
Creo que la programación de un coche de este tipo debería ser pararse en seco y que tarde en frenar lo que sea, no creo que se deba programar para esquivar nada ya que el resultado probablemente sería peor.

3 me gusta

No creo que nadie compre un coche que deje a sus pasajeros morir por salvar otras vidas.

4 me gusta

Eso van a ser dilemas morales del siglo XXI, para el XXII habrá otros.

PD: La respuesta es frenar. El coche va a ver el niño aproximándose a la acera antes de lo que un humano lo vería, y automáticamente empezar a decelerar. Y a frenar desde el momento que este estuviera a punto de invadir la calzada. Resultado: Todos vivos.

3 me gusta

Varias compañías automovilísticas han anunciado ya que su prioridad será salvar a los pasajeros del vehiculo. Supongo que por aquello de que si algo está fuera de su sitio no es culpa de los que van dentro del coche.

Además de esto los vehiculos se detectan entre sí e intercambian información en tiempo real sobre velocidad, ubicación y esas cosas. Así que lo normal sería que el coche pudiera frenar y los demás coches frenarán detrás.

3 me gusta

No hay dilema alguno. Los vehículos autónomos respetan las normas de tráfico, por lo que circularán por la calle a 30km/h, velocidad suficiente para que se activen y sean efectivos los sistemas de frenado automático por detección de peatones (que ya existen para coches no autónomos).

4 me gusta

La respuesta es clara, el vehículo tiene que priorizar la vida de sus ocupantes por una sencilla razón, nadie compraría un coche que en determinadas circunstancias decidiera matarlo. Y en caso de obligarse por ley, estoy seguro que seria fácil poner un “Custom Firmware” que lo solucionase (básicamente las propias compañías lo harían accesible por lo que he comentado antes).
Toda ética y moral queda en un segundo plano cuando se trata de la propia vida y la de tus seres queridos (y del dinero en caso de las marcas de coches).

1 me gusta

Pero si el perro ya no es protagonista del dilema.
Yo creo que esquivar al niño, porque que esto acarree la muerte de todos los pasajeros del turismo es casi impredecible.En caso de saber a ciencia cierta el resultado final, atropellar al niño es el mal menor.

Analizará en caso de salva más vidas y se escogerá esa opción. No obstante, al ser un vehículo autónomo, y hablando hipotéticamente de un futuro no muy lejano, habrá balizas por el asfalto y sabrá en todo momento cómo está el tráfico y dado que irá a una velocidad adecuada, no ocurrirá nada.

La idea de la pregunta es poner “al programador” en un dilema: “producto de un tercero, alguien inocente morirá, debes elegir quién”.

Pero es que nadie va a morir porque en este caso el programador se ha adelantado a ese posible dilema haciendo que la máquina no mate.

Seguramente si todos los cohes fuesen autonomos, se pararian todos los coches de esa calle.

Ya que hace nada estaba viendo un docuemental de como se hacen los coches sin piloto y suben informacion a internet que todos los coches de la zona pueden obtener en tiempo real. Si hay un accidente todos lo saben, si algo salta a la carretera todos los coches lo saben.

Lo he leido despues, pero lo mismo que ha dicho @Gre

En el siglo XXII no existirán hombres blancos, lo cual quiere decir que el mundo se convertirá en una utopía donde el resto de razas nunca jamás serán explotadas y abusadas.

PD: También volveremos a vivir en chabolas de barro, pero no se puede tener todo.

1 me gusta

Lo importante no es lo preciso de la escena, más bien, que criterios debe tomar una máquina cuando no le queda otra alternativa más que tomar una vida humana, o varias.
No estoy hablando de un Skynet que decide matar por un bien mayor. Estoy hablando que producto de una serie de incidentes imprevistos: lluvia (baja visibilidad, peor tiempo de freno, etc), perro (imprevisto, pérdida de control del vehículo), se debe sacrificar una vida para que sobreviva la otra.
Quizás estas situaciones no se programen, y sean las máquinas a través de Inteligencia Artificial, quienes decidan “libremente”.
El futuro tampoco será perfecto. Si creen que los autos autónomos nunca van a chocar, sólo piensen la última vez que su teléfono se congeló o reinició solo…

Las máquinas no pueden pensar, y no pueden decidir cual es la mejor solución.
Para que la inteligencia artificial aprenda, necesita 3 partes:

  1. Datos de entrada (lluvia, niño en carretera, perro, camino despejado…)
  2. Algoritmo de IA (neuronal, genético…)
  3. Resultado

A grandes rasgos, ejecutando múltiples veces el algoritmo con diferentes datos de entrada, va “aprendiendo” conforme mas se acerque al resultado esperado.
Por eso, de todas las partes, en la que mas influye el programador en el aprendizaje es al momento de definir el resultado, que es de lo que se esta tratando.

En realidad, el programador simplemente hará lo que la gente decida: http://moralmachine.mit.edu/hl/es

No me gusta ese dilema como ejemplo ya que tiene que ver mucho el tiempo de reacción de cada persona, uno daría un volantazo antes de frenar, otro hundiría el freno cuanto antes…
Pero si pudiese elegir escojo la A. Prefiero matar a un desconocido antes que a mis amigos/familia, y el niño ya podría mirar antes de cruzar si se supone que voy muy rápido.

Atropellar al perro al niño entrar en la cuadra esa y cargarse a los caballos tambien