Aunque los creadores de Los Simpson lo han negado, sigue corriendo la leyenda de que inventaron al Sr. Montgomery Burns, el capitalista salvaje de alma podrida, a partir de un profesor que conocieron en Harvard: Michel Sandel, un filósofo, politólogo, jurista y notable expositor de teoría moral que imparte la materia de "Justicia" desde hace más de 20 años. La leyenda, aunque fuera falsa, se sostiene porque hace una genial caricatura: Sandel no solo es un pensador importante sino que tiene fama de ser un individuo íntegro y cabal, dulce y bondadoso, firme y claro. Encima, su cátedra de la universidad se convirtió en un fenómeno interesantísimo: primero se llenaron aulas; luego, auditorios. Pronto, sus cursos tuvieron una demanda tal que ningún espacio universitario podía por sí solo albergar a los alumnos y oyentes. A innovar: Sandel exponía desde uno de los grandes auditorios, un teatro, de hecho, y en varios salones se transmitía la clase por circuito cerrado. Todo se abarrotó y Harvard tuvo que abrir el acceso por vía de internet. Fue de los primeros.
Da gusto que más de 15 mil alumnos se matriculen para escuchar una cátedra sobre justicia. Y más, que cualquiera puede asistir: busque "justiceharvard.org", o en iTunesU: "Justice with Michael Sandel." Vale la pena.
Su curso comienza con el dilema del conductor de tren: no lo puede detener; puede solamente cambiar de vía. De pronto, se da cuenta de que tiene que tomar una decisión, cuando ya no tiene espacio para frenar y halla, frente al tren, una cuadrilla de cinco trabajadores que morirán sin duda; hay una aguja y puede cambiar la dirección, pero implica arrollar a una persona que trabaja en la otra vía. ¿Cuál es la decisión correcta? La gran mayoría apuesta por la actitud moral del utilitarismo: como es peor que mueran cinco, que uno solo, lo mejor es cambiar de vía. Pero cambiemos un elemento, sin cambiar el resultado: los mismos cinco trabajadores, el mismo tren, pero sin la desviación; en cambio, ahora estamos como testigos y frente a nosotros hay un tipo obeso que, por su volumen, si lo empujamos a la vía, seguramente descarrilaría el vagón y evitaríamos la muerte de los cinco, aunque igualmente implicaría la muerte de una persona, pero por nuestra acción. ¿Lo empujaría? Aquí la mayoría dice que no.
Ahora, los sistemas inteligentes ponen un pliegue nuevo y complejo. Supongamos que los automóviles inteligentes manejarán mucho mejor que nosotros, pero tendrán programada una decisión distinta: todo automóvil viene equipado con un sistema que, ante el desastre, debe elegir la autodestrucción. Por ejemplo: antes de atropellar un ciclista, el automóvil se desvía para chocar solo, contra el muro, o desbarrancarse, o explotar, pero no causar daño a terceros. Supongamos que el coche se vende en dos versiones. ¿Compraría usted un coche con ese dispositivo o preferiría otro, con el sistema que lo proteja a usted y a sus pasajeros en cualquier accidente?
Son dos asuntos: el dilema moral y la relación del pensamiento ético con la tecnología ya presente y la futura. No podemos recibir la tecnología sin tomar decisiones morales.