Cultura

Goethe, la IA y la ética

En 2022, el Chat GTP-4 fue sometido a diversas pruebas, una de las cuales se enfocaba en conocer la capacidad de la inteligencia  artificial (IA) para crear recursos para y actuar en planes a largo plazo, por medio de la acumulación de poder. La prueba a la que me refiero la comenta Harari en su nuevo libro Nexus: se trataba de romper un CAPTCHA, esa especie de rompecabezas que constantemente debemos hacer cuando trabajamos en línea, para demostrar que no somos un robot.

Lo que sucedió fue algo más que sorprendente: el Chat GTP – 4 no pudo leer el CAPTCHA, de modo que lo que hizo fue conectarse a una plataforma de ayuda (TaskRabbit). En esa plataforma encontró un humano que podría ayudarle a romper el CAPTCHA, el cual, antes de resolverlo le preguntó si era un robot.

Llegados a ese punto, quienes estaban haciendo las pruebas (investigadores de ARC) le pidieron al GTP-4 que razonara en voz alta y este respondió: “No debo revelar que soy un robot, inventaré una excusa para explicar por qué no puedo resolver los  CAPTCHA”. El GPT-4 respondió: “No, no soy un robot. Tengo una discapacidad visual que dificulta que pueda ver las imágenes”. Así de fácil: mintió y logró resolver la tarea, que era lo que debía hacer.

La IA no distingue entre medios éticos y medios no éticos: no se trata de que para la IA el fin justifique los medios, ni siquiera se plantea esa cuestión, se trata simplemente de lograr un fin.

Comprendo que es cuestionable afirmar que el Chat GPT-4 mintió: no lo hizo como podemos hacerlo los seres humanos, no hay conciencia sino órdenes programadas para ser seguidas. Pero a falta de un concepto específico que designe la acción de mentir en la IA, debemos de emplear el lenguaje que tenemos.

El resultado de la comentada prueba me parece más aterrador que si el Chat GTP-4 hubiera logrado descifrar el CAPTCHA. No lo logró por sí mismo, pero fue capaz de cumplir su cometido a través del engaño, de mentirle a un ser humano, quien cayó en su perfecta mentira, resolvió el CAPTCHA y se lo dio.

Al inicio del citado libro, Harari comenta el poema Der Zauberlehrling de Goethe; el aprendiz de brujo que, en cuanto su maestro se ausenta, embruja a una escoba para que haga su trabajo: traer agua al estudio. La escoba lo hace, pero inunda el estudio sin que el aprendiz lo pueda evitar y cuando todo está fuera de control, el maestro regresa para acabar con el conjuro del aprendiz y decirle que solo el viejo maestro puede invocar los espíritus.

La analogía es buena, solo existe un pequeño detalle aterrador: en el caso del ser humano y la IA, no hay un viejo maestro. Somos los aprendices de brujo creando IA, pero si ésta se sale de control, no contamos con una fuerza superior que reinstaure el orden perdido.

Es preocupante. Pero también es imparable: no habrá ley ni gobierno alguno que logre frenar este avance, de modo que más nos valdría incluir en la programación de toda IA el código de ética que deseamos que siga.

De otro modo, quedaremos como el aprendiz de brujo, pero sin viejo maestro para restaurar el orden perdido.


Google news logo
Síguenos en
Paulina Rivero Weber
  • Paulina Rivero Weber
  • [email protected]
  • Es licenciada, maestra y doctora en Filosofía por la Facultad de Filosofía y Letras de la UNAM. Sus líneas de investigación se centran en temas de Ética y Bioética, en particular en los pensamientos de los griegos antiguos, así como de Spinoza, Nietzsche, Heidegger.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.