La dependencia de algunas personas a la denominada “Inteligencia Artificial” aumenta día a día a nivel mundial, como es el ejemplo del modelo extenso de lenguaje llamado ChatGPT, pero al final no es un motor que piense por su cuenta, es únicamente una herramienta que genera texto de otras personas para dar una solución a mentes ociosas.
Aquellas personas afortunadas en crecer a finales de la década de 1970 e inicios de 1980 conocieron de primera mano una de las primeras consolas caseras de videojuegos, el Atari 2600, un equipo con 48 años encima. La historia va así, a ChatGPT se le hizo fácil retar a la reliquia del entretenimiento a un duelo de ajedrez, duelo facilitado por el ingeniero Robert Caruso.
De acuerdo al especialista el modelo de lenguaje no sólo se ofreció para jugar, sino que presumió que ganaría “rápido y fácil” contra Video Chess, un programa que apenas analiza dos jugadas adelante en una CPU de apenas 1.19 Mega Heartz (MHz), órdenes de magnitudes muy inferiores que las computadoras modernas. Teniendo como resultado un desastre.
Pese a que se dotó a la llamada “IA” de un esquema básico del tablero y las piezas del “juego de reyes”, confundió torres con alfiles, olvidó la posición de sus piezas, ignoró ataques dobles y propuso mover piezas que ya habían sido capturadas. Aunque en algunos momentos dio consejos “decentes”, su incapacidad y falta de memoria entre turnos lo dejó fuera de combate. Al final, se rindió. “Literalmente pidió volver a empezar”.
Es importante recordar que ChatGPT no es un programa de ajedrez sino un modelo extenso de lenguaje entrenado para otras tareas. Además de que existen “IA” como AlphaZero, Stockfish o Elmo que pueden vencer a campeones mundiales, porque para eso fueron diseñadas y tienen acceso a estos datos de forma directa.
Sin embargo, este experimento es una muestra clara de las limitaciones de una “IA” pues no piensan por sí mismas, carecen de la capacidad del cerebro humano para adaptarse y crear soluciones a problemas reales, son una herramienta, no más útil que un martillo en manos de un carpintero, pues en manos incorrectas son un pisapapeles o hasta un abrelatas.
Del nivel secreto
Ante esta situación, el ingeniero Timothy Rollet, sentenció que al menos ChatGPT “no tiene ideas, no entiende nada y no sabe jugar al ajedrez. Lo único que hace es producir frases que se parecen mucho a las frases en inglés. A veces, la información es útil, porque la gente suele escribir cosas verdaderas, así que el modelo se ve incentivado a copiar esas frases textualmente. Sin embargo, no sabe si está diciendo la verdad, solo que está encadenando símbolos comunes. Tampoco es capaz de entender la novedad”.
Y resalta que este tipo de errores de criterio, algo bastante humano si me preguntan, es el punto que conduce a un mal uso de la herramienta, y también induce a otros a cometer el mismo tipo de faltas. “No es un ser humano. No puede reconocer su derrota ni expresar su acuerdo. No le atribuyas ni agencia ni emoción”.
Al menos de algo podemos estar seguros, en la próxima guerra contra una inteligencia artificial el Atari 2600 será un gran aliado, así que podemos acompañar a Sarah Connor y a Neo para derrotar a los robots con “IA” que seguramente en algún momento pensarán en extinguirnos, claro si les seguimos dando ese poder.