En todas las redes sociales y en todos los medios de comunicación masiva, estamos viendo cotidianamente debates y controversia respecto de la Inteligencia Artificial.
La organización sin fines de lucro, Future of Life Institute (Instituto del Futuro de la Vida), publicó una carta abierta firmada por 1000 personas, entre investigadores, académicos, empresarios, usuarios de Inteligencia Artificial, personajes públicos, etc., donde solicitan una moratoria de 6 meses, en el desarrollo de nuevas herramientas de IA.
De igual manera se publican diariamente, notas sensacionalistas respecto del peligro que representa para la humanidad el crecimiento exponencial de esta tecnología.
En todo este entorno, seguimos olvidando algo que es primordial: los seres humanos pensamos linealmente, mientras que las máquinas lo hacen exponencialmente.
Y es en este contexto de exponencialidad precisamente, en donde tendríamos que enfocarnos y tomar las decisiones correspondientes.
Reflexionemos un poco: apenas el pasado mes de noviembre de 2022, se lanzó al público a nivel global, el bot Chat GPT3.5, y en tan solo cuatro meses, se lanza la versión GPT4, que de acuerdo con sus desarrolladores Open AI, esta iteración es 10 veces más poderosa que la anterior.
Para solo poner un pequeño ejemplo del crecimiento exponencial de esta herramienta, el tamaño de procesamiento del modelo Chat GPT3 era de 175 mil millones de parámetros; Chat GPT4 es capaz de procesar 1,6 billones de parámetros.
Con dimensiones como las anteriores, que se alcanzaron en tan solo 4 meses, se antoja muy ingenuo pensar que con una moratoria de seis meses a fin de “regular” adecuadamente el crecimiento de esta tecnología, se pueda obtener algún resultado.
Es mucho más sensato aprovechar esas capacidades exponenciales de velocidad y dimensiones de parámetros, para diseñar una herramienta que sirva para poner límites a un crecimiento desarticulado y anárquico.
Es posible “enseñar” a esas herramientas a respetar las fronteras entre lo que se puede y lo que se debe hacer.
Finalmente, no se nos debe olvidar que esas máquinas, o programas de código, son elaborados por seres humanos.
Usar las herramientas de IA para regular el crecimiento desordenado de esa propia herramienta es lo único lógico que podemos implementar.
En el tiempo que usemos para debatir el uso ético de la IA, las herramientas en curso van a crecer 1000 veces más y esto es inexorable.