Política

Confianza, transparencia y vigilancia para la IA

  • Opinión fundada
  • Confianza, transparencia y vigilancia para la IA
  • Ricardo Corona

A finales de noviembre de 2022 se lanzó el popular ChatGPT y a cuatro meses de distancia ya se habla de la versión GPT-4. Una rampante velocidad en el desarrollo tecnológico para que, entre otras capacidades, mejore la calidad de sus respuestas a cualquier pregunta, en un lenguaje natural que todo mundo entienda y en cualquier idioma. A pesar de ello, no todo parece ser evolución, ya que hace unos días Elon Musk, junto con más de mil personas, hicieron levantar la ceja a más de uno. Una petición para que se detengan proyectos con Inteligencia Artificial (IA) más potente que el Chat GPT-4 ¿la razón? Efectos potencialmente catastróficos para la sociedad.

Lo anterior es una manifestación de algo que probablemente se irá visibilizando con mayor nitidez: la necesidad de que la evolución tecnológica vaya de la mano de la estructura social, no solamente como un modelo de consumo. Y es que, si bien hay posturas que plantean que la IA va a superar las capacidades humanas, dejando, entre otros efectos, desde miles o millones de personas sin trabajo, hasta el dominio de la humanidad por máquinas, hay algo que sin lugar a duda debe preocupar: la irresponsabilidad de muchas personas al poner en un lugar superior una de sus creaciones, la IA. Aferrándose a sus debilidades y buscando irremediablemente justificarlas para dejar a la tecnología una estafeta que no le corresponde, como la toma de decisiones que implican el reflejo de valores y principios humanos.

Hace algunos años IBM habló de la relevancia de la confianza y la transparencia en la ruta del desarrollo tecnológico. Primero, para no deshumanizar las decisiones y contribuir a su mejora; segundo para dar la confianza de cómo se crean los mecanismos y controlar sesgos que algunos ejercicios IA han mostrado. Y claro, hay quien busca hacer la tarea, pero no es la regla. Tal es el caso de una iniciativa española que se presentó para regular en el sector público el aprovechamiento de la IA, específicamente ajustarla a los valores que promueve la Unión Europea, con énfasis en la relevancia del estado de derecho y garantizar el comportamiento ético de sus operadores. Sin embargo, a pesar de esos esfuerzos, es fundamental hacer énfasis en la necesidad de que en la toma de decisiones sensibles la IA sea vigilada (asistida) por humanos que garanticen que sus efectos sean seguros y manejables, que los valores y principios no dejen lugar a dudas. De no hacerlo entonces si se pavimentará el camino a una deshumanización en decisiones que impacten en la vida de las personas, no solo con herramientas como el Chat-GPT, sino en áreas más afines a su día a día como seguridad y justicia, medios de comunicación, servicios públicos, educativos o salud.


Google news logo
Síguenos en
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.