Tecnología

Estudio revela fallos de Grok, IA de Elon Musk, en respuestas a guerra Irán-Israel

Según expertos, no es la primera vez que el chatbot proporciona información inexacta.

Un nuevo estudio determinó que el chatbot de inteligencia artificial 'Grok', de la empresa xAI, de Elon Musk, dio respuestas inexactas y contradictorias cuando se intentó verificar a través de él la información sobre la guerra de 12 días entre Israel e Irán.

Cada vez son más los internautas que recurren a herramientas de inteligencia artificial, como Grok, la cual se encuentra dentro de la red social X, antes Twitter; sin embargo, las respuestas que obtienen en ocasión suelen desinformarlos.

Internautas han tenido que recurrir a esta práctica tras la desaparición gradual de la verificación por parte de periodistas en plataformas como Facebook.

Según un estudio publicado este martes por un laboratorio de investigación digital del Atlantic Council, un grupo de reflexión estadounidense, las respuestas de Grok "durante los primeros días del conflicto entre Israel e Irán revelaron fallos significativos y demostraron las limitaciones del chatbot para proporcionar información precisa, fiable y coherente en tiempos de crisis".

Analizó 130.000 mensajes en varios idiomas en la plataforma X, que integra el chatbot Grok, y determinó que éste "tenía dificultades para autentificar el contenido generado por la IA".

¿No es confiable? Estudio evidencia fallos de Grok

Por ejemplo, tras los ataques de represalia de Irán contra Israel, Grok ofreció respuestas muy diferentes sobre imágenes generadas por IA de un aeropuerto destruido, que habían acumulado millones de visualizaciones en X: oscilaba, a veces en el mismo minuto, entre negar la destrucción del aeropuerto y confirmar que había sido alcanzado por los ataques.

Grok: por qué el chatbot de Elon Musk está causando revuelo en México.
Grok: por qué el chatbot de Elon Musk está causando revuelo en México.

En algunas respuestas, Grok afirmó que los daños se debían a un misil disparado desde Yemen, en otras identificó falsamente el aeropuerto como el de Beirut, Gaza o Teherán.

Según los expertos, Grok ya se ha equivocado en la verificación de hechos sobre el reciente conflicto entre India y Pakistán y durante las manifestaciones en Los Ángeles contra las redadas migratorias ordenadas por el presidente estadounidense Donald Trump.

El mes pasado, el servicio de IA del empresario de origen sudafricano también causó polémica al referirse erróneamente a un "genocidio blanco" en Sudáfrica, error que xAI achacó posteriormente a una "modificación no autorizada".

jk

Google news logo
Síguenos en
Agencia EFE
  • Agencia EFE
  • Agencia de noticias con 84 años de trayectoria
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.