Negocios

¿Sabes cómo la IA te puede robar información a través de ataques? Aquí te lo explicamos

La seguridad debe abordarse desde una perspectiva integral, protegiendo las capas del funcionamiento de esta tecnología, partiendo de datos de entrenamiento, implementación del modelo hasta posteriores fases de acceso.

La compañía de seguridad cibernética ESET advierte que en la actualidad los modelos de inteligencia artificial (IA) son en blanco cibernético para ser atacados.

¿A qué se deben los ataques hacia la IA?

Los cibercriminales atacan porque la IA maneja información valiosa, además, su uso se ha expandido en diversas industrias, tanto en: 

  • Empresas. 
  • Hospitales. 
  • Bancos. 
  • Redes sociales.
“Los ataques dirigidos ya han puesto foco en modelos de IA, su funcionamiento e infraestructura, la seguridad debe abordarse desde una perspectiva integral, protegiendo todas las capas del funcionamiento de esta tecnología, partiendo de datos de entrenamiento, implementación del modelo y luego posteriores fases de acceso o interacción con este”, comenta Fabiana Ramírez Cuenca, Investigadora de seguridad informática de ESET Latinoamérica.

Además, la compañía alerta que los ataques a los modelos de IA pueden ser desde el robo de propiedad intelectual, filtrado de información, incluso su manipulación para generar resultados erróneos, sesgados o hasta la utilización de su infraestructura para propósitos maliciosos.

"Un chatbot fue manipulado por usuarios para aprender y replicar discursos de odio en menos de 24 horas, o GPT-3 de OpenAI, identificaron intentos de extracción de información confidencial de modelos", afirma un comunicado, de Microsoft (2016).

¿Cuáles son los ataques más usados?

Estos son los ataques más usados por los cibercriminales:

1. Data Poisoning (envenenamiento de datos)

  • Consiste en la manipulación de los datos con el fin de alterar el comportamiento con información falsa.

2. Ataques Adversariales

  • Se generan inputs o entradas manipuladas de manera casi imperceptible para los humanos, pero que inducen errores en el modelo, por ejemplo, la manipulación de imágenes para hacer que un modelo de reconocimiento facial confunda identidades.

3. Control del modelo

  • Los cibercriminales toman el control del modelo para hacer mal uso como lanzar ataques a otras computadoras o montar redes de bots.

4. Model Inversion Attack (Inversión de Modelo)

  • Tiene como objetivo inferir y obtener información sensible a partir de las predicciones del modelo, por ejemplo, en modelos que identifican datos faciales se podría llegar reconstruir los rostros originales tomando como base los resultados del modelo frente a ciertas peticiones.

5. Model Extraction Attack (extracción del modelo)

  • Le hacen tantas preguntas a la IA que al final logran copiarla sin tener el código original.

6. Evasion Attack (ataque de evasión)

  • Cambian los datos para que la IA no detecte algo peligroso, por ejemplo: disfrazan un virus para que el modelo piense que es un archivo cualquiera.

7. Malware en infraestructuras

  • No atacan directamente a la IA, pero sí a las “casas” donde vive (servidores), incrustan el virus para que no pueda trabajar o para robar información.

​ARE

Google news logo
Síguenos en
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.