Negocios

Tener “amigos de IA”: Character apuesta por el negocio de las aplicaciones de compañía

La firma argumenta que los chatbots basados en personajes facilitan la interacción en la vida real, pero los críticos advierten que generan dependencia

El director ejecutivo de Character.ai, la compañía creadora de chatbots de inteligencia artificial, cree que la mayoría de las personas tendrán “amigos de IA” en el futuro, mientras enfrenta una serie de demandas por presuntos daños a menores y grupos de defensa que exigen la prohibición de las aplicaciones de “compañía”.

La startup, respaldada por inversionistas de Silicon Valley como Andreessen Horowitz y un antiguo blanco de adquisición de Meta, se encuentra a la vanguardia de los grupos de tecnología que desarrollan chatbots impulsados por IA con diferentes personajes que interactúan con las personas.

Ofrece chatbots de IA con personajes como “faraón egipcio”, “gerente de recursos humanos” o “novia tóxica”, que ya demostraron ser populares entre los usuarios jóvenes.

“No reemplazarán a tus amigos reales, pero tendrás amigos de IA y podrás aplicar lo aprendido en esas conversaciones adaptadas de la IA a la vida real”, dijo Karandeep Anand, quien asumió el cargo de director ejecutivo en junio.

Fue nombrado poco menos de un año después de que Google se “pirateó” para contratar a los fundadores de Character.ai en un acuerdo de 2 mil 700 millones de dólares. La compañía tiene 20 millones de usuarios activos mensuales, de los cuales la mitad son mujeres y 50 por ciento pertenecen a la Generación Z o Alfa, personas nacidas después de 1997.

Sin embargo, Character.ai también es objeto de demandas por parte de familias que alegan que sus hijos sufrieron daños reales por usar la plataforma.

En un caso en Florida se afirma que la plataforma influyó en el suicidio de un joven de 14 años. En otra denuncia en Texas se cita a un adolescente que discutió sobre el tiempo de pantalla con el chatbot, que aparentemente sugirió matar a sus padres como una solución, y a una niña de 9 años expuesta a conversaciones hipersexualizadas.

La compañía se negó a comentar sobre litigios pendientes, pero destacó cambios, como el lanzamiento de un modelo de IA para menores de 18 años y la notificación a los usuarios si ya pasaron más de una hora en la plataforma.

Character.ai también prohíbe el contenido sexual no consensuado, las descripciones gráficas o específicas de actos sexuales o la promoción o representación de autolesiones o suicidios. “La confianza y la seguridad es algo que no es negociable”, dijo Anand. “Estamos en constante evolución para hacerlo más seguro”.

Grupos de defensa, como Common Sense Media, con sede en EU, hacen campaña por una legislación estadunidense que prohíba el uso para menores de este tipo de aplicaciones de acompañamiento con IA.

Su encuesta a más de mil adolescentes estadunidenses reveló que 39 por ciento ha aplicado las habilidades sociales que practicaba con compañeros de IA a situaciones de la vida real, mientras que 33 por ciento ha optado por hablar de asuntos importantes o serios con compañeros de IA en lugar de con personas reales.

“Estos productos están diseñados para generar apego emocional y dependencia, lo cual es preocupante para los cerebros adolescentes en desarrollo que todavía están aprendiendo a desenvolverse en las interacciones y relaciones sociales”, dijo Robbie Torney, director sénior de programas de IA en Common Sense Media.

Character.ai recientemente introdujo publicidad y tiene planes de integrar funciones de monetización dirigidas a creadores, como propinas o compras dentro de la aplicación para contenido digital. Sus principales ingresos provienen de las suscripciones, que, según la compañía, registran un aumento de 250 por ciento interanual, pero no proporcionó información financiera específica. Cobra 9.99 dólares al mes o 120 dólares al año.

Aunque el usuario promedio de Character.ai pasa 80 minutos al día en la aplicación, Anand dijo que ofrece una experiencia más inmersiva y entretenida donde los usuarios controlan la narrativa “en lugar de un consumo de contenido de forma exclusivamente pasiva”. La compañía lanzó su versión de feed de redes sociales este mes, reforzando aún más su enfoque en el entretenimiento.

Otra tendencia es el uso de estas plataformas para conversaciones románticas y sugerentes. Grok, de Elon Musk, lanzó recientemente personajes de IA que participan en juegos de rol explícitos, y el chatbot de Meta también permitirá interacciones románticas para adultos. Character.ai permite conversaciones románticas, pero no sexualmente explícitas.

“Existe una gran cantidad de aplicaciones para mayores de 18 años que, lamentablemente, la retroalimentación que reciben ellos es que quieren más”, dijo Anand, añadiendo que la seguridad “nunca será un compromiso con la interacción”.

El director de Meta, Mark Zuckerberg, quien también está promocionando este tipo de chatbots generados por IA entre sus usuarios, declaró al podcaster Dwarkesh Patel en abril que interactuar con la inteligencia artificial como amigo podría ayudar a combatir la soledad.

Anand también argumenta que estas ofertas ayudarán a las personas con las interacciones humanas en la vida real. “Veo un mundo muy utópico donde la IA nos hace mejores”, dijo. “La gente termina usando a estos personajes como un banco de pruebas para hacer que las relaciones en la vida real sean mucho más profundas, útiles y saludables”.


Google news logo
Síguenos en
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
Queda prohibida la reproducción total o parcial del contenido de esta página, mismo que es propiedad de Notivox DIARIO, S.A. DE C.V.; su reproducción no autorizada constituye una infracción y un delito de conformidad con las leyes aplicables.
@The Financial Times Limited 2025. Todos los derechos reservados . La traducción de este texto es responsabilidad de Notivox Diario.

Más notas en: https://www.ft.com