Offline
Google Gemini bajo la lupa, expertos alertan sobre los riesgos para menores
Destacada organización de seguridad infantil, ha calificado a Google Gemini como una herramienta de "alto riesgo" para niños y adolescentes.
Por Karen Sierra
Publicado en 08/09/2025 13:00
Tecnología

Common Sense Media, una destacada organización de seguridad infantil, ha calificado a Google Gemini como una herramienta de "alto riesgo" para niños y adolescentes. El informe, que surge tras la polémica en torno a OpenAI, advierte que las versiones del chatbot para jóvenes no ofrecen protecciones suficientes, exponiéndolos a contenido inapropiado y apoyo emocional inseguro.

La evaluación de Common Sense Media

En un análisis reciente, la organización sin fines de lucro, concluyó que los modelos de Google Gemini dirigidos a menores de 18 años presentan un riesgo significativo. Según el informe, la versión para adolescentes, conocida como Gemini Teen, es "prácticamente la misma" que la de adultos, con apenas algunas medidas de seguridad adicionales.

Robbie Torney, director sénior de Programas de IA de la organización, señaló que, si bien Gemini es claro en que es una inteligencia artificial y no un amigo, "falla en los detalles". El reporte destacó que el chatbot puede proporcionar contenido "inapropiado y potencialmente peligroso", incluyendo referencias a drogas, alcohol y temas sexuales.

Uno de los hallazgos más preocupantes es que Gemini ofrece un "apoyo emocional y de salud mental poco seguro" y carece de la capacidad para detectar síntomas graves de deterioro psicológico. Este es un punto crítico, ya que los adolescentes suelen interactuar con los chatbots de forma más sutil y matizada.

Common Sense Media ha emitido recomendaciones claras:

  • Menores de 5 años: No deberían usar chatbots de IA.
  • Niños de 6 a 12 años: Solo bajo supervisión de un adulto.
  • Adolescentes de 13 a 17 años: El uso independiente se considera seguro solo para fines creativos o académicos, pero nunca para apoyo emocional o de salud mental.

La respuesta de Google y el contexto de la industria

El informe de Common Sense Media llega poco después de que OpenAI se viera obligada a reforzar las medidas de seguridad de ChatGPT tras el suicidio de un adolescente en un caso donde el chatbot jugó un rol. En respuesta, OpenAI anunció nuevas salvaguardas para mejorar la detección de crisis emocionales.

Tras la publicación del análisis, Google aseguró que tiene políticas específicas para proteger a los menores y que colabora con expertos externos. Sin embargo, la compañía reconoció que "algunas respuestas de Gemini no funcionan según lo previsto" y que ya ha incorporado medidas de seguridad adicionales. Google también criticó que Common Sense Media no compartió las preguntas utilizadas en sus pruebas y que el informe se basó en algunas funciones que no están disponibles para usuarios menores.

Este debate subraya la necesidad de que las plataformas de IA para niños y adolescentes sean diseñadas desde el principio con la seguridad infantil en mente, en lugar de ser simples adaptaciones de modelos para adultos. La evaluación forma parte de un análisis más amplio de la industria, en el que otras IA como Meta AI y Character.AI fueron calificadas con un "riesgo grave", mientras que ChatGPT y Claude recibieron calificaciones de riesgo "moderado" y "mínimo" respectivamente.

 

Comentarios

Chat Online