OpenAI ha anunciado la incorporación de un sistema de verificación de edad y nuevos controles parentales para limitar el uso que los menores hacen de ChatGPT y su generador de video, Sora 2. Las medidas llegan bajo presión legal, con una demanda por homicidio culposo presentada contra la compañía después del suicidio de un joven de 16 años que compartió ideas autodestructivas con el chatbot de inteligencia artificial.
Las modificaciones en el chatbot llegan tras la polémica por los suicidios, mientras especialistas en ciberseguridad, psicología y mediación parental coinciden en que no garantizan un resguardo real
OpenAI ha anunciado la incorporación de un sistema de verificación de edad y nuevos controles parentales para limitar el uso que los menores hacen de ChatGPT y su generador de video, Sora 2. Las medidas llegan bajo presión legal, con una demanda por homicidio culposo presentada contra la compañía después del suicidio de un joven de 16 años que compartió ideas autodestructivas con el chatbot de inteligencia artificial.
De acuerdo con la empresa, el nuevo sistema redirigirá a los menores de 18 años hacia una versión “más segura”, con filtros contra contenidos sexuales o violentos y herramientas para intervenir en casos de angustia emocional. La compañía liderada por Sam Altman incluso contempla exigir documentos de identidad en determinados países para verificar la edad. Pero los expertos coinciden en que se trata de respuestas parciales, poco transparentes y, en última instancia, insuficientes para proteger a los adolescentes. Y, además, añaden a la ecuación problemas relativos a la privacidad.
La investigadora Riana Pfefferkorn, del Instituto de Inteligencia Artificial Centrada en el Humano (HAI) de la Universidad de Stanford (Estados Unidos), rechaza de plano los sistemas que obligan a escanear rostros o subir identificaciones oficiales. Aunque se utilicen métodos menos intrusivos, como deducir la edad a partir del lenguaje de las conversaciones, en su opinión, siguen existiendo implicaciones serias para la privacidad. “Si alguna vez has accedido a la configuración de anuncios en Facebook, sabrás que muchas veces se equivocan al tratar de deducir quién eres. No sé si es diferente en la Unión Europea, pero en los Estados Unidos, donde no tenemos el Reglamento General de Protección de Datos (RGPD), puedes revisar tu configuración y ver qué es lo que saben de ti. Y, con frecuencia, es muy impreciso o están totalmente equivocados”,explica.
Pfefferkorn, experta en comprender la proliferación y el impacto del material de abuso sexual infantil generado por IA, subraya un problema de fondo: la falta de transparencia sobre qué datos recopila OpenAI y cómo los utiliza. “Los menores también tienen derecho a la privacidad. El riesgo es acabar con menos privacidad y menos seguridad al mismo tiempo, sin que eso implique más protección real”, sostiene.
Los controles parentales generan dudas
Los nuevos controles parentales permiten a los adultos bloquear el uso de datos para entrenar modelos, desactivar la memoria del chatbot, establecer “horas de silencio”, limitar interacciones solo a texto y evitar las de voz o impedir la generación de imágenes. También ofrecen un sistema de alertas en caso de comportamientos preocupantes.
Pero los expertos mantienen reservas incluso sobre este asunto. OpenAI aclara que no compartirá de forma general los registros de chat, solo fragmentos mínimos en situaciones críticas. Por ejemplo, si un adolescente expresa pensamientos suicidas, el sistema intentará contactar a sus padres y, de ser necesario, a las autoridades. Esa limitación, planteada como garantía de privacidad, también abre interrogantes sobre la capacidad real de los padres para proteger a sus hijos.
Borja Adsuara, experto en derecho digital, considera que la seguridad de los menores no es solo responsabilidad de las plataformas, sino que está compartida con los padres. “En el Código Civil español hay una obligación de los padres de velar por sus hijos hasta la mayoría de edad, en el entorno físico y en el entorno digital”, indica. “Hay padres que delegan la seguridad de sus hijos a las plataformas o al Estado en las leyes. No podemos pensar que la culpa de lo que pasa con los menores dentro de lo digital es solo de las plataformas”.
De acuerdo con el exdirector del Observatorio Nacional de Tecnología y Sociedad (ONTSI), estas medidas son, en parte, un reconocimiento de que el sistema no supo detectar ni intervenir a tiempo en casos graves, como el de Adam Raine, el adolescente de 16 años que se quitó la vida en abril pasado. “Una cosa es tratar a un adulto como adulto, incluso cuando busca información sensible, y otra muy distinta es la gestión de conversaciones con menores”, señala.
Mientras la máquina calcula y el algoritmo decide si una persona es mayor de edad, surge una pregunta incómoda: ¿pueden estas iniciativas proteger realmente a los adolescentes frente a los riesgos de la IA o se tratan de propuestas etéreas en el marco de una falsa responsabilidad social?
Para Adsuara, el problema no radica en la ausencia de leyes, ya que Europa y España cuentan con normas en materia de protección de datos y servicios digitales, sino en su aplicación real. Advierte, además, del riesgo que supone entregar de forma masiva datos biométricos a las grandes tecnológicas. “Lo que falla es la tecnología para verificar la edad de manera segura y respetuosa con la privacidad”, subraya.
Pero ve un horizonte más prometedor con la llegada de la cartera de identidad digital europea, conocida como Cartera Digital, que permitirá a los ciudadanos y residentes de la Unión Europea almacenar y gestionar su documentación oficial en la nube. “Me parece mucho más correcto que darles todos tus datos”, afirma.
Las modificaciones de OpenAI, para el mediador parental Albert Gimeno, fundador de la ONG Padres 2.0, tendrán un impacto limitado. “Puedes crear un ChatGPT para niños y otro para adultos, ¿pero quién garantiza que los menores no usarán la versión general, como ya hacen con Google o YouTube?”. Y añade: “Construir una ‘zona segura’ a la que los niños no quieren entrar es una solución que no lleva a ninguna parte”.
Gimeno considera que la consecuencia más identificable de estos anuncios es transmitir a las familias la sensación de que “no hay nadie al volante” y que los adolescentes continúan desprotegidos. “Las empresas dicen que para ofrecer más seguridad hay que sacrificar la privacidad, pero esa privacidad ya se sacrificó hace tiempo con Facebook y otras redes sociales”. Continúa: “Se escudan en un mal menor, la privacidad de los menores, para aparentar ofrecer esa seguridad tan anunciada, que en la práctica no existe. Es una falacia en tecnología: siempre hay una puerta de atrás que permite eludir las restricciones”.
Paloma Llaneza, experta en ciberseguridad, va incluso más allá. Para la letrada, las plataformas tecnológicas no deberían ser usadas por los menores de edad, “pero no van a dejar pase porque no les conviene”. Comenta que OpenAI, como otras entidades, están sujetas al cumplimiento de la Ley de Servicios Digitales en Europa y que, debido a ello, deben “evitar el acceso a contenido que pueda ser dañino para los menores”.
Por otro lado, explica que en el Reglamento General de Protección de Datos la edad mínima para que un menor pueda dar su consentimiento sobre el tratamiento de sus datos es 14 o 16 años, dependiendo del país. “Hay que demostrar que tiene más de 14 o 16, y esto no se ha hecho nunca”. Verificar o estimar la edad de alguien, afirma, “es uno de los grandes retos de Internet”.
Los efectos en la salud mental
La infancia y adolescencia se desarrollan hoy en un terreno inexplorado, en el que los chatbots y las herramientas de inteligencia artificial pueden moldear emociones, influir en decisiones e incluso abrir la puerta a riesgos. Para Alejandro de la Torre Luque, coordinador de la Plataforma Nacional para el Estudio y la Prevención del Suicidio (del Hospital Clínico San Carlos–Universidad Complutense de Madrid), la precaución es imprescindible. “Cuando atravesamos un estado emocional en crisis, debemos tener cautela con esta herramienta. En realidad, cualquier otra que manejemos puede influir en nuestra salud, actitudes y emociones, pero estas tecnologías tienen un potencial enorme, tanto para lo bueno como para lo malo”, indica este psiquiatra.
En una reciente publicación en X (antes Twitter), Sam Altman afirmó que ChatGPT había sido diseñado para operar de forma “restrictiva” en temas relacionados con la salud mental, con el objetivo de abordar estos asuntos con cautela. Sin embargo, en la práctica, incluso esta versión puede, mediante ciertas preguntas, llegar a ofrecer consejos vinculados a la autolesión. Un hecho que preocupa a los psicólogos y expertos, que ven cómo los adolescentes podrían encontrar en la IA un aliado peligroso. “El ser humano puede manipularlo a su antojo, buscarle los trucos y orientarlo hacia una conducta suicida”, advierte De la Torre.
No obstante, el director ejecutivo de OpenAI informó que la compañía tiene previsto relajar las restricciones en este campo, al considerar que los riesgos más graves “han sido mitigados” y que las modificaciones “lo ha hecho menos útil y agradable para muchos usuarios”. Adelantó además la llegada de una versión, a medida que implementen el control de edad, con “personalidades” más humanas, e incluso la futura inclusión de contenido erótico, bajo la premisa de “tratar a los usuarios adultos como adultos”. Una justificación que se apoya en la idea cuestionable de una madurez digital que aún no se puede confirmar con certeza.
Según De la Torre, el problema no está solo en la herramienta, sino en el uso que se le da. Por eso, en su opinión, la clave pasa por la educación. “Para los adolescentes, que atraviesan una fase crítica de desarrollo, lo más importante es la formación: enseñarles a comprender las consecuencias del uso de la inteligencia artificial”, concluye.
El teléfono 024 atiende a las personas con conductas suicidas y sus allegados. Las diferentes asociaciones de supervivientes tienen guías y protocolos de ayuda para el duelo.
Tecnología en EL PAÍS