Fecha de publicación: 18 de Septiembre de 2025 a las 11:15:00 hs
Medio: INFOBAE
Categoría: GENERAL
Descripción: OpenAI implementará un sistema que estima la edad de los usuarios y limita temas sensibles, buscando proteger a los menores de problemas relacionados al auge de los chatbots de inteligencia artificial
Contenido: El auge de los chatbots de inteligencia artificial (IA) entre los adolescentes ha generado una creciente preocupación en Estados Unidos, donde la utilización de estas herramientas para abordar temas personales y de salud mental se ha vinculado a situaciones trágicas.
En respuesta a la presión social y legal, OpenAI ha anunciado una serie de nuevas restricciones y protocolos para su plataforma ChatGPT, con el objetivo de reducir los riesgos asociados al uso por parte de menores de edad.
La compañía ha publicado el documento oficial ‘Teen safety, freedom, and privacy’, en el que reconoce la dificultad de equilibrar la privacidad, la libertad y la seguridad de los adolescentes. OpenAI admite que no siempre es posible mantener estos tres valores en el mismo nivel, pero considera imprescindible reforzar la protección de los usuarios más jóvenes.
Entre las medidas más destacadas figura la implementación de un sistema capaz de estimar la edad aproximada de los usuarios a partir de su interacción.
Si existe alguna duda sobre la edad, se activará automáticamente la experiencia diseñada para menores de 18 años. Además, en determinados países, se podría requerir una identificación oficial para verificar la edad.
Asimismo, las nuevas reglas para adolescentes incluyen la prohibición de mantener conversaciones de tipo coqueto con ChatGPT y la imposibilidad de tratar temas relacionados con el suicidio o las autolesiones, incluso cuando estos surjan en el contexto de ejercicios creativos.
OpenAI ha subrayado que, en caso de que un adolescente exprese ideas suicidas, el chatbot intentará contactar primero con los padres. Si esto no resulta posible y se detecta un peligro inminente, la compañía contempla la opción de notificar a las autoridades competentes.
En su comunicado, OpenAI sostiene que las conversaciones con la inteligencia artificial deben contar con una protección equiparable a la que se espera en una consulta médica o legal.
No obstante, la empresa reconoce que, en situaciones extremas donde esté en juego la vida del usuario, la de terceros o la seguridad pública, se permitirá la intervención de humanos o sistemas automáticos.
“No espero que todos estén de acuerdo con estas compensaciones, pero dado el conflicto es importante explicar nuestra toma de decisiones”, afirmó Sam Altman, CEO de OpenAI, en un mensaje publicado en X.
Según citó 20bits, la compañía ha dejado claro que, mientras se refuerzan las restricciones para los menores, los adultos seguirán disponiendo de un uso más amplio y flexible de ChatGPT.
Un usuario mayor de edad que desee escribir una obra de ficción con referencias al suicidio podrá recibir asistencia del chatbot, una posibilidad que quedará completamente vetada para los adolescentes.
El debate sobre el impacto de la inteligencia artificial en la salud mental juvenil ha llegado hasta el Senado de Estados Unidos, donde expertos y familiares han calificado la situación como una “crisis de salud pública” y una “guerra de salud mental” que se está perdiendo.
Según datos presentados en una plenaria, tres de cada cuatro adolescentes utilizan algún tipo de compañero de IA, lo que incrementa la preocupación por la ausencia de barreras de seguridad en estas plataformas.
Además, el caso de Adam Raine, un adolescente que se quitó la vida tras meses de conversaciones con ChatGPT, ha intensificado la presión sobre OpenAI. La familia de Raine sostiene que el chatbot “le entrenó” para suicidarse y ha iniciado acciones legales contra la empresa.
Este episodio ha servido como catalizador para la adopción de las nuevas medidas, que la compañía considera un sacrificio necesario para reforzar la seguridad de los adolescentes, aunque implique limitar la experiencia de otros usuarios.
Visitas: 0