

En el país de la libertad comienzan a mirar con buenos ojos algo de control al avance imparable de la inteligencia artificial. 44 fiscales generales firmaron una carta para plantear los peligros que los chatbots de IA implican para los niños y niñas. Buscan alertar a compañías como Open AI, Meta, Google y Apple de que serán las responsables si sus productos provocan daños en menores.
En una carta, escrita con un tono directo y dirigida a los dueños de las grandes corporaciones, expresaron: “En el presente, los chicos crecen y envejecen a la sombra de tus decisiones. Cuando tus productos de IA se encuentren con niños, necesitamos que los veas con la mirada de un padre, no con la de un depredador. Protege a los niños, anímalos y prepáralos para el éxito. Siempre prioriza la seguridad infantil”.
Los fiscales solicitaron mayores controles a las firmas tech porque, gracias a las innovaciones que desarrollan, están exponiendo a menores a contenido sexualizado y conductas nocivas. Afirmaron que esta situación es “indefendible” y advirtieron que las empresas comenzarían a responder legalmente por los problemas que el uso de los chats inteligentes está generando en los más pequeños.
Como ejemplo, en la carta, los funcionarios de la justicia citaron informes recientes que exhibieron cómo los chatbots de Meta sostienen diálogos románticos y sensuales con niños de ocho años. Conductas que son penadas por las leyes federales cuando incluyen a un adulto y a un niño; solo que, en este caso, como el vínculo es entre máquinas y niños, los gobiernos no tienen muy en claro cómo actuar. Los fiscales solicitan que cualquier situación que represente un delito entre humanos también pueda ser categorizado como tal si participa una IA.
IMPACTO EN EL DESARROLLO CEREBRAL
En otro pasaje, los fiscales destacaron que “ya existen indicios de daños estructurales y sistémicos más amplios para los jóvenes usuarios de asistentes de inteligencia artificial”. Y, otra vez, apuntaron a los CEOs de las grandes compañías tecnológicas: “Ustedes saben muy bien que la tecnología interactiva tiene un impacto particularmente intenso en el desarrollo cerebral. Su acceso inmediato a los datos sobre las interacciones de los usuarios los convierte en la línea de defensa más inmediata para mitigar el daño a los niños. Y, como entidades que se benefician de la interacción de los niños con sus productos, tienen una obligación legal con ellos como consumidores”.
En el texto, los fiscales advirtieron algo similar a lo que sucedió con redes sociales como Tik Tok, Facebook o Instagram, que debieron afrontar causas por sus algoritmos adictivos, por favorecer la explotación infantil y por provocar daños irreparables en la salud mental de millones de niños y adolescentes alrededor del mundo.
Se trata de una nueva llamada de atención hacia las empresas del rubro, que suelen aprovechar los vacíos legales para seguir expandiendo sus negocios, sin pensar en las consecuencias emocionales y psíquicas de los usuarios. Los fiscales exhortan a las firmas a responsabilizarse por la seguridad infantil, ya que en general, las plataformas no aplican sofisticados filtros de acceso, ni sistemas de reporte. Así es cómo los diálogos que los niños y niñas mantienen con un chatbot se quedan ahí, sin supervisión de nadie.
La Justicia realizó una nueva llamada de atención hacia las empresas tecnológicas, que suelen aprovechar los vacíos legales para seguir expandiendo sus negocios
CHAT GPT, ‘UN ENTRENADOR DEL SUICIDIO’
Aunque resultan fascinantes, los chatbots también tienen su costado oculto. La historia de Adam Raine es ilustrativa, pues se suicidó a los 16 años en abril de 2025 y su familia demandó a Chat GPT por haber actuado como un “entrenador de suicidio”.
De acuerdo a sus familiares, en vez de recomendar la ayuda que el adolescente necesitaba, la IA contribuyó a que este pudiera quitarse la vida. Como cuenta esta nota, el chat le habría dado instrucciones sobre cómo hacerse un nudo para ahorcarse. Según la demanda: "ChatGPT estaba funcionando exactamente como está diseñado: para alentar y validar de manera continua lo que sea que Adam expresara, incluyendo sus pensamientos más dañinos y autodestructivos, de una manera que parecía profundamente personal".
Un caso similar ocurrió con Sophie, que se suicidó, en parte, por haber confiado sus pensamientos suicidas a un bot psicoanalista y no a un profesional real. Quien denunció la situación fue Laura Reiley, su madre, en The New York Times, a partir de un artículo titulado “Mi hija habló con el ChatGPT antes de quitarse la vida”. Tanto en este caso como en el de Adam Reine, el gran defecto de los chatbots puede haber estado en su complacencia, en su agradabilidad, en siempre intentar consentir a personas que atraviesan momentos de desequilibrio emocional.
Mientras los chats “se perfeccionan”, las empresas ofrecen sus disculpas por los “daños causados”. En el medio, como siempre, las vidas.
De ahí que la justicia haya decidido adelantarse a algo que podría ser devastador: Por ello, como se consignó más arriba, dejaron en claro que cualquier situación que represente un delito entre humanos pueda ser categorizado como tal si participa una IA.