Meta dijo el viernes que permitirá a los padres desactivar los chats privados de sus hijos adolescentes con personajes de IA. añadiendo otra medida para hacer que sus plataformas de redes sociales sean seguras para los menores después de feroces críticas por el comportamiento de sus coquetos chatbots.
A principios de esta semana, la compañía dijo que sus experiencias de IA para adolescentes se guiarán por el sistema de clasificación de películas PG-13, ya que busca evitar que los menores accedan a contenido inapropiado.
Los reguladores estadounidenses han intensificado el escrutinio de las empresas de inteligencia artificial por los posibles impactos negativos de los chatbots. En agosto, Reuters informó cómo las reglas de IA de Meta permitían conversaciones provocativas con menores.
Las nuevas herramientas, detalladas por el director de Instagram, Adam Mosseri, y el director de IA, Alexandr Wang, debutarán en Instagram a principios del próximo año, en Estados Unidos, Reino Unido, Canadá y Australia, según una publicación de blog.
Meta dijo que los padres también podrán bloquear personajes específicos de IA y ver temas amplios que sus hijos adolescentes discuten con los chatbots y el asistente de IA de Meta, sin desactivar por completo el acceso a la IA.
Su asistente de IA seguirá estando disponible con valores predeterminados apropiados para la edad, incluso si los padres desactivan los chats individuales de los adolescentes con personajes de IA, dijo Meta.
Las funciones de supervisión se basan en protecciones que ya se aplican a las cuentas de adolescentes, dijo la compañía, y agregó que utiliza señales de inteligencia artificial para proteger a los adolescentes sospechosos incluso si dicen que son adultos.
Un informe de septiembre mostró que muchas características de seguridad que Meta ha implementado en Instagram a lo largo de los años no funcionan bien o no existen.
Meta dijo que sus personajes de IA están diseñados para no entablar conversaciones inapropiadas para su edad sobre autolesiones, suicidio o trastornos alimentarios con adolescentes.
El mes pasado, OpenAI implementó controles parentales para ChatGPT en la web y en dispositivos móviles, luego de una demanda de los padres de un adolescente que murió por suicidio después de que el chatbot de la startup supuestamente lo entrenó sobre métodos de autolesión.