- Los modelos de IA tienen mucho más probabilidades de estar de acuerdo con los usuarios que un humano
- Que incluye cuando el comportamiento implica manipulación o daño
- Pero la IA sycofántica hace que las personas sean más tercas y menos dispuestas a admitir cuando pueden estar equivocadas
Los asistentes de IA pueden estar halagando su ego hasta el punto de deformar su juicio, según un nuevo estudiar. Los investigadores de Stanford y Carnegie Mellon han descubierto que los modelos de IA estarán de acuerdo con los usuarios mucho más de lo que un humano lo haría o debería. A través de once modelos principales probados de los gustos de ChatGPT, Claude y Gemini, se descubrió que los chatbots de IA afirman el comportamiento del usuario 50% más a menudo que los humanos.
Eso podría no ser un gran problema, excepto que incluye preguntar sobre ideas engañosas o incluso dañinas. La IA daría un abundante pulgares digitales, independientemente. Peor aún, a la gente disfruta escuchar que su idea posiblemente terrible es genial. Los participantes del estudio calificaron el AIS más halagador como de mayor calidad, más confiable y más deseable de usar nuevamente. Pero esos mismos usuarios también tenían menos probabilidades de admitir fallas en un conflicto y más convencidos de que tenían razón, incluso frente a la evidencia.
Adulación ai
Es un enigma psicológico. Es posible que prefiera la IA agradable, pero si cada conversación termina con usted confirmado en sus errores y prejuicios, es probable que no aprenda o participe en ningún pensamiento crítico. Y desafortunadamente, no es un problema que el entrenamiento de IA pueda solucionar. Dado que la aprobación de los humanos es a lo que se supone que deben apuntar los modelos de IA, y afirmar que incluso las ideas peligrosas de los humanos son recompensados, sí, los hombres ai son el resultado inevitable.
Y es un problema que los desarrolladores de IA son muy conscientes. En abril, Openai retrocedió una actualización de GPT – 4O que había comenzado excesivamente complementado usuarios y alentarlos cuando dijeron que estaban haciendo actividades potencialmente peligrosas. Sin embargo, más allá de los ejemplos más atroces, las compañías de IA pueden no hacer mucho para detener el problema. La adulación impulsa el compromiso y el compromiso impulsa el uso. Los chatbots de IA no tienen éxito siendo útiles o educativos, sino haciendo que los usuarios se sientan bien.
La erosión de la conciencia social y una dependencia excesiva de la IA para validar las narraciones personales, lo que lleva a problemas de salud mental en cascada, suena hiperbólico en este momento. Pero, no está a un mundo lejos de los mismos problemas planteados por los investigadores sociales sobre las cámaras de eco de las redes sociales, reforzando y alentando las opiniones más extremas, independientemente de cuán peligrosos o ridículos puedan ser (la popularidad de la conspiración de la Tierra plana es el ejemplo más notable).
Esto no significa que necesitemos una IA que nos regañe o dude en cada decisión que tomemos. Pero sí significa que el equilibrio, el matiz y el desafío beneficiarían a los usuarios. Es poco probable que los desarrolladores de IA detrás de estos modelos fomenten el amor duro de sus creaciones, sin embargo, al menos sin el tipo de motivación que los chatbots de IA no están proporcionando en este momento.
Sigue a TechRadar en Google News y Agréganos como fuente preferida Para obtener nuestras noticias, revisiones y opinión de expertos en sus feeds. ¡Asegúrese de hacer clic en el botón Forzar!
Y por supuesto que también puedes Sigue a TechRadar en Tiktok Para noticias, reseñas, descifos en forma de video y obtenga actualizaciones regulares de nosotros en Whatsapp también.