El director ejecutivo de OpenAI, Sam Altman, confirmó esta semana que la compañía está construyendo un nuevo dispositivo basado en la inteligencia artificial. Dice que esto contrastará marcadamente con el desorden y el caos de nuestros teléfonos y aplicaciones. De hecho, comparó su uso con “sentarse en la cabaña más hermosa en un lago y en las montañas y simplemente disfrutar de la paz y la calma”. Pero comprenderlo en contexto y analizar sus hábitos, estados de ánimo y rutinas resulta más íntimo de lo que la mayoría de las personas tienen con sus seres queridos, y mucho menos con una pieza de hardware.
Su encuadre oscurece una realidad muy diferente. Un dispositivo diseñado para monitorear constantemente tu vida, para recopilar detalles sobre dónde estás, qué haces, cómo hablas y sonidos más asfixiantes. Tener un observador electrónico que absorba todos los matices de su comportamiento y se adapte a su vida puede parecer bueno, hasta que recuerde por qué están pasando esos datos para proporcionar el análisis.
Llamar a un dispositivo calmante es como cerrar los ojos y esperar ser invisible. Es una vigilancia voluntaria pero integral. La promesa de serenidad parece una tapadera inteligente para renunciar a la privacidad y cosas peores. La conciencia del contexto las 24 horas del día, los 7 días de la semana, no es sinónimo de paz.
La IA te mira
La soledad y la paz dependen de una sensación de seguridad. Un dispositivo que pretende calmarme disolviendo estos límites sólo me expone. La analogía de Altman con la cabaña junto al lago es seductora. ¿Quién no ha soñado con escapar del constante ping de las notificaciones, los anuncios parpadeantes, el caos algorítmico de las aplicaciones modernas, con alejarse de todo y entrar en un retiro pacífico? Pero la serenidad construida a partir de la observación constante es una ilusión.
Esto no es sólo escepticismo. Hay aquí una paradoja profundamente arraigada. Cuanto más sensible al contexto y receptivo sea este dispositivo, más sabrá sobre usted. Cuanto más sepa, mayor será el potencial de intrusión.
La versión de calma que Altman intenta vendernos se basa en una discreción indefinida. Tenemos que confiar todos nuestros datos a las personas adecuadas y confiar en que un algoritmo y la empresa que lo respalda siempre tratarán nuestra información personal con deferencia y cuidado. Tenemos que confiar en que nunca convertirán los datos en influencia, nunca los utilizarán para influir en nuestros pensamientos, nuestras decisiones, nuestra política, nuestros hábitos de compra, nuestras relaciones.
Esta es una gran pregunta incluso antes de que analicemos la historia de Altman en materia de derechos de propiedad intelectual.
ver y tomar
Altman ha defendido repetidamente el uso de obras protegidas por derechos de autor para la formación sin permiso ni compensación a los creadores. En una entrevista de 2023, reconoció que los modelos de IA han “absorbido trabajo de Internet”, incluido material protegido por derechos de autor sin permiso explícito, simplemente absorbiéndolo en masa como datos de entrenamiento. Trató de plantear esto como un problema que sólo podría resolverse “después de que encontremos algún tipo de modelo económico que funcione para las personas”. Admitió que muchos creativos estaban molestos, pero sólo ofreció vagas promesas de que algún día podría haber algo mejor.
Dijo que dar a los creadores la oportunidad de unirse y ganar una parte de los ingresos podría ser “genial” si así lo desean, pero se negó a garantizar que ese modelo se implementaría alguna vez. Si la propiedad y el consentimiento son comodidades opcionales para los creadores, ¿por qué los consumidores serían tratados de manera diferente?
Tenga en cuenta que a las pocas horas de su lanzamiento, Sora 2 se vio inundado de clips que utilizaban personajes con derechos de autor y franquicias conocidas sin permiso, lo que provocó una reacción legal. La compañía rápidamente cambió de rumbo y anunció que daría a los titulares de derechos “un control más granular” y pasaría a un modelo de inclusión voluntaria para imágenes y personajes.
Esta reversión puede parecer una responsabilidad. Pero también es una admisión tácita de que el plan original era esencialmente tratar los esfuerzos creativos de todos como materia prima gratuita. Tratar el contenido como algo que se socava, no como algo que se respeta.
Tanto en el arte como en los datos personales, el mensaje de Altman parece ser que el acceso a gran escala es más importante que el consentimiento. Un dispositivo que pretende traer calma disolviendo la fricción y suavizando tu vida digital significa un dispositivo que supervisa esa vida. No es lo mismo comodidad que comodidad.
No estoy diciendo aquí que todos los asistentes de IA sean malos. Pero tratar la IA como una caja de herramientas no es lo mismo que convertirla en un confidente para cada elemento de mi vida. Algunos podrían argumentar que si el diseño del dispositivo es bueno, existen verdaderas salvaguardias. Pero este argumento presupone un futuro perfecto, gestionado por personas perfectas. La historia no está de nuestro lado.
El dispositivo que Altman y OpenAI planean vender podría ser excelente para todo tipo de cosas y vale la pena la compensación por la privacidad, pero deje esa compensación clara. Ese lago tranquilo bien podría ser la lente de una cámara, pero no finjas que la lente no está ahí.
Siga TechRadar en Google News y agréganos como fuente preferida para recibir noticias, análisis y opiniones de expertos en tus feeds. ¡Asegúrate de hacer clic en el botón Seguir!
Y por supuesto que tú también puedes Siga TechRadar en TikTok para noticias, reseñas, unboxings en formato de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp también.
Las mejores computadoras portátiles empresariales para cada presupuesto