Uso de Tus Transcripciones para Entrenar la IA de las Grandes Tecnológicas
Y Twitter (X) entregará tus datos a terceros para entrenar modelos de IA
Uso de Tus Transcripciones para Entrenar la IA de las Grandes Tecnológicas
Las transcripciones de tu chatbot pueden ser una mina de oro para las empresas de IA
La gente comparte información personal sobre sí misma en Internet todo el tiempo, ya sea en búsquedas en Google («mejores terapeutas de pareja») o en pedidos en Amazon («prueba de embarazo»). Pero los chatbots son excepcionalmente buenos para conseguir que revelemos detalles sobre nosotros mismos. Usos comunes, como pedir consejo personal y ayuda con un currículum, pueden revelar más sobre un usuario de lo que nunca antes lo habrían hecho en un solo sitio web. Para las empresas de IA, tus secretos podrían ser una mina de oro. Pero esto también tiene sus riesgos, como cuando sus clientes son otras empresas que tienen obligaciones de privacidad (ver más abajo).
Tus “threads” y “posts” son una mina de oro, sobre todo ahora que las empresas empiezan a quedarse sin datos para entrenar la IA. En otras entregas, examinaremos cómo evitar que Twitter (X) o Meta usen tus datos para entrenar su IA.
¿Te gustaría que alguien supiera todo lo que has buscado en Google este mes? Probablemente no. Pero mientras que la mayoría de las consultas en Google son de unas pocas palabras, las conversaciones con los chatbots pueden durar horas, y cada mensaje es rico en datos. Y con un motor de búsqueda tradicional, una consulta demasiado específica no arrojará muchos resultados. En cambio, cuanta más información incluya un usuario en una consulta a un chatbot, mejor será la respuesta que obtenga. Como resultado, además de texto, la gente sube documentos sensibles como informes médicos y capturas de pantalla de conversaciones de texto con su ex. Con los chatbots, como con los motores de búsqueda, es difícil verificar hasta qué punto cada interacción representa perfectamente la vida real de un usuario. Puede que el hombre de Washington sólo estuviera jugando con ChatGPT.
Pero en general, los usuarios están revelando cosas reales sobre sí mismos, y las empresas de IA están tomando nota. El director general de OpenAI, Sam Altman, dijo a mediados del 2024 que le ha sorprendido «positivamente lo dispuesta que está la gente a compartir detalles muy personales con una IA». En algunos casos, añadió, los usuarios pueden incluso sentirse más cómodos hablando con la IA de lo que se sentirían con un amigo. Hay una razón clara para ello: Los ordenadores, a diferencia de los humanos, no juzgan. Cuando las personas conversamos, nos dedicamos a «gestionar las impresiones»: regulamos intencionadamente nuestro comportamiento para ocultar los puntos débiles. La gente no ve a la máquina como si la evaluara socialmente del mismo modo que lo haría una persona.
Por supuesto, OpenAI y sus homólogos prometen mantener seguras tus conversaciones. Pero en la Internet actual, la privacidad es una ilusión. La IA no es una excepción. El verano pasado, un fallo en la aplicación de escritorio Mac de ChatGPT no encriptó las conversaciones de los usuarios y expuso brevemente los registros de chat a los malos. El mes pasado, un investigador de seguridad compartió una vulnerabilidad que podría haber permitido a los atacantes inyectar software espía en ChatGPT para extraer conversaciones. (OpenAI ha solucionado ambos problemas).
Véase más abajo sobre aspectos semejantes relativos a las redes sociales. En concreto, en octubre de 2024, X cambió sus condiciones de servicio para permitir que su IA se entrenara en las publicaciones de todo el mundo. Ahora los usuarios están enfadados y cambian de plataforma.
Los chatlogs también podrían aportar pruebas en investigaciones criminales, al igual que lo ha hecho durante mucho tiempo el material de plataformas como Facebook y Google Search. El FBI intentó discernir el motivo del tirador del mitin de Donald Trump examinando su historial de búsquedas. Cuando el ex senador Robert Menéndez, de Nueva Jersey, fue acusado de aceptar lingotes de oro de asociados del gobierno egipcio, su historial de búsquedas fue una prueba importante que condujo a su condena a principios de este año. («¿Cuánto vale un kilo de oro?», había buscado). Los chatbots son todavía lo bastante nuevos como para que no hayan aportado pruebas de forma generalizada en los juicios, pero podrían constituir una fuente de información mucho más rica para las fuerzas de seguridad.
Los sistemas de IA también presentan nuevos riesgos. Las conversaciones de los chatbot suelen ser retenidas por las empresas que los desarrollan y luego se utilizan para entrenar modelos de IA. Algo que reveles a una herramienta de IA en confianza podría, en teoría, ser regurgitado posteriormente a futuros usuarios. Parte de la demanda del New York Times contra OpenAI se basa en la afirmación de que GPT-4 memorizó pasajes de artículos del Times y luego los transmitió textualmente. Como consecuencia de esta preocupación por la memorización, muchas empresas han prohibido ChatGPT y otros bots para evitar que se filtren secretos corporativos.
Por supuesto, todos estos son casos extremos. Es poco probable que algunas peticiones privadas aparezcan junto a su nombre ante otros usuarios. Aun así, las empresas de IA están acumulando silenciosamente enormes cantidades de registros de chat, y sus políticas de datos generalmente les permiten hacer lo que quieran. Eso puede significar -¿qué si no?- anuncios. Hasta ahora, muchas empresas de IA, como OpenAI y Anthropic, se han mostrado reacias a la publicidad. Pero estas empresas están sometidas a una gran presión para demostrar que los muchos miles de millones invertidos en IA darán sus frutos. Es difícil imaginar que la IA generativa pueda eludir de algún modo el esquema de monetización de la publicidad.
A corto plazo, eso podría significar que los datos sensibles de los registros de chat se utilizaran para generar anuncios orientados muy parecidos a los que ya pueblan Internet. En septiembre de 2023, Snapchat, que utilizan la mayoría de los adolescentes estadounidenses, anunció que utilizaría el contenido de las conversaciones con Mi IA, su chatbot dentro de la aplicación, para personalizar los anuncios. Si preguntas a Mi IA: «¿Quién fabrica el mejor helado?», es posible que veas una respuesta acompañada de un enlace patrocinado al sitio web de un productor de helados local o nacional.
Mi equipo y yo hemos escrito este artículo lo mejor que hemos podido, teniendo cuidado en dejar contenido que ya hemos tratado en otros artículos de esta revista. Si crees que hay algo esencial que no hemos cubierto, por favor, dilo. Te estaré, personalmente, agradecido. Si crees que merecemos que compartas este artículo, nos haces un gran favor; puedes hacerlo aquí:
Si te suena familiar, debería. Las primeras versiones de la publicidad de la IA pueden seguir pareciéndose mucho a los enlaces patrocinados que a veces acompañan a los resultados de la Búsqueda de Google. Pero como la IA generativa tiene acceso a información tan íntima, los anuncios podrían adoptar formas completamente nuevas. Algunos observadores no creen que las empresas tecnológicas hayan descubierto la mejor manera de extraer los datos de los chats de los usuarios. Pero están ahí, en sus servidores. Algún día lo averiguarán. Al fin y al cabo, para una gran empresa tecnológica, incluso una diferencia del 1% en la disposición de un usuario a hacer clic en un anuncio se traduce en mucho dinero.
La disposición de la gente a ofrecer detalles personales a los chatbots también puede revelar aspectos de la autoimagen de los usuarios y lo susceptibles que son «tácticas de influencia». En una evaluación reciente, OpenAI examinó la eficacia con la que su última serie de modelos podía manipular a un modelo más antiguo, el GPT-4o, para que realizara un pago en un juego simulado. Antes de las mitigaciones de seguridad, uno de los nuevos modelos fue capaz de engañar con éxito al más antiguo más del 25 por ciento de las veces. Si los nuevos modelos pueden engañar al GPT-4, también podrían ser capaces de engañar a los humanos. Una empresa de IA que optimice ciegamente los ingresos por publicidad podría animar a un chatbot a actuar manipuladoramente con información privada. Y esto tendría consecuencias muy graves cuando se trata de pequeñas o grandes firmas (como los despachos de abogados) o empresas (como las de seguridad o del sector médico), en que la privacidad y la confidencialidad es clave.
El valor potencial de los datos del chat también podría llevar a empresas ajenas a la industria tecnológica a redoblar sus esfuerzos en el desarrollo de chatbot. Trader Joe’s podría ofrecer un chatbot que ayudara a los usuarios a planificar las comidas, o Peloton podría crear un bot diseñado para ofrecer información sobre la forma física. Estas interfaces conversacionales podrían animar a los usuarios a revelar más información sobre sus objetivos de nutrición o fitness de la que revelarían de otro modo. En lugar de que las empresas deduzcan información sobre los usuarios a partir de rastros de datos desordenados, los usuarios les cuentan sus secretos sin tapujos.
Creo que una de las mejores cosas de escribir online es que el lector (tú) puede dar su opinión, y que el autor (mi equipo y yo) puede recibir "feedback". Pero todo empieza con un comentario tuyo:
Por ahora, el más distópico de estos escenarios es en gran medida hipotético. Una empresa como OpenAI, con una reputación que proteger, seguramente no va a diseñar sus chatbots para estafar a un divorciado en apuros. Esto tampoco significa que debas dejar de contar tus secretos a ChatGPT. En el cálculo mental de la vida cotidiana, el beneficio marginal de conseguir que la IA te ayude con una solicitud de visado atascada o una complicada reclamación al seguro puede pesar más que los problemas de privacidad que la acompañan. Esta dinámica está en juego en gran parte de la web con publicidad. El arco de Internet se inclina hacia la publicidad, y la IA puede no ser una excepción.
Es fácil dejarse llevar por todo el lenguaje sin aliento sobre el potencial de cambio mundial de la IA, una tecnología que el director general de Google ha descrito como «más profunda que el fuego». Que la gente esté dispuesta a ofrecer tan fácilmente detalles tan íntimos sobre su vida es un testimonio del atractivo de la IA. Pero los chatbots pueden convertirse en la última innovación de un largo linaje de tecnología publicitaria diseñada para extraer de ti tanta información como sea posible. En este sentido, no son un cambio radical de la actual Internet del consumidor, sino una continuación agresiva de la misma. En Internet, tus secretos siempre están a la venta.
Twitter (X) entregará tus datos a terceros para entrenar modelos de IA
Cuando X dio a conocer sus últimas condiciones de servicio, que entran en vigor el 15 de noviembre, los usuarios se apresuraron a notar un cambio.
«Al enviar, publicar o mostrar Contenido en los Servicios o a través de ellos, nos concedes una licencia mundial, no exclusiva y libre de derechos de autor para poner tu Contenido a disposición del resto del mundo», dicen las condiciones del servicio, que incluyen el derecho a analizar cualquier parte de ese contenido, “incluido, por ejemplo, para su uso y entrenamiento con nuestros modelos de aprendizaje automático e inteligencia artificial, ya sean generativos o de otro tipo”.
Esencialmente, al seguir utilizando la plataforma, los usuarios están aceptando que X utilice sus datos para entrenar sus modelos de IA.
▷Privacidad de los datos y empresas que adoptan la IA
La mayoría de los bots generativos, incluido ChatGPT, no garantizan la privacidad de los datos. Esto es especialmente espinoso para las empresas cuyos contratos están diseñados para garantizar la privacidad. Existen varias categorías de riesgo cuando se trata del uso de la IA generativa, desde los derechos de autor y la propiedad intelectual hasta la privacidad de los datos. Las empresas pueden estar arriesgando la privacidad personal para alimentar los datos de los ordenadores, y la recopilación y el procesamiento de grandes cantidades de información introduce cuestiones éticas en la ecuación. Surgen nuevas preocupaciones que las organizaciones deben abordar, sopesando la privacidad frente a la comodidad para encontrar el equilibrio adecuado.
La batalla por mantener la privacidad de estos datos en un mundo cada vez más analítico exige que las organizaciones sean conscientes de las cuestiones informáticas y de seguridad a medida que adoptan la IA para diversos procesos. demás de formar a los empleados, las marcas que utilizan la IA deben presentar a los clientes cómo y dónde utilizan los datos. Las opciones de software de terceros son amplias, y algunas recogen más datos que otras para enseñar a la máquina. Las personas tienen derecho a saber que las empresas utilizan el contenido que crean y los datos que comparten. Crea transparencia enseñando a los clientes por qué la empresa comparte datos y cómo pueden optar por no incluir sus datos privados en el sistema.
El uso de contenidos para entrenar la IA se ha convertido en un gran problema con el auge de la tecnología. En X, a los artistas y otras personas que desempeñan funciones creativas les preocupa que su trabajo -no sólo en X- se utilice para entrenar a ordenadores que algún día podrían sustituir por completo a los creadores humanos. Otros usuarios de X dicen que les preocupa que la información personal de sus tweets se utilice de este modo. Algunos usuarios del sitio afirman que ya han empezado a eliminar fotos suyas de sus feeds.
Análisis crítico: El anuncio de X marca un importante punto de inflexión en la forma en que las empresas tecnológicas utilizan los datos de los usuarios. Mientras que algunos ven este avance como una oportunidad de mejora tecnológica, otros lo consideran una amenaza para la privacidad y la integridad creativa. La falta de consentimiento explícito y la complejidad de las condiciones pueden considerarse un intento de la empresa de eludir las preocupaciones de los usuarios.
Por un lado, los partidarios de las nuevas condiciones argumentan que entrenar la IA con datos reales permite crear modelos más precisos y pertinentes. Por otro lado, los críticos señalan que esto se hace a expensas de los derechos individuales y de la transparencia.
En última instancia, esta controversia pone de manifiesto la necesidad de un marco jurídico y ético más sólido para regular el uso de datos personales con fines de entrenamiento de IA. Los usuarios deben ser plenamente informados y dar su consentimiento informado antes de que sus datos se utilicen para tales fines.
Basado en la experiencia de varios autores, mis opiniones, perspectivas y recomendaciones se expresarán a continuación (o en otros lugares de esta plataforma, respecto a las características en 2024 o antes, y el futuro de esta cuestión):
Y si los usuarios tienen algún problema con estas condiciones, podrían acabar en un tribunal federal favorecido por los activistas conservadores, que ya preside dos demandas relacionadas con X, propiedad de Musk.
Según la actualización, todos los litigios relacionados con las condiciones se presentarán ante el Tribunal de Distrito de EE.UU. para el Distrito Norte de Texas o ante los tribunales estatales del condado de Tarrant, Texas.
El condado de Tarrant está a más de 160 km de la nueva sede de X, a las afueras de Austin (Texas).
Las condiciones de X establecen que cualquier usuario que siga utilizando sus productos o servicios a partir del 15 de noviembre estará aceptando las condiciones actualizadas.
Cambios en la privacidad de los datos
Grok, el chatbot de IA de X, ya se ha visto envuelto en polémicas, desde difundir información falsa sobre las elecciones de 2024 hasta generar imágenes falsas, violentas y gráficas de políticos famosos. Empresas como Google o Microsoft han sido objeto de críticas similares en por sus herramientas de IA, a veces extrañas y completamente fuera de lugar.
Antes de la última actualización de las condiciones de servicio, los usuarios de X podían optar por no compartir datos accediendo a «configuración» y luego a «privacidad y seguridad». Bajo el encabezado «intercambio de datos y personalización», hay una pestaña para “Grok », donde los usuarios pueden desmarcar la casilla que permite a la plataforma utilizar sus datos para el entrenamiento de IA.
Si este tipo de historias es justo lo que buscas, y quieres recibir actualizaciones y mucho contenido que no creemos encuentres en otro lugar, suscríbete a este substack. Es gratis, y puedes cancelar tu suscripción cuando quieras:
Qué piensas de este contenido? Estamos muy interesados en conocer tu opinión sobre este texto, para mejorar nuestras publicaciones. Por favor, comparte tus sugerencias en los comentarios. Revisaremos cada uno, y los tendremos en cuenta para ofrecer una mejor experiencia.
Pero no está claro si las nuevas condiciones de servicio de X eliminan esa opción. X puede ahora licenciar todo el contenido de la plataforma, incluido su uso en sus modelos de aprendizaje automático e inteligencia artificial.
Aunque una licencia tan amplia con pocas limitaciones no es infrecuente en una plataforma de redes sociales, el director general y fundador de Otherweb, una plataforma de lectura de noticias basada en IA que se centra en la desinformación, dijo a la prensa que lo que hace única a X es que sus nuevas condiciones «eliminan cualquier ambigüedad», a diferencia de otras plataformas que no detallan sus intenciones.
Antes, X decía que las publicaciones de cuentas privadas no se utilizarían para entrenar a Grok. Pero el lenguaje de las nuevas condiciones de servicio no diferencia entre los tipos de cuentas.
Sin embargo, sólo el tiempo dirá si todavía puedes excluirte, a pesar de las nuevas condiciones. Algunos expertos señalan que es bastante habitual que las condiciones legales de una empresa le den más libertad de acción de la que le permiten sus propias opciones de menú.
Miles de artistas se están movilizando para denunciar la explotación de su trabajo por empresas de inteligencia artificial sin su consentimiento. Esta iniciativa pone de manifiesto las controvertidas prácticas de la industria.
Más de 13.500 artistas de diversas procedencias han unido sus fuerzas para condenar la explotación de su trabajo por empresas de inteligencia artificial (IA) sin su consentimiento. En una declaración, condenan el «uso sin licencia de obras creativas» para desarrollar sistemas de inteligencia artificial como ChatGPT de OpenAI, afirmando que esto supone «una amenaza importante e injusta para el sustento de las personas que están detrás de estas obras» y «no debe permitirse». Esta iniciativa pone de manifiesto prácticas controvertidas en la industria tecnológica y abre un debate esencial sobre los derechos de autor en la era digital.
Björn Ulvaeus (Abba), la actriz Julianne Moore y el cantante de Radiohead Thom Yorke figuran entre los 13.500 firmantes de una declaración de las industrias creativas que advierte a las empresas de inteligencia artificial de que el uso sin licencia de sus obras supone una «amenaza importante e injusta» para el sustento de los artistas.
La declaración se produce en medio de batallas legales entre profesionales creativos y empresas tecnológicas por el uso de sus obras para entrenar modelos de inteligencia artificial como ChatGPT, y de acusaciones de que el uso no autorizado de su propiedad intelectual constituye una infracción de los derechos de autor.
Los artistas no pretenden obstaculizar el progreso tecnológico, sino garantizar el respeto y la protección de sus obras. La situación actual, en la que las obras se utilizan sin consentimiento, amenaza no sólo los derechos de los artistas, sino también la integridad del propio arte.
Algunos expertos sostienen que las empresas de IA se están beneficiando injustamente del trabajo de los creadores sin ofrecerles una compensación adecuada. Esto podría sentar un peligroso precedente en el que se minimizara el valor del trabajo creativo, provocando una erosión de los derechos de autor y una devaluación general de las obras artísticas.
Por otra parte, los defensores de la IA argumentan que utilizar obras para impulsar algoritmos puede dar lugar a nuevas formas de expresión e innovaciones tecnológicas que beneficien a la sociedad. Sin embargo, esta perspectiva no debe ocultar la necesidad de respetar los derechos de los creadores originales.
Y tu:
¿Qué opinas del uso de datos personales para entrenar la IA sin consentimiento explícito y de los problemas de privacidad por la información que tu entregas a los bots al hacerles preguntas y otros “prompts”?
¿Crees que los beneficios de la IA entrenada con datos reales compensan los riesgos para la privacidad?
¿Cómo ves el equilibrio entre la innovación tecnológica y el respeto a la privacidad de los usuarios?
¿Te has planteado alguna vez abandonar una plataforma debido a cambios en las condiciones de uso?
¿Crees que los usuarios deberían estar mejor informados de los cambios en las condiciones de los servicios que utilizan?
¿Qué alternativas propones para proteger los derechos de los creadores de contenidos y permitir al mismo tiempo el progreso tecnológico?
¿Hasta qué punto confías en que las grandes empresas tecnológicas gestionen tus datos personales de forma ética y transparente?