LLMs y tu privacidad: ¿Están nuestras conversaciones alimentando a la IA?
Y por qué debería preocuparte.
Hoy vamos a sumergirnos en un tema que probablemente te haga sentir como si estuvieras en una película de espías: la privacidad en el mundo de los Large Language Models (LLMs).
Esos mismos asistentes con los que chateamos tranquilamente todos los días podrían estar llevándose nuestros secretos a sus jefes… ¿Intrigado? Pues sigue leyendo.
LLMs: Los robots que se alimentan de datos (muchos datos)
Antes de entrar en pánico y empezar a revisar tus conversaciones pasadas con ChatGPT, vamos a entender qué son estos LLMs y por qué están tan hambrientos de datos.
Me imagino que si estás leyendo esto ya has tenido al menos un par de conversaciones con ChatGPT, Claude o Meta AI ¿Verdad que parecen saberlo todo?
Pueden hablar de cualquier tema, desde física cuántica hasta la mejor receta de carapulcra. Pero, ¿cómo obtienen toda esa información?
Con datos, muchos, muchos datos.
Para poder comprender el lenguaje humano, las empresas entrenan estos modelos con cantidades gigantes de texto: libros, artículos, sitios web, y sí, potencialmente nuestras conversaciones.
El dilema de los datos: ¿Por qué las empresas quieren nuestras conversaciones?
Te estarás preguntando: "Pero Germán, ¿por qué les interesan mis conversaciones sobre por qué las pizzas deberían ser cuadradas?" (Es cierto, deberían serlo! - pero eso es tema para otro post).
La razón es simple: para mejorar. Mientras más datos tengan estos modelos, más precisos y útiles serán. Es como si cada conversación fuera una mini-lección que les ayuda a entender mejor el lenguaje humano, con todas sus complejidades y giros inesperados.
Nuestras conversaciones son oro puro para estos modelos. Son ejemplos reales de cómo hablamos, qué nos interesa, y cómo expresamos nuestras ideas. Para un LLM, eso es como tener acceso a un libro de "Cómo hablar humano para dummies".
Las implicaciones de privacidad: Cuando tu asistente de AI sabe demasiado
Imagina que le cuentas a tu asistente de IA sobre esa idea revolucionaria que tuviste para un negocio. O peor aún, le pides ayuda para redactar un correo muy personal. Si esa información se usa para entrenar al modelo, ¿quién sabe dónde podría terminar?
Algunos riesgos potenciales incluyen:
Fuga de información personal: Tu información confidencial podría acabar siendo parte del conocimiento general del modelo.
Propiedad intelectual en riesgo: Esa idea brillante que compartiste, o esos documentos de la compañía que subiste podrían ser "recordados" y potencialmente compartida con otros usuarios.
Es como si tu diario personal de repente decidiera publicarse en internet. No es exactamente el tipo de fama que la mayoría de nosotros busca.
Ahora, antes de que empieces a comunicarte exclusivamente a través de señales de humo, veamos cómo están manejando esto algunas de las grandes empresas de IA.
Anthropic: El robot que sabe guardar secretos
Los creadores de Claude han declarado que no utilizan las conversaciones de los usuarios para entrenar sus modelos. Podríamos decir que han adoptado la política de "lo que pasa en Las Vegas, se queda en Las Vegas".
Pero ojo, esto no significa que puedas contarle todos tus secretos sin preocupaciones. Recuerda que siempre es mejor ser cauteloso con la información personal que compartes en línea, sea con humanos o con IAs.
Aquí más info (en inglés) sobre como usa Anthropic la data.
OpenAI: El robot que te escucha... a menos que le pidas que no lo haga
Pasemos a OpenAI, los creadores de ChatGPT. Ellos tienen un enfoque un poco diferente.
Para los usuarios de las versiones gratuita y Pro de ChatGPT, OpenAI sí utiliza las conversaciones para entrenar sus modelos. Es como si cada vez que hablaras con ChatGPT. Eso sí, te dan la opción de "opt-out", es decir, puedes decirles que no quieres ser parte de eso. (en breve te explico como)
Si eres usuario de las versiones Team o Enterprise no te preocupes, tus conversaciones no se utilizarán para el entrenamiento.
Para más información sobre privacidad de ChatGPT aquí te dejo los enlaces de consumer privacy y de enterprise privacy de OpenAI.
Cómo hacer opt-out?
Para hacerlo debes ir a “settings” y bajo la pestaña “Data controls” desactivar la opción “improve the model for everyone”.
Meta: El robot que promete no divulgar tus secretos... tanto
Ahora, hablemos de Meta y su IA integrada en WhatsApp.
Según su política de privacidad, pueden usar tus conversaciones con la IA para mejorar el modelo y proporcionar respuestas precisas. Es como si tu amigo te dijera: "Voy a escuchar todo lo que me dices y posiblemente lo use para ser un mejor amigo en el futuro, pero prometo no decir tu nombre cuando cuente tus historias".
Ojo: Puedes borrar las conversaciones que hayas tenido con la AI de WhatsApp escribiendo el comando "/reset-all-ais" en una conversación.
Personalmente no compartiría demasiado con este robot.
Para más info, aqui info oficial del uso de AI en Whatsapp.
¿Qué podemos hacer los simples mortales?
Ahora que ya sabemos cómo manejan nuestros datos estas compañía, ¿qué podemos hacer para proteger nuestra privacidad? Aquí algunos consejos:
Lee las políticas de privacidad: Sí, sé que es seguramente la lectura más aburrida del mundo (a menos que seas abogado), pero pueden contener información importante sobre cómo se manejan tus datos. Consejo: si te da flojera leerlas - a quien no - cópialas y pégalas en un asistente de IA y pídele que te las explique.
Usa las opciones de privacidad: Si la plataforma ofrece opciones para proteger tu privacidad, como el "opt-out" de OpenAI o el comando de reinicio de Meta, ¡úsalas!
Sé consciente de lo que compartes: Evita compartir información sensible o personal con LLMs si no estás seguro de cómo se manejará. No le cuentes a la IA tus secretos más oscuros o el número de tu tarjeta de crédito.
Considera las versiones premium: Si realmente te preocupa la privacidad y puedes permitírtelo, considera usar versiones de pago que ofrezcan mayores protecciones de privacidad.
Usa diferentes asistentes para diferentes tareas: Por ejemplo podrías usar Claude para conversaciones más sensibles y ChatGPT para preguntas generales. Es como tener un amigo para los secretos y otro para los chismes inofensivos.
Borra tus conversaciones: En plataformas que lo permiten, como la IA de WhatsApp, borra regularmente tus conversaciones con la IA.
Mantente informado: El mundo de la IA evoluciona rápidamente. Mantente al día con las últimas noticias y desarrollos en privacidad de datos. (Sugerencia: sigue leyendo este blog para estar al día)
IA y privacidad: ¿Qué tanto saben nuestros asistentes virtuales?
Los LLMs se están volviendo cada vez más inteligentes y están apareciendo en cada parte de nuestras vidas. Es importante entender cómo manejan la información que compartimos con ellos. No se trata de entrar en pánico ni jurar que nunca más hablaremos con una IA (aunque conozco a algunos que preferirían eso), sino de ser usuarios informados y conscientes.
La IA es como una cuchilla suiza: puede hacer maravillas en nuestras vidas. Pero, igual que no usarías una cuchilla suiza para afeitarte, con la IA también hay que tener cuidado y usarla con responsabilidad.
Así que la próxima vez que converses con Claude, ChatGPT, la IA de WhatsApp o el asistente virtual de moda, recuerda que tal vez sea un agente secreto... y que podría estar reportando cada detalle a sus jefes ;)
Nos vemos! Germán
P.D.: No le cuentes a ChatGPT, pero creo que Claude se está convirtiendo en mi asistente favorito. Oops! Espero que esto no termine en el próximo modelo de OpenAI... Oh, wait...