La inteligencia artificial está revolucionando la forma en que trabajamos, con herramientas como ChatGPT y Claude convirtiéndose en instrumentos fundamentales para muchos profesionales. Sin embargo, cuando se trata de información sensible y datos personales, es crucial entender las implicaciones de privacidad que conlleva su uso. Son muchos los clientes que nos realizan cuestiones respecto a la privacidad y si hacen un uso indebido, así que vamos adelante con los dos proveedores más comunes
Políticas de privacidad: OpenAI (ChatGPT) vs Anthropic (Claude)
Chatgpt y la recopilación de datos
OpenAI, la empresa detrás de ChatGPT, mantiene una política exhaustiva de recopilación de datos personales. En lo referente a la información de cuenta, el sistema almacena los datos básicos del usuario, incluyendo nombre, contacto, fecha de nacimiento e información de pago, junto con todo el historial de transacciones asociado.
El contenido del usuario es otro aspecto fundamental de la recopilación de datos. Esto incluye la totalidad de las conversaciones mantenidas con el sistema, cualquier archivo o imagen compartida, y toda información adicional proporcionada durante el uso del servicio. Es decir, todo lo que escribimos, salvo que señalemos lo contrario, pueden usarlo para entrenar su sistema, aunque se comprometen a anonimizar los datos con AI
Claude y su enfoque en la privacidad
Anthropic ha adoptado un enfoque significativamente diferente en cuanto a la privacidad de los usuarios. La característica más destacable es su compromiso de no utilizar las conversaciones para el entrenamiento de futuros modelos, garantizando que tanto los inputs como los outputs permanezcan estrictamente privados. Esta política se complementa con un sistema de retención de datos más restrictivo y una mayor transparencia sobre el uso de la información. Parece que el usuario no entrega sus datos para entrenar al sistema, siendo indiferente que sean usuarios de pago o no.
Uso de los datos para entrenamiento
La versión estándar de ChatGPT permite que las conversaciones sean revisadas por el equipo de OpenAI y utilizadas para el entrenamiento de futuras versiones del modelo. Para abordar las preocupaciones de privacidad, OpenAI ofrece ChatGPT team o enterprise, versiones empresariales que no utiliza los datos para entrenamiento y proporciona un mayor control sobre la información compartida.
Claude, por su parte, garantiza por defecto que ninguna conversación será utilizada para entrenamiento, sin necesidad de suscripciones especiales. Este enfoque centrado en la confidencialidad desde el diseño representa una ventaja significativa para usuarios preocupados por la privacidad y facilidad para gestionar datos confidenciales
Recomendaciones para el uso profesional
La selección de una plataforma de IA debe basarse en una evaluación cuidadosa de las necesidades de privacidad específicas de cada organización.
La implementación de medidas de protección adecuadas es crucial. Para usuarios de ChatGPT que manejan información sensible, la suscripción team puede ser necesaria, mientras que los usuarios de Claude pueden beneficiarse de las garantías de privacidad incorporadas por defecto.
No obstante, recomendamos cautela ante cualquier situación ya que los sistemas tipo black box pueden dar alguna sorpresa desagradable mediante prompt hacking.
Conclusiones
La diferencia fundamental entre ambas plataformas radica en su aproximación a la privacidad. Chatgpt requiere una suscripción especial (team) para garantizar que los datos no se utilicen en el entrenamiento, o hacer opt-out, mientras que Claude ofrece estas garantías de manera predeterminada en todas sus versiones.
Es necesario encontrar el equilibrio entre aprovechar las ventajas de la IA y mantener la seguridad de la información. Con las medidas adecuadas y un enfoque consciente en la privacidad, estas herramientas pueden ser utilizadas de manera segura en entornos profesionales.
Si tiene alguna duda o considera que su contenido podría haberse visto afectado por alguna política, no dude en ponerse en contacto con nuestro bufete. En Navas & Cusí, contamos con abogados especializados en inteligencia artificial, preparados para asesorarle en este tipo de conflictos
Nota: Este artículo está hecho con la política de privacidad para Europa en noviembre de 2024. Cualquier análisis se deberá hacer específicamente.