La intel·ligència artificial està revolucionant la manera com treballem, amb eines com ChatGPT i Claude que s’han convertit en instruments fonamentals per a molts professionals. Tanmateix, quan es tracta d’informació sensible i dades personals, és crucial entendre les implicacions de privacitat que comporta el seu ús. Són molts els clients que ens plantegen qüestions respecte a la privacitat i si es fa un ús indegut, així que avancem amb els dos proveïdors més comuns.
Polítiques de privacitat: OpenAI (ChatGPT) vs Anthropic (Claude)
ChatGPT i la recopilació de dades
OpenAI, l’empresa darrere de ChatGPT, manté una política exhaustiva de recopilació de dades personals. Pel que fa a la informació del compte, el sistema emmagatzema les dades bàsiques de l’usuari, incloent-hi el nom, el contacte, la data de naixement i la informació de pagament, juntament amb tot l’historial de transaccions associat.
El contingut de l’usuari és un altre aspecte fonamental de la recopilació de dades. Això inclou la totalitat de les converses mantingudes amb el sistema, qualsevol fitxer o imatge compartida, i tota informació addicional proporcionada durant l’ús del servei. És a dir, tot el que escrivim, tret que indiquem el contrari, pot ser utilitzat per entrenar el sistema, encara que es comprometen a anonimitzar les dades amb IA.
Claude i el seu enfocament en la privacitat
Anthropic ha adoptat un enfocament significativament diferent pel que fa a la privacitat dels usuaris. La característica més destacable és el seu compromís de no utilitzar les converses per a l’entrenament de futurs models, garantint que tant els inputs com els outputs es mantinguin estrictament privats. Aquesta política es complementa amb un sistema de retenció de dades més restrictiu i una major transparència sobre l’ús de la informació. Sembla que l’usuari no entrega les seves dades per entrenar el sistema, sigui usuari de pagament o no.
Ús de les dades per a l’entrenament
La versió estàndard de ChatGPT permet que les converses siguin revisades per l’equip d’OpenAI i utilitzades per a l’entrenament de futures versions del model. Per abordar les preocupacions de privacitat, OpenAI ofereix ChatGPT team o enterprise, versions empresarials que no utilitzen les dades per entrenament i proporcionen un major control sobre la informació compartida.
Claude, per la seva banda, garanteix per defecte que cap conversa serà utilitzada per entrenament, sense necessitat de subscripcions especials. Aquest enfocament centrat en la confidencialitat des del disseny representa un avantatge significatiu per als usuaris preocupats per la privacitat i la gestió de dades confidencials.
Recomanacions per a l’ús professional
La selecció d’una plataforma d’IA ha de basar-se en una avaluació acurada de les necessitats de privacitat específiques de cada organització.
La implementació de mesures de protecció adequades és crucial. Per als usuaris de ChatGPT que gestionen informació sensible, la subscripció team pot ser necessària, mentre que els usuaris de Claude es poden beneficiar de les garanties de privacitat incorporades per defecte.
No obstant això, recomanem precaució davant qualsevol situació, ja que els sistemes tipus black box poden donar alguna sorpresa desagradable mitjançant prompt hacking.
Conclusions
La diferència fonamental entre ambdues plataformes rau en el seu enfocament a la privacitat. ChatGPT requereix una subscripció especial (team) per garantir que les dades no s’utilitzin en l’entrenament, o fer un opt-out, mentre que Claude ofereix aquestes garanties de manera predeterminada en totes les seves versions.
És necessari trobar l’equilibri entre aprofitar els avantatges de la IA i mantenir la seguretat de la informació. Amb les mesures adequades i un enfocament conscient en la privacitat, aquestes eines poden ser utilitzades de manera segura en entorns professionals.
Si té algun dubte o considera que el seu contingut podria haver estat afectat per alguna política, no dubti en posar-se en contacte amb el nostre bufet. A Navas & Cusí, comptem amb advocats especialitzats en intel·ligència artificial, preparats per assessorar-lo en aquest tipus de conflictes.
Nota: Aquest article està fet amb la política de privacitat per a Europa al novembre de 2024. Qualsevol anàlisi s’haurà de fer específicament.