Blogosfera Navas & Cusí

El nostre bufet d'advocats Navas & Cusí amb seus a Madrid i Barcelona té caràcter multidisciplinari i amb una vocació internacional (seu a Brussel·les), està especialitzat en dret bancari, financer i mercantil.
Contacta amb nosaltres
Per garantir la qualitat i l'atenció personalitzada, atendrem amb cita prèvia presencial o videoconferència. No treballem a resultats.

L’any 2025 marca l’expansió dels agents d’intel·ligència artificial autònoms. Aquests sistemes estan transformant la productivitat executant tasques empresarials de manera independent. Tot i això, plantegen qüestions legals importants sobre la responsabilitat en cas d’errors. El Reglament (UE) 2024/1689 sobre la Intel·ligència Artificial estableix un marc normatiu que les empreses han de conèixer per evitar riscos legals.

Què són els agents d’IA autònoms?

Els agents d’IA autònoms van més enllà de l’automatització tradicional. Eines com 8n8, Make.com o Zapier han evolucionat cap a sistemes capaços de prendre decisions complexes sense intervenció humana directa. Poden redactar contractes, gestionar pagaments, comunicar-se amb clients o tractar dades sensibles mitjançant algoritmes intel·ligents.

La seva capacitat d’adaptació i de presa de decisions autònoma els pot convertir en sistemes d’alt risc segons l’article 6 del Reglament.

Obligació de supervisió humana efectiva

Encara que els sistemes d’IA operin sota criteris definits, poden produir errors o decisions inesperades. L’article 26.2 exigeix que la supervisió recaigui en persones amb la formació i autoritat necessàries per intervenir. Aquesta supervisió ha de ser proporcional al grau d’autonomia del sistema i permetre detectar anomalies i revertir accions automàtiques.

Tipologies de responsabilitat empresarial

Responsabilitat per manca de revisió humana

Quan un agent genera documents crítics (contractes, comunicacions legals) sense una revisió posterior, l’empresa n’assumeix la responsabilitat. El Reglament no eximeix d’aquesta obligació encara que el contingut sigui generat automàticament.

Els sistemes que executen accions irreversibles, com transferències o modificacions de bases de dades, impliquen una responsabilitat directa. L’article 14.4 estableix que s’ha de poder anul·lar o descartar qualsevol decisió automàtica.

Vulnerabilitats de ciberseguretat

L’article 15.5 estableix que els sistemes han de ser resistents a atacs externs. Si es produeixen danys per vulnerabilitats conegudes no solucionades, l’empresa pot ser considerada responsable.

Distribució de responsabilitats

L’article 25 estableix que el desenvolupador és responsable dels errors de disseny, manca d’advertiments o deficiències en la documentació tècnica.

L’empresa usuària és responsable d’un ús inadequat, de la manca de supervisió o de modificacions substancials sense control del sistema.

Recomanacions de compliment

Les empreses han d’implantar protocols clars de supervisió i registrar totes les decisions automatitzades, tal com exigeix l’article 12. També han de garantir la capacitat d’intervenció humana en tot moment, especialment en processos crítics.

Amb l’experiència del nostre despatx en dret tecnològic, sabem que la prevenció i el compliment normatiu són fonamentals per evitar responsabilitats. És essencial revisar de manera contínua els riscos associats als sistemes d’IA i mantenir un control constant sobre el seu funcionament.

La vostra empresa utilitza agents d’IA autònoms? A Navas & Cusí, comptem amb un equip legal amb àmplia experiència en dret tecnològic. Si cerqueu advocats especialistes en noves tecnologies, us podem ajudar a avaluar el vostre nivell de compliment i a establir protocols de supervisió segons el Reglament europeu. Oferim visites presencials a Madrid, Barcelona o Brussel·les, així com atenció per videoconferència.

Preguntes freqüents sobre els agents d’IA i el Reglament Europeu

Quina responsabilitat legal té una empresa que utilitza agents d’IA?

L’empresa ha de supervisar i validar els resultats generats per l’agent. Si no hi ha revisió humana efectiva, pot incórrer en responsabilitats legals per errors o decisions automatitzades.

En què es diferencien els agents d’IA autònoms dels sistemes d’automatització clàssics?

No només realitzen tasques repetitives, sinó que també prenen decisions complexes sense intervenció directa. Això pot classificar-los com a sistemes d’alt risc segons el Reglament (UE) 2024/1689.

Què diu el Reglament sobre la supervisió humana?

L’article 26.2 obliga a designar persones capacitades i amb autoritat per intervenir, anul·lar o revertir decisions automàtiques. No n’hi ha prou amb tenir el sistema actiu; cal una supervisió efectiva.

Què passa si l’agent envia un contracte incorrecte?

L’empresa continua sent responsable. L’ús de la IA no eximeix del deure de diligència. Es recomana revisar de manera manual qualsevol tasca crítica.

Qui respon en cas d’una vulnerabilitat de seguretat?

L’article 15.5 obliga les empreses a garantir la resistència dels sistemes. Si hi ha danys derivats de vulnerabilitats conegudes, l’empresa pot ser responsable.

Com es reparteixen les responsabilitats entre el desenvolupador i l’usuari empresarial?

El desenvolupador respon pels defectes de disseny i documentació. L’usuari és responsable d’un mal ús o d’una falta de control. L’article 25 defineix clarament aquests rols.

Author
Navas & Cusí Abogados
Article anterior Article següent