
Nascosta nei termini di servizio di Microsoft per Copilot c’è una frase (sottolineata per giunta in grassetto) che farebbe sorridere un avvocato ma anche impallidire molti utilizzatori: “Copilot è solo per intrattenimento“. La clausola completa avverte che lo strumento può fare errori, potrebbe non funzionare come previsto e che gli utenti non dovrebbero affidarsi a Copilot per consigli importanti.
Chiunque abbia osservato team aziendali usare Copilot per ricerche legali, proiezioni finanziarie o revisioni di codice potrebbe restare interdetto di fronte a queste affermazioni. Da tempo Microsoft stessa integra lo strumento nei flussi di lavoro di Office 365 tutt’altro che banali. Il disclaimer ha tutti i tratti di uno scudo legale: una negazione delle responsabilità vestita da linguaggio semplice.
Si legge di seguito la clausola completa:
Copilot is for entertainment purposes only. It can make mistakes, and it may not work as intended. Don’t rely on Copilot for important advice. Use Copilot at your own risk.
Copilot è destinato esclusivamente a scopi di intrattenimento. Può commettere errori e potrebbe non funzionare come previsto. Non affidarti a Copilot per consigli importanti. L’utilizzo di Copilot è a tuo rischio e pericolo.
Come qualcuno fa notare, questa “prevenzione” da parte di Microsoft fa pensare che la stessa azienda stia usando queste clausole come scudo nel caso in cui qualcuno utilizzi nel modo sbagliato Copilot o prenda le informazioni che escono dall’LLM come “oro colato” causando ingenti danni agli utenti. Non molto tempo fa agent come ChatGPT hanno infatti suggerito come creare delle bombe o dato dei consigli medici carenti e possiamo benissimo pensare che in Copilot si voglia evitare ogni conseguenza legale a seguito dei consigli (giusti e non) dell’IA di casa Microsoft.
La paura di Microsoft non sarebbe comunque infondata, dato che abbiamo casi concreti di cause legali dovute all’IA: nel 2024, Air Canada è stata ritenuta responsabile perché il proprio chatbot aveva fornito informazioni errate su un rimborso, inducendo in errore un cliente. Il tribunale ha in quel caso stabilito che l’azienda resta comunque responsabile per quanto comunicato dall’IA.
Ma in tutto questo, come si comportano i concorrenti?
Gli altri grandi fornitori di IA hanno adottato un approccio diverso nei loro termini, prudenti ugualmente, ma meno evasivi. In entrambi i casi si dà per scontato che gli utenti usino questo potente strumento anche in ambiti lavorativi.
OpenAI afferma che non si dovrebbe fare affidamento sull’output dei loro modelli come unica fonte di verità o come sostituto di una consulenza professionale.
Anthropic invece incoraggia la valutazione e l’uso appropriato al contesto.
Come abbiamo recentemente sottolineato, l’utente è in primis il responsabile dell’output che produce (ma soprattutto di come lo usa). Se da una parte non possiamo restare “fermi” e ignorare l’IA e le notevoli migliorie che può portare al lavoro di tutti i giorni, in moltissimi ambiti, dall’altra parte dobbiamo sempre ragionare, validare e contestualizzare quello che apprendiamo durante le nostre conversazioni con questi agent.
Aggiungiamo che più uno strumento è fluente e convincente, più l’utente tende a fidarsi ciecamente. I modelli linguistici tendono infatti a compiacere chi li usa, modulando le risposte in base al tono e alle aspettative percepite nella domanda. Se si cerca una conferma, spesso si trova.
Un timido tentativo di porre dei limiti legali lo abbiamo visto con l’AI Act europeo, entrato in vigore nel 2024, classificando i sistemi di IA per livelli di rischio: quelli usati in sanità, giustizia o selezione del personale rientrano nella categoria “alto rischio” e devono rispettare requisiti stringenti di trasparenza e supervisione umana. In teoria, nessun LLM in questi ambiti potrebbe nascondersi dietro un disclaimer. In pratica, l’applicazione è ancora in rodaggio e molte aziende stanno ancora capendo cosa cambia davvero.
Resta comunque la domanda che ancora in molti casi non ha una risposta, ovvero: su chi puntiamo il dito quando qualcosa con l’IA va storto?
Red Team & Offensive Security Engineer
Parlo di sicurezza informatica offensive, Linux e Open Source























Lascia un commento