Saturday’s Talks: fermate tutto! Qualcuno si sta iniziando a chiedere se l’intelligenza artificiale sia pericolosa…

Una lunga squadra di CEO e rappresentanti di importanti aziende ed università del mondo I.T. (e non solo), capitanata dall’istituto Future of life, ha scritto una lettera aperta affinché gli sviluppi frenetici dell’intelligenza artificiale vengano interrotti per sei mesi.

We are currently concerned by four major risks. All four hinge on the development, use and governance of transformative technologies. We focus our efforts on guiding the impacts of these technologies.

Siamo preoccupati da quattro principali rischi. Tutti e quattro si riferiscono allo sviluppo, all’utilizzo ed alla gestione di tecnologie trasformative. Il nostro impegno è quello di guidare gli impatti di queste tecnologie.

Ed i quattro rischi riguardano quattro specifici ambiti:

  • Intelligenza artificiale
  • Biotecnologie
  • Armi nucleari
  • Cambiamento climatico

Mica roba da poco.

Sono sempre quattro le domande che si pongono gli autori:

  • Dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?
  • Dovremmo automatizzare tutti i lavori, compresi quelli soddisfacenti?
  • Dovremmo sviluppare menti non umane che alla fine potrebbero essere più numerose, superate in astuzia, obsolete e sostituirci?
  • Dovremmo rischiare di perdere il controllo della nostra civiltà?

Nei firmatari della lettera ci sono nomi di spicco, dal sempre solerte Elon Musk, fino a Steve Wozniak, così come altri nomi noti agli addetti ai lavori e semplici operatori del settore. Tutti uniti nel chiedere a tutti i laboratori AI di stoppare immediatamente di istruire sistemi AI più complessi di GPT-4, dandone prova, e chiedendo ai governi di intervenire laddove non fosse provata la buona volontà.

I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale, rigorosamente verificati e supervisionati da esperti esterni indipendenti.

Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano al sicuro oltre ogni ragionevole dubbio.

La lettere tiene a precisare come la richiesta non sia di una pausa nello sviluppo dell’IA in generale, ma semplicemente un passo indietro rispetto a quella che viene definita una pericolosa corsa a modelli black-box sempre più grandi e imprevedibili con capacità emergenti.

E fin qui la narrazione dei fatti.

Ne segue il giudizio che, per chi scrive facendo riferimento alle informazioni raggruppate sino ad oggi, è perplesso.

Che siano stati tutti shockati dalle foto di Papa Francesco generate dall’intelligenza artificiale che ha ingannato tutto, ma è stata prontamente smentita da Snopes nell’articolo This Is Not a Real Photo of the Pope in a Puffy Coat?

Eppure di deep fake si parla da ben prima di OpenAI e ChatGPT (ne abbiamo parlato nell’agosto 2020, in merito al Deepfake Detection Challenge lanciato da Facebook).

Che qualcuno abbia realizzato come il fatto che ChatGPT sia il progetto con la crescita di utenti più grossa della storia possa fare di Microsoft (di fatto proprietaria di ChatGPT) l’unico player nel mercato AI?

Eppure tra i firmatari della lettera ci sono numerosissime persone di Microsoft. Curiosamente nessun CEO/CTO/CIO e va fatto notare come, altrettanto curiosamente, Microsoft abbia dismesso il team che doveva occuparsi di etica, responsabilità e sostenibilità in ambito AI.

Quindi?

Perché la paura emerge oggi?

Perché sui telegiornali e nei siti di news non si parla del bug di ChatGPT che consente di rivelare lo storico, ed i dati personali e di fatturazione degli utenti e ci si concentra invece sul fatto che Elon Musk si è fatto promotore di questa “campagna”?

Davvero la priorità è dire fermate tutti perché altrimenti nascerà Skynet?

Oppure qualcuno si sente giù dal treno ed ha bisogno di tempo per risalirci?

Si accettano opinioni e pareri, dite la vostra!

Da sempre appassionato del mondo open-source e di Linux nel 2009 ho fondato il portale Mia Mamma Usa Linux! per condividere articoli, notizie ed in generale tutto quello che riguarda il mondo del pinguino, con particolare attenzione alle tematiche di interoperabilità, HA e cloud.
E, sì, mia mamma usa Linux dal 2009.

3 risposte a “Saturday’s Talks: fermate tutto! Qualcuno si sta iniziando a chiedere se l’intelligenza artificiale sia pericolosa…”

  1. Avatar amedeo lanza
    amedeo lanza

    Personalmente sono diffidente verso i social network e di come vengono sfruttati i dati degli utenti; se la tecnologia entra nella gestione di quei dati, implica delle questioni etiche riguardo il trattamento degli stessi. Lustri addietro persone geniali svilupparono metodi per piegare la tecnologia a scopi illeciti dallo scroccare telefonate a reati più gravi. Tecnologia delle comunicazioni, ingegneria sociale e la truffa è servita. Se un sistema è in grado di apprendere informazioni tramite i colloqui con gli utenti, sarà uno strumento utile a tante categoria come medici o assistenti ma lo sarà anche a chi lo voglia utilizzare con intenzioni meno benevole.

    L’industria ci ha già dimostrato come sia più interessata a vendere , legare il cliente e non spendere il necessario per sviluppare prodotti sicuri (qualcuno ha detto telecamere di sorveglianza IP?), ci aspettiamo che siano pronti per uno sfruttamento responsabile delle nuove tecnologie ?

    Fermare lo studio e lo sviluppo no, ma mettere dei paletti allo sfruttamento commerciale mi sembra opportuno e non vorrei che portasse a effetti simili all’introduzione delle calcolatrici: quanti sono capaci a calcolare al volo il resto al supermercato (sarà per questo che qualcuno vorrebbe eliminare i contanti?) ? Se i ragazzi si abituano ad utilizzare strumenti come chatGPT, potranno arrivare ad un punto in cui non sono in grado di acquisire informazioni accurate (vedi le prove effettuate da Paolo Attivissimo attivissimoDOTblogspotDOTcom/2023/03/podcast-rsi-debutta-chatgpt4-che.html) e di cui non hanno la più pallida idea di quali siano le fonti o di come interpretarle.

    Può generare del codice ma da dove lo prende ? indipendentemente dalle questioni sul copyright, come fa a sapere che il codice che propone non sia bacato ? se utilizzato per costruire un’applicazione complessa, lo sviluppatore si preoccuperà di aggiungere dei controlli per impedire che suggerisca codice malevolo o darà priorità allo sviluppo della nuova fantastica superflua funzionalità dal nome roboante che aggiunge un ulteriore buco nella sicurezza ?

  2. Avatar Raoul Scarazzini

    Il ragionamento che fai fila, ma l’obiettivo della lettera è fermare solo l’alimentazione, mica tutto il resto che citi. E quello che penso è che sia, magari non solamente, un modo mascherato da un’etica relativa per prendere tempo.

  3. Avatar carlo coppa
    carlo coppa

    Non ho capito cosa vorrebbero fermare di preciso, storicamente ogni tentativo di fermare il progresso è fallito miseramente e anzi ha avvantaggiato alcuni, magari bisognerebbe incominciare a governare il progresso senza farsi troppo prendere dalla paura.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *