Ancora su ChatGPT di OpenAI: ecco perché questo BOT non vi toglierà il lavoro (almeno non per ora)

Il 2022 è stato decisamente l’anno dell’intelligenza artificiale, nel senso più o meno stretto del termine. Diversi algoritmi hanno infatti già fatto parlare di sé per la generazione di immagini, brani musicali, facce, codice e persino video HD. Non sappiamo cosa ci riservi il futuro, ma la direzione è chiara ed è inutile opporsi a un trend così netto: gli algoritmi ci regaleranno presto un nuovo modo di fare le cose e di apprezzare arte che nessun umano era stato in grado di produrre prima, poiché il pensiero umano tende a incanalarsi su binari predefiniti.

Non sono mancate critiche, proteste e i dovuti timori anche sul fatto che ciò possa togliere posti di lavoro, ma è davvero un timore fondato?

Abbiamo fatto diverse prove, in questi giorni, chiedendo a ChatGPT qualunque cosa. E’ vero, i risultati sono stati spesso di forte primo impatto e con grande effetto “wow”, ma chiunque abbia lavorato nell’IT in ambienti critici rabbrividirebbe all’idea di eseguire del codice che non comprende o che non ha ricontrollato in prima persona. Del resto, se il codice fa danni, ne siamo responsabili noi e se non funziona o è scritto male, saremo noi a perderci del tempo per rettificare.

Sarebbe lungo parlarvi nel dettaglio di ogni risultato e potete sbizzarrirvi a provare voi stessi ma, in estrema sintesi, abbiamo ottenuto playbook Ansible, codice Puppet, script in Bash e Python che, in linea di massima, erano corretti o vicini alla soluzione banale.

Dove sta, allora, il problema? Vediamo di capire perché, secondo noi, non toglierà posti di lavoro ma, anzi, potrebbe generarne di nuovi.

Cominciamo col dire che il codice che ci è capitato di leggere contiene a volte degli errori logici. Nei nostri test, si tratta spesso di omissioni. A volte perdonabili, a volte no e che, forse, sarebbero state incluse se le avessimo menzionate esplicitamente. Difficile a dirsi, tuttavia si tratta di un grosso problema poiché alcuni di questi errori logici possono passare inosservati, generare problemi anche di sicurezza e, in generale, richiedere che l’utilizzatore di AI sappia ciò che sta facendo e conosca già che aspetto dovrà avere il codice che va scritto.

Stando così le cose, ci troviamo nella situazione del gatto che si morde la coda.

La qualità delle risposte generate riflette ciò che già esiste, in quanto il modello GPT è addestrato su ciò che è stato già scritto sul web e non produce, quindi, ragionamenti o approcci nuovi e creativi. Almeno per adesso, è un’esperienza molto simile al leggere dalle documentazioni ufficiali e prendere spunto da esempi di codice su vari siti web come Stackoverflow e Github, seppur risparmiandoci molto tempo.

Manca spesso un ragionamento da sviluppatore umano, ovvero quella lungimiranza e corretta implementazione del codice che mira a renderlo facilmente adattabile a future esigenze e facilmente modificabile per accogliere nuove feature.

Analogamente, manca qualsiasi riferimento al perché si sia scelto un approccio al posto di un altro e, quindi, non si è mai certi se quella risposta generata stia tenendo conto di elementi come ad esempio la complessità computazionale della risposta o, più banalmente, il suggerimento di cosa sarebbe più opportuno implementare al posto della richiesta appena fatta.

Del resto, l’AI fa ciò che gli si chiede di fare ma essa, nel bene e nel male, non giudica. Essa si sforza di rispondere come risponderebbe una persona media in base a ciò che si trova già scritto sul web e nulla più.

Almeno per ora, non vi è AI che sia in grado di fare ragionamenti di così alto livello da consigliarvi o sconsigliarvi qualcosa, proporvi spontaneamente una soluzione migliore, capire se ciò che volete fare ha senso da un punto di vista progettuale o, in generale, darvi la sensazione che si tratti di una vera e propria intelligenza.

La situazione, per intenderci, non è così diversa dall’usare Google Maps in una grande città in cui non si era mai stati prima e, seppur meglio di niente, chiunque ci abbia provato sa bene quanto ciò non sia neanche lontanamente paragonabile ad avere una persona accanto che in quella città ci viva.

Insomma, mentre vi divertirete provando a far fare il vostro lavoro all’AI, arriverete con tutta probabilità alla nostra stessa conclusione: non v’è nulla da temere. L’autopilota nel trasporto aereo non ha rimosso l’esigenza di avere dei piloti umani pronti a prendere il controllo e Stack Overflow non ha sostituito i programmatori ma, anzi, si è rivelato uno strumento che rende il mestiere meno tedioso e aumenta la produttività.

Si parla già, ad esempio, di integrare ChatGPT con il motore di ricerca Microsoft Bing e, quindi, ci aspettiamo che diventerà presto uno dei tanti strumenti che usiamo nella nostra quotidianità non come sostituto ma come aiuto, insieme alle note risorse sul web che già esistono, utilizzate ogni giorno dai professionisti di qualunque settore.

Insomma, anche se l’AI diventerà parte integrante delle nostre vite, al posto vostro staremmo tranquilli: forse un giorno l’AI prenderà il sopravvento ma quel giorno è ancora lontano.

Appassionato di Linux e della cultura open-source da vent'anni, continuo a fare del mio meglio per diffondere tale filosofia e soprattutto condividere la conoscenza.

C'è sempre qualcuno, laffuori, che sta avendo un problema che tu hai già risolto e, condividendo la soluzione, puoi fare la differenza.

Se quel qualcuno sei tu, chiedi pure alla community. La trovi ovunque, ad esempio su reddit.com/r/italyinformatica, reddit.com/r/debian, reddit.com/r/ubuntu, reddit.com/r/archlinux, reddit.com/r/linux, sui forum specifici delle distro come https://bbs.archlinux.org/ oppure puoi consultare direttamente le wiki, come ad esempio quella di Arch a https://wiki.archlinux.org/title/Table_of_contents.

Perchè nessun problema andrebbe risolto più di una volta.

Tags: , ,