STOCKHOLM – With hindsight, 2022 will be seen as the year when artificial intelligence gained street credibility. The release of ChatGPT by the San Francisco-based research laboratory OpenAI garnered great attention and raised even greater questions.
In just its first week, ChatGPT attracted more than a million users and was used to write computer programs, compose music, play games, and take the bar exam. Students discovered that it could write serviceable essays worthy of a B grade – as did teachers, albeit more slowly and to their considerable dismay.
ChatGPT is far from perfect, much as B-quality student essays are far from perfect. The information it provides is only as reliable as the information available to it, which comes from the internet. How it uses that information depends on its training, which involves supervised learning, or, put another way, questions asked and answered by humans.
The weights that ChatGPT attaches to its possible answers are derived from reinforcement learning, where humans rate the response. ChatGPT’s millions of users are asked to upvote or downvote the bot’s responses each time they ask a question. In the same way useful feedback from an instructor can sometimes teach a B-quality student to write an A-quality essay, it’s not impossible that ChatGPT will eventually get better grades.
This rudimentary artificial intelligence forces us to rethink what tasks can be carried out with minimal human intervention. If an AI is capable of passing the bar exam, is there any reason it can’t write a legal brief or give sound legal advice? If an AI can pass my wife’s medical-licensing exam, is there any reason it can’t provide a diagnosis or offer sound medical advice?
An obvious implication is more rapid displacement from jobs, compared to past waves of automation, and more rapid restructuring of surviving jobs. And the jobs that will be automated out of existence will not be limited to the low-skilled and low-paid.
Less obvious is who is safe from technological unemployment. What human traits, if any, will an AI be unable to simulate? Are those traits innate, or can they be taught?
The safest jobs will be those requiring empathy and originality. Empathy is the ability to understand and share the feelings and emotions of others. It creates the interpersonal compassion and understanding that are fundamental to social interactions and emotional well-being. It is especially valuable in circumstances and periods of difficulty. That’s why empathy is valued in religious leaders, caregivers, and grief counselors.
It is possible to imagine that, with the help of facial-recognition software, an AI can learn to recognize the feelings of its interlocutors (that it can learn what is known as “cognitive empathy”). But it can’t obviously share their feelings (it can’t learn “affective empathy”) in the same way that my wife, in her empathic moments, shares my feelings. Add that to the list of reasons why an AI can’t replace my wife, my doctor, or my rabbi.
There is no consensus about whether affective empathy can be cultivated and taught. Some argue that affective empathy is triggered by mirror neurons in the brain that can’t be artificially stimulated or controlled. Empathy is just something we experience, not something we can learn. It follows that some of us are better wired than others to be caregivers and grief counselors.
Other researchers suggest that this emotional response can indeed be taught. There is even a training company for medical clinicians called Empathetics, Inc. If true, it may be possible that more people can be prepared for automation-safe jobs where affective empathy is required.
But if humans can learn affective empathy, then why can’t algorithms? The idea that jobs requiring affective empathy will remain safe from automation assumes that people can distinguish true empathy from the simulation.
Originality means doing something that hasn’t been done previously, for example, creating a painting, composition, or newspaper commentary wholly unlike what has come before. Originality is distinct from creativity, which involves combining pre-existing elements in novel ways.
Another OpenAI product, DALL•E, is able to generate sophisticated images from text descriptions (“a painting of an apple” or “the ‘Mona Lisa’ with a mustache”). This has created some consternation among artists. But are its responses, derived using a large dataset of text-and-image pairs, original artwork?
It is questionable whether they are original in the sense of portraying an aesthetically pleasing image unlike any seen before, as opposed to combining existing visual elements associated with existing text. Artists who trade on originality may have nothing to fear, assuming of course that viewers can distinguish original artwork from the rest.
Again, there is no consensus on whether originality is inborn or can be taught. The answer, most likely, is: a bit of both.
How worried should we be? Type “Write an 800-word commentary on AI for Project Syndicate” into ChatGPT and judge for yourself.
Simpatia per l’algoritmo,
di Barry Eichengreen [1]
STOCCOLMA – Retrospettivamente, il 2022 verrà considerato l’anno nel quale l’intelligenza artificiale ha guadagnato una credibilità diffusa. Il lancio del ChatGPT [2] da parte del laboratorio di ricerca OpenAI con sede a San Francisco ha attirato grande attenzione ed sollevato domande persino maggiori.
Solo in poche settimane, ChatGPT ha attratto più di un milione di utilizzatori ed è stato usato per scrivere programmi per computer, comporre musica, partecipare a giochi e sostenere esami di abilitazione per avvocati. Gli studenti hanno scoperto che esso può scrivere componimenti utilizzabili meritevoli di una seconda categoria – lo stesso hanno fatto gli insegnanti, sebbene più lentamente e con comprensibile rammarico.
ChatGPT è lungi dall’essere perfetto, così come i compiti di seconda categoria di uno studente sono lungi dall’essere perfetti. Le informazioni che esso fornisce sono affidabili quanto le informazioni generalmente disponibili che provengono da internet. Il modo in cui esso usa quelle informazioni dipende dal suo addestramento, che comprende “l’apprendimenti supervisionato”, ovvero, per dirla in altro modo, le domande vengono poste ed hanno risposte dagli umani.
I pesi che ChatGPT attribuisce alle sue possibii risposte dipendono dall’apprendimento ‘di rinforzo’, dove sono gli umani a classificare la risposta. Ai milioni di utilizzatori di ChatGPT viene chiesto di approvare o di dare un giudizio negativo sulle risposte ogni volta che pongono una domanda. Nello stesso modo in cui un utile riscontro da parte di un istruttore può talvolta insegnare ad uno studente di seconda categoria a scrivere un tema di prima categoria, non è impossibile che ChatGPT alla fine ottenga classificazioni migliori.
Questa rudimentale intelligenza artificiale ci spinge a ripensare quali compiti possano svolti con il minimo intervento umano. Se una Intelligenza Artificiale è capace di superare un esame di abilitazione per avvocati, c’è qualche ragione per la quale essa non possa scrivere un parere legale o non possa offrire un buon consiglio legale?
Una conseguenza evidente sarebbe una più rapida rimozione dai posti di lavoro, a confronto con le passare ondate di automazione, e una ristrutturazione più rapida dei posti di lavoro residui. E i posti di lavoro che verrebbero liquidati dall’automazione non sarebbero limitati a quelli di modesta competenza e di bassi compensi.
Meno evidente è chi sia al sicuro dalla disoccupazione tecnologica. Quali tratti umani, se ne resta qualcuno, l’Intelligenza Artificiale sarà incapace di simulare? Tali tratti sono innati, o possono essere insegnati?
I posti di lavoro più sicuri saranno quelli che richiedono empatia e originalità. L’empatia è la capacità di comprendere e di condividere i sentimenti e le emozioni degli altri. Essa determina interpersonale benevolenza e comprensione che sono fondamentali nelle interazioni sociali e nel benessere emotivo. Essa è particolarmente apprezzabile nelle circostanze e nei periodi di difficoltà. Questa è la ragione per la quale è apprezzata nei leader religiosi, in coloro che forniscono assistenza e nei terapeuti.
È possibile immaginare che, con l’aiuto di un software di riconoscimento facciale, una Intelligenza Artificiale possa insegnare a riconoscere i sentimenti dei propri interlocutori (che possa insegnare quella che è nota come “empatia cognitiva”). Ma essa ovviamente non può condividere i loro sentimenti (non può insegnare “l’empatia affettiva”) nello stesso modo nel quale mia moglie, nei suoi momenti empatici, condivide i miei sentimenti. Il che può essere aggiunto alla lista delle ragioni per le quali una Intelligenza Artificiale non può sostituire mia moglie, il mio dottore o il mio rabbino [3].
Non c’è unanimità sul punto se l’empatia affettiva possa essere praticata e insegnata. Alcuni sostengono che l’empatia affettiva viene innescata da ‘neuroni specchio’ nel cervello che non possono essere artificialmente stimolati o controllati. L’empatia è precisamente qualcosa di cui facciamo esperienza, non qualcosa che possiamo insegnare. Ne consegue che alcuni di noi sono meglio attrezzati di altri per fornire assistenza e sostenere le persone che soffrono.
Altri ricercatori suggeriscono che in effetti la risposta emotiva può essere insegnata. Esiste persino una società di formazione per medici specialisti che è chiamata Empathetics, Inc. Se fosse vero, sarebbe possibile che più persone possano essere preparate per posti di lavoro nei quali è richiesta empatia, al sicuro dall’automazione.
Ma se gli umani possono insegnare l’empatia affettiva, allora perché non potrebbero gli algoritmi? L’idea che i posti di lavoro che richiedono empatia affettiva resteranno al sicuro dall’automazione, considera che le persone possano distinguere la vera empatia dalla simulazione.
L’originalità significa fare qualcosa che non è stato fatto in precedenza, creare una pittura, un componimento, o un commento giornalistico interamente diverso da ciò che esisteva prima. L’originalità è distinta dalla creatività, che riguarda il combinare elementi preesistenti in modi innovativi.
Un altro prodotto di OpenAI, DALL•E, è capace di generare immagini sofisticate da descrizioni di testo (“una pittura di una mela” oppure “la ‘Mona Lisa’ con i baffi”). Questo ha creato un po’ di costernazione tra gli artisti. Ma le sue risposte, derivate da un ampio complesso di dati di accoppiamenti di testi e di immagini, sono opere d’arte originali?
È dubbio che esse siano originali nel senso di ritrarre immagini esteticamente piacevoli diverse da da tutto quanto visto in precedenza, piuttosto che combinare elementi visivi associati con testi esistenti. Gli artisti che sfruttano l’originalità possono non avere niente da temere, ipotizzando ovviamente che gli osservatori possano distinguere un’opera d’arte originale da tutto il resto.
Anche in questo caso, non c’è unanimità se l’originalità sia innata o possa essere insegnata. Probabilmente, la risposta è: un po’ di entrambi.
Quanto dovremmo essere preoccupati? Battete su ChartGPT: “Scrivi un commento di 800 parole sull’Intelligenza Artificiale per Project Syndicate” e giudicate voi stessi.
[1] Mi è stato spiegato, e in effetti il collegamento è evidente, che il testo dell’articolo deriva da uno dei brani più celebri dei Rolling Stones: “Simphaty for the devil” (anno 1968). Il testo della canzone può essere considerato una composizione di Mike Jagger e probabilmente l’idea gli venne dal libro di Michail Bulgakov “Il maestro e Margherita”, dove il diavolo viene descritto come un affabile personaggio della società moscovita. Le parole iniziali del testo riecheggiano quelle del racconto («Per favore permettetemi di presentarmi, sono una persona facoltosa e di classe») e vari altri passaggi lo confermano. Il senso generale del brano è che, in fondo, Lucifero è in ognuno di noi.
Sostituendo il Diavolo con l’algoritmo, Eichengreen in modo scherzoso assume verso quest’ultimo un approccio bulgakoviano, un po’ incerto tra la simpatia e il timore verso qualcosa, in fondo, di diabolico.
[2] ChatGPT è il nuovo modello sviluppato da OpenAI e fa parte dei modelli GPT-3 (Generative Pre-trained Transformer 3). Sono modelli di intelligenza artificiale basati sul machine learning non supervisionato. Funzionano utilizzando una tecnica di deep learning nota come transformer, che consiste nell’utilizzare una rete neurale per analizzare e comprendere il significato di un testo. ChatGPT nello specifico fa parte della famiglia degli InstructGPT, quindi modelli formati tramite deep learning ma poi ottimizzati tramite il rinforzo umano.
[3] Probabilmente Barry Eichengreen è di religione ebraica. Quello che è noto è che sua madre, Lucille Eichengreen è una sopravvissuta dell’Olocausto. Più precisamente Lucille Eichengreen, nata Cecelia Landau, è miracolosamente sopravvissuta a dodici anni di ghetti e a tre campi di concentramento (Lódz, Auschwitz, Neuengamme e Bergen-Belsen) fino alla liberazione di Bergen-Belsen. Emigrò negli Stati Uniti nel 1946.
By mm
E' possibile commentare l'articolo nell'area "Commenti del Mese"