-- Leo's gemini proxy

-- Connecting to omg.pebcak.club:1965...

-- Connected

-- Sending request

-- Meta line: 20 text/gemini;lang=en

questo post è il terzo di una serie, gli scritti precedenti sono elencati qui sotto:



parte 1

parte 2

parte 3



Rispetto al contenuto dei post precedenti cosa si può dire di programmi come ChatGPT-3?



Si tratta di un programma che è intelligente? Che comprende? Che possiede un coscienza di sé?



Oppure si tratta soltanto di un algoritmo molto sofisticato (forse non abbastanza¹ o non nella maniera giusta²) che risponde ad una domanda con una frase quelle che più comunemente sono scelte come risposta?



La risposta a mio avviso è molto semplice. Alla domanda: "L'attore di fronte a me, con il quale interagisco è intelligente/ha coscienza di sé?" deve e può rispondere solo chi la domanda l'ha posta non chi viene interrogato. Un entità, voglio dire, è intelligente se appare all'interlocutore intelligente (come faceva Carlo nel dialogo fittizio presentato nel primo post). D'altronde le persone che vi stanno accanto sono intelligenti/hanno coscienza di sé? Se glielo chiedete vi risponderanno di sì. Esattamente come un qualunque programma non più elaborato di Eliza. Però, sono certo, che non abbiate dubbi su chi vi stia mentendo. Ma la vostra certezza non deriva dalla conoscenza dei meccanismi fisiologici che generano la mente semplicemente perché nessun essere umano conosce (ancora) tali meccanismi. È una vostra profonda convinzione che nasce da un pregiudizio: se riesco a comunicare con questo interlocutore fino ad un livello tale da lasciar immaginare che i suoi meccanismi di funzionamento mentale siano paragonabili ai miei allora attribuirò all'interlocutore le stesse caratteristiche della mia mente.



Da quando consideriamo i cani intelligenti, e i piccioni? Ad un certo punto — a causa di certe convinzioni molto diffuse — queste creature sono diventate portatrici di un pensiero e di una coscienza (e benché molto differenti da noi fisicamente!). Ma allora sono cambiati i piccioni o abbiamo cambiato idea noi? E che ne pensiamo dei moscerini della frutta?



E allora come classificare ChatGPT-3? È intelligente oppure non lo è? La mia risposta è che lo sarà finché gli attribuiremo tali caratteristiche e — vista la sua natura peculiare — gli attribuiremo tale caratteristiche finché attribuiremo autorevolezza alle sue risposte.



Finché, quindi, crederemo che le sue affermazioni siano vere: prese da fonti affidabili, e chiare nella loro espressione³ penseremo che sì, sia abbastanza simile a noi da avere processi mentali simili.



Appena verrà meno tale condizione diventerà semplicemente l'ennesimo programma che: "non comprende veramente".



Se vi sembra tutto troppo inverosimile permettetemi di scrivere che questo tipo di autorevolezza più di una IA può fregiarsene: si tratta dei motori di ricerca. Non ci è mai capitato che nel dirimere una questione l'altra persona abbia battuto le dita sul proprio telefono e mostrando il risultato della ricerca (talvolta neanche un sito internet risultato della ricerca, ma proprio una riposta elaborata dal motore di ricerca stesso), abbia con questo creduto di risolvere la diatriba: "Ecco, vedi! I pinguini vivono al polo nord!"



Certo, il motore di ricerca non ci sembra cosciente perché non risponde col linguaggio naturale (o con un linguaggio naturale particolarmente ricco), non capisce frasi particolarmente complesse, e non manifesta sentimenti. In sostanza non genera empatia, ma cosa succederebbe se integrassero ChatGPT-3 in un motore di ricerca⁵?



Però io sono pessimista.



Siamo in una fase in cui il marketing sta spingendo molto queste tecnologie, anche perché ci sono stati generosi investimenti in questo campo e gli investitori vorrebbero rivedere indietro i loro soldi, possibilmente generosamente incrementati rispetto alla cifra investita.



Eppure io mi sbaglierò ma la situazione mi sembra simile al primo "inverno della IA", fenomeno accaduto intorno ai primi anni '90 del secolo scorso. Anche li vennero fuori delle tecnologie parecchio interessanti (erano i sistemi di regole allora, come le reti neurali adesso) che promettevano grande innovazione, ma le promesse non vennero mantenute e il tutto si risolse con una grande bolla che — scoppiando — si portò appresso aziende e affossò la ricerca in questo campo per un bel periodo (tanto che si dovette cambiare nome alla disciplina, ribattezzandola: "Machine Learning").



In più, rispetto alla GOFAI (l'IA alla vecchia maniera) i modelli utilizzati producono delle scatole nere imperscrutabili all'essere umano, inoltre sono piene di parametri empirici non giustificati dal modello stesso, in sostanza nessuno sa perché funzionino⁴.



Sarà certamente pura aneddotica, ma vedo una serie di post sui social network che dopo i primi entusiasmi nei quali riportavano le sagaci risposte dell'IA, adesso ne riportano gli errori. Non vorrei che di nuovo ci toccherà indossare un metaforico cappotto ed aspettare che passi il nuovo inverno che sta arrivando.



Ciao!

C.



¹ talvolta da risposte palesemente in contrasto con fatti verificati o noti (tipo sbagliare il risultato di un addizione tra due numeri).

² probabilmente ci sono alcuni argomenti che sono considerati non elaborabili da parte di chi lo ha programmato, sarebbe un'ulteriore conferma che la tecnica riproduce l'ideologia di chi l'ha prodotta.

³ cioè finché l'IA ci serve.

⁴ e non invidio i poveri programmatori che devono lavorarci!

⁵ non che sia entusiata di questo scenario.



#IA

indietro

-- Response ended

-- Page fetched on Thu Jun 13 22:13:54 2024