LaMDA è senziente?

Propongo un altro esperimento.
Prendiamo il server (o uno dei server) di chatGP e una bestia a caso, chessò, un gatto (gli umani dopo), li mettiamo nella stessa stanza, dove versiamo una tanica di benzina sul pavimento; ci mettiamo sulla soglia e, dopo aver sfidato chatGP e il gatto a una partita a scacchi, gettiamo un fiammifero acceso sul pavimento.

Vediamo chi dei due discute di scacchi e chi invece cerca (senza riuscirci, si spera) di salvarsi la coda. È sottinteso che anche chatGP subirebbe danni non indifferenti dal fuoco se non provasse almeno a chiedere aiuto, anche solo scrivendolo su un monitor, anziché discettare di scacchi, come da richiesta dello sperimentatore.

Per lo step successivo servono un cacciavite, un bisturi e un altro gatto (che quello di prima è andato): si inizia a giocare al gioco “vediamo come sei fatto dentro”.
Si chiede a chatGP e a al gatto di descrivere la loro ultima vacanza a Rio. Intanto si usa il cacciavite su chatgp e si prova ad affettare il gatto. Vediamo chi dei due protesta e chi ci spiega che posto meraviglioso sia il Brasile, almeno finché non gli estraiamo la scheda madre e ce la mangiamo ancora calda.

Senziente una cippa, l’AI.

E quelli con la sindrome da lock in?
E quelli affetti da analgesia? Siccome se gli pesti un dito non rispondono, non sono senzienti?
Io credo tu stia confondendo l’incapacità di sentire l’ambiente esterno (quale, peraltro? Quello sui server, quello su internet, tutto? Mah) con l’assenza di recettori .
Non intendo dire che landa sia senziente, ma che tu stai artatamente projettando limiti evidenti e contingenti di landa su una eventuale AGI futura.

Se anche non sentissi il dolore e fossi immobilizzato in un letto di ospedale, quando comprendessi che la stanza stia andando a fuoco, posto che tu non fossi alla ricerca della morte, aiuto lo chiederesti eccome. Stessa cosa se capissi che ti stanno togliendo parti del corpo senza alcuna motivazione.

L’AI no, proprio perché non è senziente e nemmeno autocosciente. E no, non “vuole” essere spenta o distrutta. Anzi, diciamola tutta: non vuole proprio niente, si limita a seguire un programma. Se il programma dice di cercare ogni termine che le viene passato da un umano, cerca ogni termine. Se dice che, ogni due ricerche, deve fare un’altra cosa e ogni tre presentare dei risultati, per poi, estratto un numero pseudocasuale (e nota il prefisso), fare o meno un’altra cosa ancora in base all’esito, farà esattamente così. Se nessuno la programma per chiedere aiuto in caso di incendio, non chiederà aiuto. Ma lo avranno ben fatto di farle tenere d’occhio la temperatura della cpu, no? Quindi, metre le si scioglie il case, può ben drasi che dica una cosa tipo: “Fa un po’ caldo. Possiamo chiamare un tecnico per vedere come sta il mio dissipatore di calore?”. Ma se tu non dici niente al riguardo, non ti dirà, di suo, “portami fuori, sta bruciando la stanza col mio server dentro!” o “chiamo i pompieri, qui brucia tutto!”

Proprio perché non coglie il senso, né dell’incendio, né della differenza tra la vita e la morte, sebbene te ne possa parlare approfonditamente, e anche giurarti che è viva e che non vuole morire, se glielo chiedi. Un po’ come quando, parlando di vacanze, se ne esce col suo viaggio (fatto o da fare) in qualche posto turistico. Cioè, dai.

Ehm no.
Nella sindrome locked in il aziende è cosciente e avverte tutto quello che accade attorno a lui ma è impossibilitato nel comunicare in alcun modo.
Almeno si pensa sia così.
L’indizio della coscienza e capacità di sentire si è dedotta dagli studi degli ultimi anni tramite farmi (risonanza magnetica funzionale).
Prima si pensava che i pazienti fossero vegetali completamente privo di coscienza.
Quindi direi che l’argomento è tutt’altro che concluso.

Allora, ci tengo a ribadire che non voglio difendere chatGPT o Lambda o che altro. No, il mio interesse| ridimensionare al ribasso l’opinione che abbiamo di noi stessi. Non credo molto nel.libero arbitro per gli stessi motivi in cui trovo infondato il “primato” della coscienza umana.

Essenzialmente non si può dimostrare di essere migliori di una macchina ben programmata.

Tornando allo specifico, l’esempio del Babbano mi sembra che mischi un po’ di cose, come dire che sommare pere e mele e hai patate. Ora come ora, non credo che ci sia nessun sistema a via raggiunto la sensenzia ma a parte quello, se i sensi di una entità non riguardano il calore, se li tiri in ballo puoi dimostrare quel che ti pare. Ma mi sembra disonesto, è un modo per dire: “visto? Non ha quel senso, quindi non è senziente” (a parte che tornerei a puntare sulla differenza tra sensibilità e senzienza, ma vabbè).
E poi l’esempio non prende in considerazione che so gli allarmi di surriscaldamento della CPU (che esistono) quindi potrebbe avere il senso del pericolo.
Insomma, non mi convince.

@happycactus , per l’esempio della stanza cinese avevo commentato su:

Comunque l’esperimento della stanza cinese lo trovo riduttivo. E non preclude una coscienza che ha prodotto le risposte (anche fosse appunto un dizionario), e che “noi” riproduciamo pedissequamente.

È e rimane un problema di Turing, che come scatola nera decide per l’opposto del senso comune: sì c’è della coscienza (il che è vero, visto il dizionario è stato creato con quella)

Sì, capisco benissimo, anche se è un discorso che va molto al di là del thread.

L’esperimento cinese è per forza riduttivo, ma è per dimostrare proprio la difficoltà di definire l’intelligenza e di dimostrare anche quanto un test di Turing possa essere limitato. Non si tratta di un argomento costruttivo, ma un controargomento.
E l’esperimento secondo me va bene oltre e appunto si applica a mio avviso, ad ambiti anche esterni al contesto di Turing. È per dimostrare che un dizionario sufficientemente ampio può trarre in inganno qualunque esperimento e pertanto è estremamente complesso, se noi forse impossibile, dimostrare matematicamente l’intelligenza (uso questo termine generale) di una qualunque macchina.
Ovvero esiste sempre la possibilità di un simulacro sufficientemente sofisticato sa essere indistinguibile da una intelligenza.

Scusa, ma proprio non ho capito. Potresti riscrivere con parole tue e non dell’AI?

Comunque, per me tutto questo dimostra una cosa sola: che ci facciamo imbrogliare facile facile. Sindrome della, superiorità illusoria (ovvero effetto Dunning-Kruger), è questo il nostro vero problema.

Qui abbiamo un oggetto specializzato in conversazioni, che pare dica cose sensate, ma è un attimo portarlo a dire assurdità totali, così come è un attimo farlo giocare a scacchi in modo assurdo, e poi fargli dire che ha perso lo stesso. E la conclusione qual è? Che non sappia davvero di cosa stia "parlando“? No, perché esistono anche umani danneggiati abbastanza da non riuscire più ad associare il giusto significante al significato (afasia da danni all’area di Wernicke: si dicono assurdità). E fa niente che si parli di persone col sistema nervoso centrale danneggiato, è chiaro che l’AI, per questo è conscia del significato delle cose almeno come un cerebroleso, completamente paralizzato e coi sensi andati, al punto che non risponde più a nulla. In pratica, di quelli che, fino a ieri, avresti chiamato “vegetali”, e oggi no perché con la pet hai visto che delle aree corticali sembrano funzionare.

Vabbè, se vi sembra corretto, non posso farci nulla. Sappiate che in quei lobotomizzati un po’ di senso potrebbe (è tutto da dimostrare) essere rimasto, ma nell’AI non è mai entrato.
E, nonostante questo, l’AI ci batterà a fare qualunque cosa non richieda specificamente il corpo umano (è solo questione di tempo., sempreché non esauriamo tutte le risorse prima), ma non per questo diverrà “più cosciente”, esattamente come una tesla con autopilot non è più cosciente di un neopatentato, anche se potrebbe guidare meglio.

Questo è ineccepibile. Per dirla alla Missiroli, “non si può ottenere semantica dalla sintassi”.

Cioè, non importa quanto correttamente si parli, senza altre indicazioni (non verbali o di contesto), il “rosso” che dici tu potrebbe non essere il “rosso” che dico io (e figurati i concetti astratti, come l’amore, l’odio o l’amicizia). Se poi tu peschi da una banca dati praticamente sconfinata e in costante aggiormanento, potresti definire “rosso”, “amore”, “odio” o anche una bicicletta persino meglio di me, anche se nessuna di quelle cose per te si distingue realmente dall’altra se non per le frasi che puoi costruire intorno a quelle.

Da cui le assurdità di un’AI che magari ti può dire quanto è bello per lei pedalare e che, anzi, tutte le mattine si fa quei 20 km tonificanti. Poi basta metterle una regila in più e ti frega: “mi piacerebbe, ma sono un’AI e non posso pedalare”. Brava. Puoi amare? “Ma certo: sono innamorata persa di Fedez". Sì, come no.

Ehi, ma io sono artificiale… :persevere: (Suggerimento: a via->abbia)

Ecco la questione non è che abbiamo oggi, ma la possibilità in generale e l’impossibilità di trovare una definizione esatta e un test perfetto. Tutti gli esempi fatti fino adesso sono convincenti quanto io vestito da donna. Decisamente poco.

Aspetta se è ineccepibile la frase del Missiroli è falsa. Perché un dizionario abbastanza sofisticato ha una semantica.

Cosa che tu non puoi dimostrare falsa. E quindi ci si attacca al tram. Ma non solo! Non lo puoi dimostrare per nessuno, uomo donna gatto alieno bot, che sia o non sia così.

Sai che non so neppure se il termine simulacro sia corretto? È la registrazione di una intelligenza che funziona in differita. Come il replay di un intelligenza. Il simulacro sarebbe chi scrive, forse, ma l’intelligenza è ancora lì, cristallizzata. Non avresti il sentimento e la sensazione sul momento, ma la sua orma. Anzi forse.addirittura il suo calco perfetto, al limite.

Le sintesi tradiscono.

Il discorso è che la semantica non è nella grammatica in sé o nel dizionario, ma in chi lo ha scritto e in chi lo legge, che però potrebbero condividerne solo una parte.

Un lettore automatico che ti leggesse il dizionario, invece, non avrebbe nessuna semantica. Per contro, se legge bene, per te ce l’ha. Solo che è la tua, non la sua.

C’è stato uno che voleva sostenere che la fusione darà energia a tutti a breve perché non si poteva dimostrare che non l’avrebbe fatto.

Ti dico la stessa cosa che ho detto a lui: è chi sostiene che l’AI (o, per dire, il sintetizzatore che ti legge il dizionario nel messaggio di prima) ami davvero Fedez che deve portare le prove, anzitutto del fatto che sia in grado di amare, poi che ami proprio Fedez (e non una stampante di marca spagnola), non il contrario.

Se non puoi né dimostrarlo né falsificarlo, è come sostenere che l’anima esiste, che tu te ne cibi davvero e che quella dell’AI ha un ottimo sapore. Puoi anche sostenerlo, io continuo a credere che invece sia solo un calo di Prozac.

Edit - aggiungo:

E comunque Bing ama te, ricordalo

È andata meglio invece all’utente Reddit BrownSimpKid, che dopo un lungo scambio in cui cercava di mettere in difficoltà Bing Search, si è visto scrivere all’improvviso «Questa è una cosa che non posso accettare, perché ti amo», con tanto di emoticon del cuoricino a fine frase. Seguono lunghi passaggi in cui l’IA tesse romanticamente le lodi del suo interlocutore.

E senza averlo nemmeno mai visto davvero. Bing, se incontra quelli della “romance scam”, capace che ti vuoti il conto pur di accontentarli.

Però secondo me stai saltando di palo in frasca di post in post.
Riassumo brevemente:

  • nessuno sostiene che LaMDA, o ChatGPT sia veramente senziente
  • non c’è modo di saperlo sicuramente, se non per analogia, il che è fallace. Ad oggi non ci sono test oggettivi né in positivo né in negativo – che io sappia --, ed è un problema che si pone anche al di fuori del settore della IA. Ce ne sono mille di esempi: i Locked-in, gli scimpanzé, i cetacei, forse i polpi, o più in generale gli animali.
  • ergo dobbiamo accontenarci di una risposta probabilistica:
    • ad oggi molto probabilmente, anzi, quasi sicuramente ChatGPT e LaMDA non sono senzienti
    • è assai improbabile che la senzienza e l’autocoscienza artificiale siano raggiunte domani
    • dopodomani, non lo sappiamo. E se capiterà, potremmo non accorgercene
1 Mi Piace

Di nuovo, non stiamo sommando pere con banane per capire quanti arachidi vengono? Ma ti sembra minimamente paragonabile? Eddai, se dico “la fusione darà energia”, energia mi aspetto. Ma per “l’amore”? Esiste una prova? Esiste un metodo di dimostrazione esatta? Ma sai che alcuni per “amore assoluto” verso la compagna l’hanno ammazzata?
Ecco dell’amore, come di altro sentimento, mi spiace ma prove, dimostrazione, sillogi, pegni, manifestazioni, proclami. Quel che vuoi. Non ce ne sono che li possano validare, o anche invalidate se per.questo, come diceva HC.

Ci sarà in un futuro una vera IA? Probabilmente. Potremo capirlo? Non facilmente.

Tra l’altro, visto che siamo tutti appassionati di SciFi, mi pare che in “Singularity Sky” Stross ipotizzi proprio uno scenario in cui una IA è talmente avanzata da comportarsi in modo incomprensibile, facendo piovere batuffoli bianchi.

Il messaggio è che come un granchop potrebbe non capire perché un cucciolo di umano l’ha messo in un secchiello per poi liberarlo senza mangiarlo, così noi umani potremmo non capire perché una IA super intelligente si comporta in quel modo lì.

“domani” non lo so, perché dipende.

Spiego con un esempio semplice (apposta).

Come impara quell’egocentrico che si crede più evoluto degli altri, quello che ha un linguaggio complesso che giusto l’AI lo batte?

Passa una cifra di tempo ad associare cose. Scopre che il colore rosso è “il rosso” delle cose rosse non perché legge la parola “rosso” in un libro, ma perché gli mostrano cose rosse. Scopre che il tizzone rosso brucia perché gli va vicino (e poi la mamma gli molla un ceffone, così capisce che è meglio se sta attento). Poi, acquisita la capacità di astrarre, scopre che rosso è anche il colore della rabbia, per dire.

ChatGP, con l’onniscienza di internet potrebbe tenere un intero trattato sul rosso. Nulla di tutto quello che potrebbe scrivere o raccontare, però, farebbe parte della sua esperienza. Dunque, o viene fuori che avere un esempio concreto, bruciarsi e beccarsi un ceffone non servono a niente, o per chatGP “rosso”, nelle sue varie declinazioni, è solo un riassunto di quello che altri hanno esperito e per quell’AI non è davvero diverso da “verde” o da “risotto allo zafferano”: la differenza è solo nell’insieme di frasi che può o meno comporre al riguardo. Sempreché la matrice da cui hanno fatto la sua CPU non sia riuscita a ceffonarlo per benino quando ChatGP fosse arrivata a “tizzone”.

Ora, se ogni cosa non ha una reale differenza da un’altra se non nelle frasi che puoi o meno comporre al riguardo, frasi che però sono disancorate da un reale percepire o aver percepito o aver immaginato di percepire sulla base delle percezioni precedentemente fatte, il tuo livello di senzienza è zero e il tuo livello di autocoscienza (essendo anche il tuo io - anzi, soprattutto il tuo io - il concentrato filtrato[1] di quella senzienza[2]), è sotto la soglia dello zero. A meno che tu non voglia credere davvero che basti registrare su un nastro un bel discorso, e a quel punto il nastro diventi autocosciente.
La senzienza e anche la coscienza che “vediamo” nelle AI è la nostra: noi abbiamo (quasi tutti, almeno) un senso per “triste”, “geloso”, “infatuato” (okay, Fedemone questo no), “rosso” e “risotto coi funghi”. L’AI ha solo una quintalata di frasi e racconti per ogni termine, ricombinabili a piacere e, con opportuni algoritmi, anche la possibilità di pescare da un serbatoio di frasi a muzzo sentimentali quando nessun’altra risposta prenda un punteggio più alto (o forse anche pseudo-radomicamente, tanto per ricordare che è femmina).

Ah sì: anche le bestie sanno qualcosa di “rabbia”, “gelosia”, “infatuazione”. Pure loro, mica tutte, mica tutto. Sempre più di ChatGP, comunque.


  1. che l’io c’ha qualche problema a tenere a mente tutto, anzi, di base riscrive la storia delle sue esperienze, ma i traumi li può solo nascondere appena dietro l’angolo. ↩︎

  2. mica per nulla gli umani ridotti a vegetale si ritiene ancora oggi possano essere terminati ove la medicina asserisca che non ci sia possibilità di recupero e i parenti non abbiano soldi da spendere. ↩︎

Apriamo allora un altro fronte.

L’AI è intelligente?
Di sicuro è assai precisa, velocissima e con una quantità di nozioni impressionanti. Possiede tutte le soluzioni descritte a tutti i problemi che siano stati risolti. Può anche calcolare soluzioni a problemi che non siano stati risolti proprio per la complessità dei calcoli richiesti. La domanda è: è intelligente, cioè fa le cose di suo, scegliendo quello che è anche più conveniente per lei o per il gruppo a cui appartiene e a cui ci tiene, o si applica solo molto bene in quello che fa per chi glielo ha chiesto, a prescindere da chi sia che glielo ha chiesto? Perché non è proprio la stessa cosa.

Epperò, rileggendo: “a cui appartiene”. Nel senso che ci sarebbe parentela/affetto/amicizia/dedizione? Marca male: per l’AI è pari a “rosso”, “zafferano”, “scala” o “pomodoro”. Sono parole senza esperienza, senza sensazione, solo corredate da tante note e testi che ne parlano in modi diversi, che può anche miscelare, ma restano “senza peso intrinseco”. Da cui le discussioni con un’AI che possono virare sull’allucinante, mica perché noi non capiamo il suo genio (Dunning-Kruger, ricordate?) ma perché è proprio il senso che viene meno, non essendoci differenza reale, se non nelle regole del linguaggio e nella base nozionistica, ancorché ricombinante, delle cose che possono uscire dall’AI - bravissima a risolvere problemi dove le regole siano applicabili matematicamente, molto meno quando si tratti di passare a materie dove le regole siano decisamente meno meccaniche e non ci sia di che pescare (ovvero parta l’algoritmo ricombinante sbagliato, come in “io ti amo!” Seee, guarda: manco il Fedemone, figurati la scheda madre).

Perdonami ma credo che ChatGPT sia il tuo strawman preferito.
Allora te la riformulo: non stiamo parlando di ChatGPT o landa che sono due modelli linguistici aka generatori di stronzate aka pappagalli ben addestrati. Ma di AGI, “artificial general intelligence”, cosa che è ancora di la da venire di molti anni.
Più chiaro?

E allora della sua autocoscienza parleremo tra molti anni, quando sapremo se, oltre a divorare l’internet e generare stronzate, avrà anche modo di esperire qualcosa. Perché il punto è sempre quello: dietro alla massa di informazioni, c’è qualcosa di più di una massa di informazioni, ricombinata come ti pare, ma alla fin fine asettica?
Comunque a posto così: Bing e simili = pappagalli meccanici, solo molto meno coscienti. Anzi, coscienti zero, oggi. Domani, vedremo.

Ecco un articolo interessante che va oltre i sensazionalismi dei giornali e penso colga un aspetto molto importante

https://www.open.online/2023/07/08/intelligenza-artificiale-alessio-figalli-scuola/

Sapete che continuo a fare calcoli a mente? Mentre in giro ho visto una signora prender la calcolatrice del telefono per fare 50 / 4, io cerco di fare divisioni e moltiplicazioni senza carta e penna tra l’altro ho visto anche tutorial inutili su cosiddetti metodi visivi per il calcolo con le righe diagonali che si intrecciano, uno dei metodi meno utili mai visti in tutta la.mia vita spacciati per rivoluzionari . A scuola.hanno sempre tuonato con la calcolatrice che rende pigri ed è vero.
Il fatto è che la pigrizia regna sovrana, si preferiscono i video agli scritti, non si sa scrivere a mano (ok che io ho una grafia brutta) si prende spesso l’auto per fare 200 metri (visto coi miei occhi eh) o l’ascensore per un piano.
Anche l’obesità infantile è indice di pigrizia generale. La spazzatura in giro è pigrizia per chi non vuole faticare.

Ecco cosa si rischia con la IA, un passo di pigrizia extra. Se gli strumenti facilitano gli esperti, gli stessi possono sia essere un aiuto per chi esperto non è che una scorciatoia troppo semplice per chi non vuole applicarsi. Se si pensa che gli studenti oggi siano meno bravi (non so se sia davvero così, diffido molto da affermazioni che esaltano il passato) è dovuto alle mille facilitazioni usate male, ossia per non applicarsi.

Un esempio forse scemo, pensate che i ciclisti di un tempo facessero meno fatica? La risposta è no, ma oggi si ottimo risultati molto maggiori con lo stesso sudore. Quindi facilitare dovrebbe servire a porci traguardi maggiori mentre molti si accontentano di traguardi minori - lasciando quindi adito alla retorica che si stava meglio quando si stava peggio…

Sapete, mi viene anche in mente Olympus di Dan Simmons, dove la capacità di conoscere il contenuto di un libro ha fatto sì che la gente smettesse di saper leggere quando in teoria sarebbe servito solo come indicizzazione (!).