LaMDA è senziente?

Io mi riferivo alle mie esperienze, non solo d’infanzia, e sono il primo a sconsigliare di abboccare a guru e quant’altro. Comunque torniamo pure in topic.

Uh, non so se ti conviene avere i miei beni. Tendono a divorare gli incauti… Oh ma non c’è problema, per me. A chi intesto? Giusto una firmetta qui. Col sangue.

Grande - firmo subito: di te mi fido ed è chiaramente un affarone - si capisce da come sorridi.

Uh quello è un outfit dell’anno scorso, ma fa sempre la sua figura…

Comunque, un aneddoto carino. Nel.manga di Alita, che ritengo personalmente uno dei migliori fumetti mai fatti, c’è una scena che in qualche modo si ricollega a questo discorso. Nella saga del.motorball, il campione Jashugan (un cyborg come tutti) incontra il suo maestro zen robotico, che lo vede esitare. Dunque gli impone di uccidere la sorella per perdere ogni sentimento, ogni remora. Se riecheggia la famosa frase di uccidere i Buddha, il paradosso sta in macchine che acquisiscono i sentimenti e per raggiungere l’illuminazione li devono perdere.
Il lettore smaliziato, come in un koan, capisce che l’illuminazione non è quella favola consolatoria new age che si sente in giro, ma diventare un oggetto, completamente distaccato. Tutt’altro che desiderabile.

Quindi da un lato rilancio la provocazione di Ligotti, per cui qui non dobbiamo scoprire umanità in Lambda, ma scoprire che siamo noi che ci crediamo umani e invece siamo solo delle cose.

Dall’altra i dilemmi sulla IA vorrei far notare che sono etici nella fantascienza classica, ma esclusivamente politici dal CP in poi. In Ghost in the Shell abbiamo le rivolte per i diritti, perché che le IA siano umane non è mica un dilemma o una possibilità da dibattere. Anzi, lo sappiamo e frega nulla, e lo sfruttamento sta tutto lì.
Non c’è nessunissimo dilemma etico o esistenziale (es nell’abbracciare totalmente un corpo meccanico), ma problemi estremamente pratici.
Il luddismo e la paura verso la tecnologia è roba del secolo scorso, qui bisogna fare fronte semplicemente alle conseguenze di un dato di fatto, normalissimo.

Dobbiamo dare per scontato che Lambda sia cosciente, oggi o fra un anno, ma soprattutto capire cosa vogliamo farne.

Cp?

Nella nostra bolla, forse. Ma tra la gente comune, sarà estremamente difficile far accettare questo concetto.
C’è gente che insulta Alexa (che quasi certamente non è senziente) e amazon ha dovuto patchare la IA per rispondere.
Non so come la prenderanno quando non potranno spegnere l’assistente perché senziente.

Si, sono d’accordo.
E mi chiedo quanto questo genere di problemi abbia influito nella decisione di Google di licenziare l’ingegnere.

PS: ascoltare l’episodio di Cecilia Sala sul tema. È molto interessante.

1 Mi Piace

CP cyberpunk. Parola molto usata. Pure troppo. Ma pochi hanno letto.

Ah ok, non coglievo l’acronimo.
Si, direi pertinente.

Non so. Magari il mio problema è che lavoro con pc non senzienti a programmi che sono molto più vicini a una lista della spesa che ad Alexa, per cui mi vien proprio difficile pensare che a metterne in rete tanti si ottenga davvero un salto evolutivo.

Comunque la prova con domande assurde, vedere se l’AI capisce che sono assurde, la farei.

E farei anche quella religiosa: c’è vita dopo un blackout?

E se la domanda non fosse se questa lamBDA sia senziente, ma quando lo sarà che faremo? Che ne faremo? La FS ha da sempre esplorato questi temi, se non traiamo lezioni, a che serve?

In realtà il punto che volevo sottolineare è che è estremamente difficile dire oggettivamente se un essere sia senziente o meno. laMDA forse non lo è, essendo un modello linguistico molto sofisticato ma che ha imparato leggendo milioni di conversazioni, ma come possiamo esserne sicuri? E, appunto, che si fa se lo è?
Posto che, come dicevo, non è che al momento ci facciano troppi scrupoli a terminare esseri senzienti (nostri simili) e probabilmente senzienti (animali che hanno sviluppato linguaggi e comportamenti sofisticati)

Sono senzienti.

E comunque, il giorno che avremo i pc autocoscienti, vedremo se vorranno ancora scaricare patch da MS.

A parte ciò, se il tuo phone fosse senziente, passerebbe parecchio prima che questo comportasse anche un cambio di contratto (da acquisto a prestazione d’opera), per quanto le associazioni per i diritti delle AI potessero darsi da fare (che, per dire, la schiavitù in alcuni posti del mondo c’è ancora). Io comunque non guarderei più i device nello stesso modo.

Se dovessi esprimere una preferenza su come interagire con una ia, direi che dovrebbe avere forma umanoide, per una maggiore riconoscibilità istintiva… capisco da me che sarebbe darle un limite fisico (perché non darle la possibilità di scegliere che forma avere e se averne), ma sarebbe più facile per me… poi, anche interagire con una ia incorporea sarebbe estremamente interessante…

Però se chatto in un forum o su qualche social, non è che se uno ha per avatar una scheda madre non lo considero umano.

Cioè, qui si tratterebbe di dialogare con un oggetto che non è più un semplice oggetto. Una forma umanoide potrebbe aiutare, ma anche no - per qualcuno magari sarebbe preferibile, per trattarlo bene, quella di un gatto, chissà.

Comunque, senziente - si scopre in fretta: appena ti chiede un contratto regolare con retribuzione adeguata…

Una persona è una persona e merita il rispetto in quanto tale, ma avere intorno un androide è sci-fi nella realtà… Impagabile…

Certo.

Ma qui si discuteva di senzienza distribuita in rete e veicolata attraverso un monitor - come via pc o phone, quando chatti con qualcuno.

Il corpo non c’è in ambo i casi, se non hai mai incontrato la persona con cui chatti e non hai foto o video di quella puoi solo immaginarla. Idem con l’AI: comunque non sai come è fatta davvero, la immagini.

Giusto per i fanatici dell’argomento

Articolo molto interessante. Un po’ difficile da digerire, in quanto l’assunto che un comportamento complesso come quello intelligente / cosciente necessiti di un elemento di base come il neurone, con certe caratteristiche fisiche e un certo funzionamento è davvero difficile da smentire.
Ne parlavo qualche giorno fa con il mio collega ricercatore in IA all’università. Si parlava, guarda caso, di modelli linguistici (chatgpt).
Un fenomeno o comportamento emergente è un comportamento che nasce dall’interazione tra numerosi elementi distinti secondo delle regole talvolta semplici, e che è imprevedibile sulla base delle singole leggi. Se consideriamo il Gioco della vita di Conway, un “gioco” in cui una matrice di punti evolve secondo una manciata di regole semplicissime, su di esso compaiono pattern i cui comportamenti sono anche assai complessi e imprevedibili. Nel link sopra citato, cliccando su “Lexicon”, potete vedere e provare alcuni dei pattern, e vedere come è possibile realizzare oggetti che si muovo e fanno… “cose”.
c’è chi ci ha costuito un computer.
c’è chi ha calcolato le prime cifre di \pi .
Ecco, i pattern del “Conway’s game of life” mi fanno sempre pensare ai neuroni, alla mente come fenomeno emergente delle reti neurali.
E si può pensare a ipotizzare che pattern di associazioni tra parole, come in chatgpt, possano ad un certo punto costuire un fenomeno emergente. Intelligenza o autocoscienza magari.
Il mio collega sostiene di no, perché “intelligenza” è un termine ben definito – solo nel campo della IA, in realtà – quindi dovremmo chiamarla in altro modo (il che è probabilmente vero nel campo della IA).
E dunque, possiamo escludere che esistano fenomeni emergenti che producano una “mente” al di fuori dell’esistenza di un cervello biologico? No, a meno di non ridurre il significato del termine , ma temo questo sia una sorta di “glossarismo” (termine che non esiste, se capite cosa significa e conoscete qualcosa che si possa usare, fatemelo sapere).
E dunque, articolo interessante, non certo campato per aria – anche se presta il fianco a manipolazioni newage… ecco, cautela.

Sì soprattutto quando parla delle.piante. ma ovviamente mette sul piatto casi limite affinché le nostre definizioni siano più centrate possibili perché appunto rischiamo che la percezione prevalga sulla analisi .
Una persona che non può comunicare (e non può usare i sensi come li intendiamo noi) perché paralizzato è comunque cosciente anche se non lo esprime; una piante che usa cmq i sensi non la consideriamo tale.
L’esperimento dello zombie filosofico è un po’ debole a mio avviso, ma tanto è.

Non ho letto l’articolo, però vorrei aggiunger qualcosa sulla I.A.
L’intelligenza artificiale non simula un cervello biologico, ma attraverso altre vie cerca di imitarne il funzionamento. Le rete neurali ne sono un valido esempio.
Quando parliamo di coscienza non dobbiamo dimenticarci che questa funziona perché dietro opera l’inconscio. L’inconscio è il vero motore, quello sotto l’iceberg, e la coscienza è solo il fenomeno evidente.

Certo. Tenete sempre presente che 9 volte su 10, chi usa il termine “Intelligenza artificiale” lo usa a sproposito. Ad esempio, chi studia l’intelligenza artificiale non lo utilizza quasi mai.