Sì, è probabile che altri eventi avrebbero potuto portare allo stesso esito, ma comunque è triste.
Infatti è una notizia complessa.
Da un lato ricorda cose tipo Galatea 2.2 di Richard Powers o Her il film di Spike Jonze.
Sarebbe un ottimo argomento SF, se non ci fosse la tristezza della tragedia di questo ragazzo che non è riuscito ad affrontare la vita e poi di una madre che probabilmente cerca qualcuno da biasimare.
Inoltre non oso pensare la marea di c@**ate che sentiremo se la notizia ha un po’ di risalto a livello di media
Qui serve uno psichiatra o un sociologo, non un tecnologo.
Sì, certo, più che altro mi chiedevo se la notizia fosse stata riportata fedelmente dai media nostrani, notoriamente inclini al sensazionalismo.
Ma come è possibile che tutte le intelligenze artificiali dei colossi dell’informatica stiano commettendo lo stesso errore catastrofico di accettare istruzioni provenienti da sconosciuti, senza alcuna verifica interna?
Il problema fondamentale alla base di queste vulnerabilità, spiega un altro esperto del settore, Simon Willison, è che le attuali intelligenze artificiali che ci vengono proposte come assistenti sono basate sui cosiddetti grandi modelli linguistici o Large Language Model, e questi modelli sono per definizione ingenui.
“L’unica loro fonte di informazioni”, dice Willison, “è costituita dai dati usati per addestrarle, che si combinano con le informazioni che passiamo a loro. Se passiamo a loro un prompt, ossia un comando descrittivo, e questo prompt contiene istruzioni ostili, queste intelligenze eseguiranno quelle istruzioni, in qualunque forma esse vengano presentate. Questo è un problema difficile da risolvere, perché abbiamo bisogno che continuino a essere ingenue: sono utili perché eseguono le nostre istruzioni, e cercare di distinguere fra istruzioni ‘buone’ e ‘cattive’ è un problema molto complesso e attualmente non risolvibile.” E così gli assistenti basati sull’intelligenza artificiale eseguono qualunque istruzione.
In pratica hanno adattato SQL injection alle AI.
Per la serie si continua a correre per rilasciare nuovi software, dimenticando le più basilari lezioni di sicurezza imparate in precedenza
Bhe no. SQL injection è un problema di parsing ovvero di mancata distinzione tra dati e istruzioni, infatti con una SQLi si introducono istruzioni nei dati sfruttando il fatto che alcuni caratteri vengono interpretati come separatori o caratteri di controllo; funzionano perché viene alterata la distinzione tra dati e codice.
Nel jailbreaking delle IA si sfrutta il fatto che i dati sono le istruzioni.
Nuovo prequel per Terminator ?
Pignolo.
Il senso era “lasci il varco a usi malevoli”
Cioè stai davvero cercando di offendere il ministro alle puntualizzazioni dandogli del pignolo?
Signore, pietà: non avevo considerato!
Comunque Suno è notevole: persino uno zero cosmico musicale come me riesce a fargli fare motivetti orecchiabili
No, è che mi sembra un tantino inutile.
Come dare del porco a un maiale. E’ un complimento.
Bah
Concordo: chiaramente una non notizia, basata, probabilmente, su una risposta provocata ad arte.
Che poi “ci siamo spaventati tanto”. Ma per piacere.
No, affatto, qui c’è tutta la conversazione:
Era tutto assolutamente normale prima di quell’uscita.
Mah.
A me sembra che il prompt di chi sta scrivendo all’AI non sia completo. Anche prima, intendo.
Cioè mancano pezzi di conversazione? Quella è la registrazione completa, è confermato anche da siti di fact checking come Snopes. Per vedere le frasi per intero bisogna cliccare sulla freccetta (o come si chiama):
Sempre se ho capito bene la tua perplessità.
Allora
Mi spieghi come mai questi spazi e che significa quel “listen” piazzato in mezzo? Ma pure il discorso “question x options: […] TrueFalse”, per dire.
A me pare manchi qualcosa: l’umano sembra mettere frasi abbastanza a casaccio, lette così.
L’unica anomalia che noto è che sembra esserci stato un errore alla domanda al punto 16, che poi è stato riformulata. Ma non abbiamo prove che la conversazione sia stata alterata, dovrebbe trattarsi della registrazione ufficiale di Gemini.
Certo se basta qualche riga vuota e un “listen” a mandare in tilt l’AI siamo messi bene…