Devo riscriverlo per l’ennesima volta?
ChatGPT è un LLM, Grande Modello Linguistico. Modello linguistico non è intelligenza. E’ modello linguistico. Il comportamento che noi definiamo intelligente è alla fin fine un sottoprodotto, un effetto secondario. Spesso infatti ha comportamenti allucinati, dovuti al fatto che rielabora richieste e dati accostandoli senza cognizione, con una parvenza di coerenza interna che però talvolta sparisce e dimostra la vera natura del modello.
La cosa grave non è tanto il travisare questo effetto, quanto demandare ad esso la responsabilità.
E’ di ieri l’esempio dell’infermiera e del paziente oncologico. Per chi non l’avesse letta la riassumo.
Un modello NN raccoglie i dati da un esame ematologico e triggera un allarme per setticemia, richiedendo un ulteriore esame invasivo. L’infermiera sospetta che sia un falso allarme, in quanto quei parametri in un paziente oncologico risultano assolutamente nella norma. Ma non può opporsi alla procedura che impone le ulteriori analisi anche se comportano un rischio per il paziente e una spesa per lo stesso.
Alla fine della storia, le ulteriori analisi danno ragione all’infermiera.
Immagino che qualora il paziente avesse avuto danni dalle analisi inutili, la colpa sarebbe ricaduta sull’“Intelligenza Artificiale”. Tutti d’accordo, cazzi del paziente.
E’ una bruttissima china.