Piccola pausa pubblicitaria ![]()
Fonte:
https://www.hdblog.it/tecnologia/articoli/n647191/anthropic-super-bowl-spot/
Piccola pausa pubblicitaria ![]()
Fonte:
https://www.hdblog.it/tecnologia/articoli/n647191/anthropic-super-bowl-spot/
Parlavo di agire nei confronti di Google, OpenAI e Co., in pratica se vuoi addestrare una AI, devo poter verificare che i tuoi dataset siano puliti.
Se nei dataset che usi trovo dei dati non legali, paghi.
Questo al di la del fatto che volendo le cose si aggirano.
Però un conto è il ladro che ti svaligia la casa e poi si vende per vie traverse la tua roba, un altro è vedere quello che ti hanno rubato in vendita da Mediaworld.
Poi ovviamente regolamentare internet è praticamente impossibile, cosa nota dai tempi del cyberpunk.
Quello che infastidisce è questa idea di internet farwest dove ognuno fa cosa vuole senza che nessun governo se ne curi, di nuovo, fa molto Cyberpunk ![]()
Cmq adesso torno alle cose serie … trovare i backup ![]()
Anthropic ha pubblicato una serie di corsi per imparare a usare in modo efficace il loro sistema di modelli e strumenti.
I corsi sono tanti, completi e gratuiti.
Oggi dicevano che nell’attacco USA è stato pesantemente usato Claude, di Anthropic, peraltro già in funzione con le forze armate USA da mesi, se è vero cioò che si dice.
Già, e nonostante tutti i casini dei giorni precedenti tra Anthropic e il Pentagono (e Trump).
In che senso “e nonostante”?
Il pentagono aveva chiesto di togliere dai modelli i cosiddetti guardrails, in modo da usarli anche senza le limitazioni etiche e morali che le aziende impongono.
Inoltre avevano chiesto di poterli usare su armi autonome
Antropic ha rifiutato.
Non significa che il pentagono non potesse continuare a usarli nelle normali operazioni all’interno dei guardrails.
C’è inoltre da dire che, a detta id anthorpic, i guardrails (alcuni almeno) sono inseriti direttamente nel training dei modelli, e quindi non possono essere rimossi.
In questo senso, ceteris paribus, anthorpic non si comporta diversamente da qualunque altro produttore di software. Nessuno si è scandalizzato perché il pentagono usa Windows o excel o MacOS sui suoi computer..
Tutta la polemica mi pare abbastanza pretestuosa, fatto salvo che nessuno degli altri, iniziare da xAi e il suo grok, ha fatto una piega, e che evidentemente non hanno alcun problema a fornire versioni uncensored dei loro modelli.
Non stavo criticando Anthropic, massacrato con i soliti appellativi nei giorni precedenti da Trump e soci, ma l’ipocrisia del Pentagono. Ma sappiamo come va il mondo.
Trump ha annunciato sul suo social Truth di aver ordinato a tutte le agenzie governative federali di smettere immediatamente di utilizzare gli strumenti di Anthropic. Trump ha definito l’azienda di «estrema sinistra e woke»
(dal Post di qualche giorno fa)
Beh la cosa non dovrebbe stupire. Non si cambia o dismette un servizio improvvisamente senza una exit strategy. A meno di non smettere completamente l’operatività, ovviamente. Non è come cambiare auto, più come cambiare sede operativa, serve un trasloco.
Ma è un ragionamento irrilevante per Taco Trump.
Al momento i media giocano molto sulle paure legate alla AI.
Mentre dovrebbe essere chiaro come funziona con Trump, se non fai come dici sei un nemico, di sinistra, woke, una minaccia, etc…
Tornando al discorso agenti AI che toglieranno lavoro ai programmatori, qualche giorno fa mi ero imbattuto in questo.
https://www.hdblog.it/games/articoli/n648854/sbobba-ai-codice-open-source-godot-problema/
Che non fa altro che confermare che per lavorare dovresti avere un’idea di cosa vuol dire sviluppare software ![]()
Mi sembra la solita diatriba tra il “codice di qualità” e il “codice che funziona”.
Posto che i programmatori umani producono una grandissima quantità di cacca™ spacciandola per cioccolata™, alla fine l’industria accetta volentieri tutta la cacca™ senza batter ciglio™.
Idem sarà per l’AI slop.
Il che non è una bella cosa, tutt’altro. Io sono per il codice di qualità, quello che ci metti due settimane a sviluppare (se non due anni), ma che poi ti salva la vita evitandoti mal di testa e due mesi per esser corretto (non è un caso se oggi, dopo 8 anni di sviluppo nel ns sistema, saltano fuori magagne solo lì dove hai risparmiato tempo).
Ma l’industria non ha i miei tempi. La roba™ serve ieri. E l’AI ti aiuta ad averla ieri, invece di oggi (il programmatore te l’avrebbe data la settimana prossima). Quindi viva l’AI slop, ci penseremo domani. Forse.
No, non è una bella cosa.
A dire il vero:
Trump said that there would be a “six month phase out period” for agencies using Anthropic, which could allow time for further negotiations between the government and the AI startup.
Quindi, tecnicamente, possono traslocare in 6 mesi.
(Qui l’articolo di wired e qui l’altro articolo del WSJ),
Sono entrambi articoli dietro paywall.
Propongo questo dell’Associated Press:
Comunque sì, dovrebbero avere tempo di “traslocare” (pare comunque che anche OpenAI stia mettendo dei paletti).
Si comunque il discorso è più complicato. Antropic già aveva dei contratti e Claude pare sia l’unico modello a imitato a lavorare su documenti classificati. D’altra parte qualcuno del pentagono ha tenuto a sottolineare che l’uso dei modelli per lo sviluppo di armi autonome è del tutto teorico. Il che è, in parte, vero. . i modelli foundation sono / mi sembrano troppi grossi per essere montati su veicoli e dispositivi offline.
Vero è che visto il costo delle armi, un piccolo datacenter semovente non sarebbe in fondo una cosa fantascientifica. Ma il pericolo di perderlo, con il costo alle stelle dell’hardware, rende tutto molto più incerto.
Mah
Comunque dopo le critiche ricevute Altman ha cercato di gettare acqua sul fuoco:
OpenAI had said the contract had “more guardrails than any previous agreement for classified AI deployments, including Anthropic’s”.
Staremo a vedere.
Chissà perché ![]()
Sì, ho letto, ed è sperabile che Altman ne abbia tenuto conto (anche se si trattava di una minima percentuale rispetto ai 900 milioni di utenti).
La gente è fondamentalmente idiota.
Quelli che hanno mollato ChatGPT o quelli che sono rimasti?
Comunque stavo controllando su Google Play: l’app è stata scaricata oltre un miliardo di volte. Due o tre milioni di utenti che la disinstallano sono una percentuale risibile.
Si cambia uno strumento dietro una bandiera?
Lo so, posizione un po’ estrema e oltranzista. Ma cambiare così, senza tener conto di alcuni fattori, tra cui il fatto che anthropic è un’azienda pur sempre con sede USA e quindi soggetta a tutte le sue leggi coercitive, mi sembra da babbei.
Poi si, votare con i piedi, eccetera eccetera… tutto giusto.
Io mi trovo benissimo con ChatGPT e al momento non ho nessuna intenzione di cambiare.
Inciso, ho mollato tutti i social (che poi “tutti” per me era Facebook, classico caso da persona anziana) e devo dire che fuori da quella cloaca si respira un’aria più salubre.
Capisco che in alcune situazioni “devi” essere su FB (tipo per lavoro, o se hai un’attività, o vuoi una sorta di vetrina), per il resto, onestamente, anche no. Mollato a fine gennaio, e ciaone. Tengo solo Whatsapp.