
0:00
7:16
La società statunitense Anthropic, famosa per il suo chatbot Claude, ha ripreso le trattative con il dipartimento della Difesa degli Stati Uniti, dopo che aveva rifiutato che i suoi sistemi di intelligenza artificiale fossero usati per alcune attività militari ad alto rischio. Le AI sono ormai ovunque e non stupisce che siano usate anche dagli eserciti, ma il loro impiego pone non pochi problemi etici, morali e tecnologici. Alla base hanno scoperte scientifiche che potrebbero cambiare il mondo, ma con quali conseguenze? Ci occupiamo poi dei particolari rapporti di Jeffrey Epstein con la scienza e del gas che arriva dal Qatar, in tempo di guerra.
Il link per abbonarti al Post e ascoltare la puntata per intero.
Leggi anche
– Istruzioni, un nuovo progetto del Post - Amedeo Balbi e l’Universo – Dentro la disputa tra Anthropic e il Pentagono sul “robot killer” – Lo strumento di intelligenza artificiale Claude di Anthropic è al centro della campagna statunitense in Iran, in mezzo a una dura lotta – Il Pentagono ha utilizzato la tecnologia Anthropic nel raid contro Maduro in Venezuela – Le tensioni fra Anthropic e il Pentagono meritano qualche riflessione – OpenAI ha modificato il contratto con il Pentagono per assicurarsi che i suoi software non siano usati per sorvegliare i cittadini– Anthropic ha ripreso le trattative con il Pentagono per l’uso dei suoi sistemi di AI per scopi militari – I campioni di tessuto di Jeffrey Epstein hanno scatenato il putiferio nel laboratorio di Harvard di George Church– Finanziamenti da donatori individuali: lezioni dal caso Epstein – La guerra in Medio Oriente è un grosso problema anche per l’energia
Learn more about your ad choices. Visit megaphone.fm/adchoices
Altri episodi di "Ci vuole una scienza"



Non perdere nemmeno un episodio di “Ci vuole una scienza”. Iscriviti all'app gratuita GetPodcast.








