L'opinione
Attenti perché l’intelligenza artificiale è più pericolosa di Covid e bombe nucleari
No, non stiamo esagerando, se a lanciare l’allarme sono personalità come Warren Buffett e Bill Gates
di Controredazione 16 Gennaio 2026 14:59
Mentre il mondo corre ad adottare con enorme leggerezza l’intelligenza artificiale, che finisce così in tutti i settori, anche in quelli più delicati come medicale, finanza o difesa, alcune voci, molto influenti, cominciano ad alzare il livello di allarme. Parliamo ad esempio di Warren Buffett e Bill Gates. Nomi pesanti che vale la pena di ascoltare. Buffett, noto da sempre come l’”Oracolo di Omaha”, grande protagonista della storia del mercato finanziario americano, uno che ha investito in tantissime società anche di tecnologia, paragona il rischio legato all’intelligenza artificiale a quello addirittura delle armi nucleari. Mentre Bill Gates, che a suo tempo aveva parlato di rischio pandemia, ora dice che l’intelligenza artificiale è più rischiosa persino del Covid.
Warren Buffett ha parlato di questo in una trasmissione televisiva, paragonando proprio gli sviluppi dell’AI a quelli degli armamenti nucleari. Ha messo in guardia rispetto al fatto che una volta che certe nuove tecnologie finiscono sul mercato poi è di fatto impossibile tornare indietro e questo può portare a imprevedibili conseguenze. Ha sottolineato come l’intelligenza artificiale possa essere da molti presa sul mercato per poi essere impiegata per fini cattivi, come truffe e diffusione di notizie false. Buffett parla dell’intelligenza artificiale come di un genio che è uscito dalla bottiglia. Dentro non torna più e tutto può succedere, quindi. Chiaro l’avvertimento di un uomo che sa bene, per esempio, i danni che informazioni false possono fare sui mercati finanziari.
E giusto poche ore dopo l’Oracolo di Omaha ha parlato pure Bill Gates. Il fondatore di Microsoft ha lanciato un allarme ancora più pesante, spiegando che l’AI potrebbe finire per essere più rischiosa per l’umanità che lo stesso Covid. L’uomo che aveva parlato di rischio pandemia oggi dice che gli algoritmi potrebbero fare peggio. Cosa? Per esempio progettare un’arma bioterroristica, così ha scritto Gates sul suo blog, per gruppi che potrebbero poi usare quest’arma per colpire. Il tema è l’open source di codici per l’intelligenza artificiale: diventa facile a tendere che tanti possano usarli, anche appunto per creare minacce e armi, basate per esempio su agenti patogeni. Un potenziale scenario di rischio tracciato da Gates che è davvero inquietante. Ma che non può non essere preso in considerazione.
E quindi? E’ chiaro: mettendo insieme i due pesanti avvertimenti di due figure così importanti, bisognerebbe finalmente iniziare a pesare anche i rischi di una adozione massiva di intelligenza artificiale in tutti i processi aziendali e di codici e algoritmi che finiscono sul libero mercato a disposizione di tutti. Financialounge.com non sta dicendo che l’intelligenza artificiale sia una cosa cattiva o priva di grandi potenzialità e opportunità, ma semplicemente secondo Financialounge.com bisognerebbe applicare anche nella corsa all’adozione di intelligenza artificiale un giusto e razionale approccio rischio/rendimento, smettendo di far finta che non ci siano rischi. I rischi ci sono, e pure enormi, soprattutto in contesti strategici e delicati come quelli della assistenza sanitaria, della finanza, delle telecomunicazioni, dei trasporti. Le AI sono black box, che oggi si corre ad adottare senza veramente capire bene cosa c’è dentro e cosa potrebbero fare in futuro se mal guidate. Senza contare, come abbiamo già spiegato in questa rubrica, che dal 2035 c’è pure il rischio concreto che tutti gli algoritmi di intelligenza artificiale collassino cominciando a sbagliare tutto per il fenomeno tecnico ben noto agli ingegneri del cosiddetto “model collapse”. Per cui, in sintesi e in conclusione: prudenza, prudenza, prudenza. Sono macchine e restano macchine, non affidiamo tutto a delle macchine, a loro. Che, come appunto dicono figure come Buffett o Gates potrebbero rischiare di far più danni di una pandemia o di una bomba atomica.
IL WARNING DI BUFFETT
Warren Buffett ha parlato di questo in una trasmissione televisiva, paragonando proprio gli sviluppi dell’AI a quelli degli armamenti nucleari. Ha messo in guardia rispetto al fatto che una volta che certe nuove tecnologie finiscono sul mercato poi è di fatto impossibile tornare indietro e questo può portare a imprevedibili conseguenze. Ha sottolineato come l’intelligenza artificiale possa essere da molti presa sul mercato per poi essere impiegata per fini cattivi, come truffe e diffusione di notizie false. Buffett parla dell’intelligenza artificiale come di un genio che è uscito dalla bottiglia. Dentro non torna più e tutto può succedere, quindi. Chiaro l’avvertimento di un uomo che sa bene, per esempio, i danni che informazioni false possono fare sui mercati finanziari.
GATES: AI PIÙ RISCHIOSA DI UNA PANDEMIA
E giusto poche ore dopo l’Oracolo di Omaha ha parlato pure Bill Gates. Il fondatore di Microsoft ha lanciato un allarme ancora più pesante, spiegando che l’AI potrebbe finire per essere più rischiosa per l’umanità che lo stesso Covid. L’uomo che aveva parlato di rischio pandemia oggi dice che gli algoritmi potrebbero fare peggio. Cosa? Per esempio progettare un’arma bioterroristica, così ha scritto Gates sul suo blog, per gruppi che potrebbero poi usare quest’arma per colpire. Il tema è l’open source di codici per l’intelligenza artificiale: diventa facile a tendere che tanti possano usarli, anche appunto per creare minacce e armi, basate per esempio su agenti patogeni. Un potenziale scenario di rischio tracciato da Gates che è davvero inquietante. Ma che non può non essere preso in considerazione.
ATTENTI AI RISCHI
E quindi? E’ chiaro: mettendo insieme i due pesanti avvertimenti di due figure così importanti, bisognerebbe finalmente iniziare a pesare anche i rischi di una adozione massiva di intelligenza artificiale in tutti i processi aziendali e di codici e algoritmi che finiscono sul libero mercato a disposizione di tutti. Financialounge.com non sta dicendo che l’intelligenza artificiale sia una cosa cattiva o priva di grandi potenzialità e opportunità, ma semplicemente secondo Financialounge.com bisognerebbe applicare anche nella corsa all’adozione di intelligenza artificiale un giusto e razionale approccio rischio/rendimento, smettendo di far finta che non ci siano rischi. I rischi ci sono, e pure enormi, soprattutto in contesti strategici e delicati come quelli della assistenza sanitaria, della finanza, delle telecomunicazioni, dei trasporti. Le AI sono black box, che oggi si corre ad adottare senza veramente capire bene cosa c’è dentro e cosa potrebbero fare in futuro se mal guidate. Senza contare, come abbiamo già spiegato in questa rubrica, che dal 2035 c’è pure il rischio concreto che tutti gli algoritmi di intelligenza artificiale collassino cominciando a sbagliare tutto per il fenomeno tecnico ben noto agli ingegneri del cosiddetto “model collapse”. Per cui, in sintesi e in conclusione: prudenza, prudenza, prudenza. Sono macchine e restano macchine, non affidiamo tutto a delle macchine, a loro. Che, come appunto dicono figure come Buffett o Gates potrebbero rischiare di far più danni di una pandemia o di una bomba atomica.
Trending