Un gruppo di magnati lancia l'allarme sulla possibilit¨¤ di uno "scenario Terminator". La proposta: "Prendiamoci una pausa di sei mesi"
L'intelligenza artificiale pone "profondi rischi per la societ¨¤ e l'umanit¨¤" e per questo servirebbe una "pausa" di almeno sei mesi nell'"addestramento" dei sistemi pi¨´ avanzati.?L'allarme ¨¨ di Elon Musk e di altri 1.000 fra ricercatori e manager che, in una lettera aperta, chiedono uno stop o una moratoria dei governi per evitare il tanto temuto scenario Terminator e consentire lo sviluppo di protocolli di sicurezza condivisi.?La missiva pubblicata dalla no profit Future of Life Institute vanta firme eccellenti e per questo viene presa molto seriamente. A sottoscriverla infatti ci sono il co-fondatore di Apple Steve Wozniak ma anche quelli di Pinterest e Skype, cos¨¬ come i fondatori delle start up di intelligenza artificiale Stability AI e Charatcters.ai.
LEGGI ANCHE
gli? investimenti di musk
¡ª ?Oltre ovviamente al patron di Tesla che aspira a migliorare il cervello con Neuralink dopo aver, con la sua spinta all'innovazione, contribuito a trasformare radicalmente l'industria dello spazio con SpaceX e rivoluzionare quella dell'auto spianando la strada gi¨¤ pi¨´ di un decennio fa alle vetture elettriche che si guidano da sole. Musk ha investito in societ¨¤ di intelligenza artificiale ed era anche nel consiglio di amministrazione di OpenAI, il colosso del settore su cui Microsoft ha scommesso miliardi di dollari che ha sviluppato ChatGpt. Investimenti, ha spiegato pi¨´ volte, non per guadagnare ma per tenersi al passo con i tempi e quindi conoscere queste tecnologie.?
LEGGI ANCHE
chatbot nel mirino
¡ª ?Nel mirino dei big non c'¨¨ tutta l'intelligenza artificiale ma i sistemi pi¨´ avanzati di Gpt-4, la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato. "I sistemi potenti di IA dovrebbero essere sviluppati solo quando si ha fiducia che i loro effetti saranno positivi e i loro rischi gestibili", si legge nella lettera in cui si parla di una "corsa fuori controllo allo sviluppo e al dispiegamento di potenti menti digitali che nessuno, neanche i loro creatori, possono capire, prevedere e controllare". Una corsa che, se non sar¨¤ fermata potrebbe rischiare di far divenire realt¨¤ la fantascientifica 'Skynet' protagonista dei film di James Cameron e la sua decisione di distruggere l'umanit¨¤; oppure, pi¨´ prosaicamente, di far finire in mani sbagliate questi potenti sistemi con ricadute possibilmente devastanti. Pechino - ha ad esempio avvertito il senatore Mike Gallagher a capo della commissione della camera sulla Cina - vede l'intelligenza artificiale come uno "strumento o un'arma per perfezionare la sua sorveglianza orwelliana tecno-totalitaria".?
pausa di sei mesi
¡ª ?Proprio il timore di conseguenze catastrofiche ha spinto i grandi dell'hi-tech a chiedere una pausa di sei mesi da usare per lo "sviluppo congiunto e l'implementazione di protocolli condivisi" che assicurino la "sicurezza" dei sistemi "al di l¨¤ di ogni ragionevole dubbio", prosegue la lettera, che invita i laboratori di IA a concentrarsi nel rendere pi¨´ "accurati, trasparenti, credibili e leali" gli attuali sistemi invece di correre verso lo sviluppo di mezzi ancora pi¨´ potenti. "La societ¨¤ ha fatto una pausa su altre tecnologie con effetti potenzialmente catastrofici - prosegue la lettera -. Possiamo farlo anche in questo caso. Godiamoci una lunga estate dell'IA, e non corriamo impreparati verso l'autunno".
Gazzetta dello Sport
? RIPRODUZIONE RISERVATA