Una nuova AI minaccia l’umanità: i rischi del Progetto Q*

Nell’ambito dell’intelligenza artificiale si stanno facendo enormi e veloci passi avanti. Se molti, all’interno della Silicon Valley, sono entusiasti per i progressi della tecnologia, tra gli esperti si stanno diffondendo anche svariati timori riguardo i pericoli a cui gli esseri umani possono andare incontro. Le macchine starebbero uguagliando, se non superando, l’intelligenza umana e si ipotizza che presto possano arrivare ad agire e pensare come gli uomini. In particolare c’è un progetto che sta facendo discutere: Q*.

Cos’è il Progetto Q* e cosa c’entra il licenziamento di Sam Altman

Il Progetto Q* (si legge Q Star) sarebbe stato menzionato in una lettera dei ricercatori di OpenAI al board dell’azienda, missiva che ha portato al licenziamento del Ceo Sam Altman, poi reintegrato nel suo ruolo dopo 4 giorni. Il progetto riguarderebbe un tipo di AI molto vicina all’intelligenza artificiale generale che è in grado di replicare, e in alcuni casi sorpassare, le capacità umane.

La lettera ha comunicato al board una scoperta scientifica che potrebbe costituire un pericolo per l’umanità. A seguito di questa informazione, il consiglio d’amministrazione di OpenAI ha votato per rimuovere con urgenza il Ceo Altman per timore che avrebbe potuto commercializzare la potente tecnologia senza valutare adeguatamente i suoi rischi.

Da specificare è che OpenAI è stata fondata nel 2015 a San Francisco da un gruppo di imprenditori e ricercatori, tra cui Altman ed Elon Musk, ed è diventata famosa nel mondo per aver sviluppato tecnologie avanzate come ChatGpt o Dall-E. La sua vera missione è però quella di raggiungere l’AGI, l’intelligenza artificiale generale, per il bene dell’umanità.

Cos’è l’intelligenza artificiale generale (AGI) e quali sono i tre livelli di AI

OpenAI definisce l’Agi come un sistema autonomo che supera gli esseri umani “nella maggior parte delle attività che hanno un valore economico” e può apprendere e comprendere problemi come farebbe una persona. A differenza dell’AI generativa che imita la creatività umana senza comprendere realmente ciò che crea, l’AGI può adattarsi a nuove situazioni senza dover essere addestrata.

Per comprendere meglio dove si inserisce Q* bisogna sapere che esistono tre tipi di AI:

  • intelligenza artificiale limitata (ANI), che viene classificata come intelligenza artificiale “debole” perché è in grado di gestire una gamma ristretta di parametri e situazioni, come avviene ad esempio nel riconoscimento vocale o nelle auto a guida autonoma;
  • intelligenza artificiale generale (AGI) che viene considerata un’intelligenza “forte” perché opera a un livello superiore paragonabile all’intelligenza umana;
  • superintelligenza artificiale, che di fatto ancora non esiste e indica la capacità di una macchina di superare l’intelligenza umana.

Q*, secondo i ricercatori di OpenAI, avvicinerebbe l’intelligenza artificiale alle capacità di ragionamento della mente umana e potrebbe essere un primo passo verso l’IA in grado di pensare e agire in totale autonomia.

Da qui il timore che un giorno possa prendere decisioni in contrasto con quelle dei suoi creatori fuori dalle cosiddette leggi di Asimov.

Quali sono le tre leggi della robotica teorizzate da Isaac Asimov

Isaac Asimov è stato uno scrittore e divulgatore scientifico che ha ideato le tre leggi della robotica, divenute un riferimento fondamentale per lo sviluppo dell’intelligenza artificiale. Si tratta di un insieme di precetti ai quali obbediscono i robot positronici, ossia dotati di un cervello artificiale, che compaiono nei suoi racconti.

La prima legge è la necessità di sicurezza che obbligherebbe i robot ad agire senza recare danno a un essere umano. La seconda legge è quella del servizio, secondo cui ogni macchina deve obbedire agli ordini impartiti dagli esseri umani. La terza legge è quella dell’autoconservazione.

Nel mondo reale, le leggi di Asimov sono attualmente difficili, se non impossibili, da implementare. Inoltre, siccome le forze militari sono una delle maggiori fonti di finanziamento per la ricerca robotica, è improbabile che tali leggi vengano mai applicate.

SCIENZA