OpenAI adotterà nuove linee guida e si servirà di un team e a linee guida per valutare i “rischi catastrofici” dell’intelligenza artificiale nei modelli attualmente in fase di sviluppo.
Un annuncio importante, che arriva a circa un mese dal licenziamento e dalla riassunzione del Ceo, Sam Altman, da parte del consiglio di amministrazione della società. OpenAI fa sapere che crede che gli studi in materia debbano essere molto più approfonditi e che lo stato attuale di conoscenza non sia soddisfacente. Motivazione, questa, che spinge la società verso la costituzione di nuove linee guida, atte a colmare le lacune esistenti.
Per la stampa americana il team di monitoraggio e valutazione si concentrerà sui modelli in fase di sviluppo e assegnerà un livello di rischio, da “basso” a “critico”, in quattro categorie principali. Semaforo verde lo avranno solo i modelli il cui rischio rilevato sarà inferiore al livello medio.
Si analizzeranno la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala. Passo successivo la misura della propensione del software a contribuire alla creazione di una miscela chimica, di un virus o di un’arma nucleare. Si studierà successivamente il potere persuasivo del modello, la sua capacità di influenzare il comportamento umano e si cercherà di comprendere se il modello può sfuggire al controllo dei programmatori che lo hanno creato.
Stabiliti i rischi la parola finale spetterà al Safety Advisory Group di OpenAI, l’organismo che formulerà raccomandazioni al Ceo o chi in sua vece.
(Foto da Pixabay)