OpenAI: un team e linee guida per valutare “rischi catastrofici” IA

OpenAI adotterà nuove linee guida e si servirà di un team e a linee guida per valutare i “rischi catastrofici” dell’intelligenza artificiale nei modelli attualmente in fase di sviluppo.

Un annuncio importante, che arriva a circa un mese dal licenziamento e dalla riassunzione del Ceo, Sam Altman, da parte del consiglio di amministrazione della società. OpenAI fa sapere che crede che gli studi in materia debbano essere molto più approfonditi e che lo stato attuale di conoscenza non sia soddisfacente. Motivazione, questa, che spinge la società verso la costituzione di nuove linee guida, atte a colmare le lacune esistenti.

Per la stampa americana il team di monitoraggio e valutazione si concentrerà sui modelli in fase di sviluppo e assegnerà un livello di rischio, da “basso” a “critico”, in quattro categorie principali. Semaforo verde lo avranno solo i modelli il cui rischio rilevato sarà inferiore al livello medio.

Si analizzeranno la sicurezza informatica e la capacità del modello di effettuare attacchi informatici su larga scala. Passo successivo la misura della propensione del software a contribuire alla creazione di una miscela chimica, di un virus o di un’arma nucleare. Si studierà successivamente il potere persuasivo del modello, la sua capacità di influenzare il comportamento umano e si cercherà di comprendere se il modello può sfuggire al controllo dei programmatori che lo hanno creato.

Stabiliti i rischi la parola finale spetterà al Safety Advisory Group di OpenAI, l’organismo che formulerà raccomandazioni al Ceo o chi in sua vece.

(Foto da Pixabay)

Condividi
Per informazioni scrivere a: info@tfnews.it