Questa settimana Google ha rimosso dal suo sito web l'impegno a non costruire delle intelligenze artificiali per le armi o la sorveglianza. La modifica è stata notata per la prima volta da Bloomberg.
L'azienda sembra aver aggiornato la sua pagina pubblica sui principi dell'IA, cancellando la sezione "applicazioni che non perseguiremo", che era ancora presente la settimana scorsa.
L'IA e Google
Alla richiesta di un commento, l'azienda ha segnalato alla testata TechCrunch un nuovo post sul blog dedicato all'"IA responsabile". In esso si legge, in parte, che "crediamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare un'IA che protegga le persone, promuova la crescita globale e sostenga la sicurezza nazionale". Per quanto tutto questo suoni bene, non è la stessa cosa che affermare che l'IA non sarà usata per le armi.
I nuovi principi aggiornati di Google sull'IA indicano che l'azienda lavorerà per "mitigare i risultati non intenzionali o dannosi ed evitare pregiudizi ingiusti", oltre ad allinearsi ai "principi ampiamente accettati del diritto internazionale e dei diritti umani". Di nuovo, per quanto positivo questo commento sia, non è esattamente la stessa cosa dell'originale.
L'IA è già usata in campo militare, ad esempio negli USA il Dipartimento della Difesa usa l'IA per ottenere un "vantaggio significativo" nell'identificare, tracciare e valutare le minacce, ha dichiarato in un'intervista a TechCrunch il responsabile del Pentagono per il digitale e l'intelligenza artificiale, la dottoressa Radha Plumb.
"Ovviamente stiamo aumentando i modi in cui possiamo accelerare l'esecuzione della kill chain, in modo che i nostri comandanti possano rispondere al momento giusto per proteggere le nostre forze", ha detto Plumb. Il termine "kill chain" si riferisce al processo militare di identificazione, tracciamento ed eliminazione delle minacce, che coinvolge un complesso sistema di sensori, piattaforme e armi. Secondo Plumb, l'intelligenza artificiale generativa si sta rivelando utile durante le fasi di pianificazione e strategizzazione della kill chain.
Google ha contratti con le divisioni militari degli USA e Israele per la fornitura di servizi cloud, cosa che ha fatto nascere anche delle proteste interne dei dipendenti della compagnia, che ha però continuato ad affermare che l'IA non viene usata per far del male alle persone. Nel frattempo l'UE ora fa sul serio con l'AI Act: multe salate a chi non si adegua alle regole sull'intelligenza artificiale.