Ci risiamo. L'ennesima accusa ricevuta da Meta e da una delle principali aziende - Big Tech - del panorama internazionale riguarda, questa volta, la confusione e l'incoerenza nella gestione dei contenuti generati dall'intelligenza artificiale. L'accusa, questa volta, arriva da una commissione interna della stessa azienda.
Si tratta dell'Oversight Board, ovvero un organismo che prende decisioni in relazione alla gestione della moderazione dei contenuti sulle piattaforme Facebook e Instagram, si tratta di una forma di "autogoverno della piattaforma". Secondo il Consiglio, il modo in cui Meta applica le sue regole è "incoerente e ingiustificabile" e non è la prima volta che queste definizioni sono state utilizzate per descrivere le azioni di Meta.
Meta non riesce a riconoscere l'IA
Il problema, nonché nodo centrale dell'interna questione, nasce perché Meta non riesce a riconoscere automaticamente video o audio modificati con l'intelligenza artificiale. Uno degli ultimi esempi, riguarda un post che circolava su Facebook in cui era presente un audio falso in cui si potevano ascoltare due politici curdi che discutevano della possibilità di truccare le elezioni.
Anche se il contenuto è stato segnalato come disinformazione, Meta ha chiuso il caso senza farlo controllare da una persona. Solo dopo, e in altri post simili, è stato applicata un'etichetta per avvisare che l'audio era manipolato, ma il post originale è rimasto senza avviso.
Confusione fra gli utenti
Il Consiglio, dunque, ha spiegato che questo modo di agire da parte dell'azienda crea confusione tra gli utenti. Se due post con lo stesso contenuto ricevono trattamenti diversi, non sarà facile per gli utenti capire cosa è vero e cosa non lo è.
Tra le raccomandazioni, c'è quella di usare un processo chiaro per etichettare contenuti identici o simili in modo coerente. Meta avrà 60 giorni per correre ai ripari e modificare la propria gestione dei contenuti tramite IA. Tra le ultime novità in casa Meta, segnaliamo l'adozione di passkey su Facebook.