7

Godot gode poco: il codice generato con le IA inviato da degli incompetenti lo sta distruggendo

La natura aperta e libera di Godot potrebbe essere la sua rovina, perché l'invio di codice generato con l'IA sta rendendo difficile la vita dei curatori.

NOTIZIA di Simone Tagliaferri   —   22/02/2026
Un uomo affoga con un laptop in mano

Godot è probabilmente il più importante motore per videogiochi open source sul mercato, utilizzatissimo soprattutto dagli sviluppatori indipendenti che non hanno budget faraonici a disposizione. Purtroppo, pare che proprio la sua natura libera e aperta potrebbe essere la sua rovina, nell'epoca delle intelligenze artificiali generative in mano all'incompetenza di massa.

L'idea dell'open source è quella di creare una forza positiva, basata sulla collaborazione volontaria e consapevole degli sviluppatori. Storicamente ha prodotto dei risultati eccellenti in ambito software, ma l'arrivo dei modelli linguistici generativi sta rendendo la vita difficile a più di un progetto, in particolare a Godot, che sta subendo una dannosissima ondata di contributi creati con le IA.

Semplicemente, molti di questi contengono codice inutilizzabile e dannoso per il progetto, inviato da gente che non capiva cosa stava facendo, tanto da accompagnare l'invio con descrizioni verbose e poco affidabili. Riassumendo: sono degli incompetenti che vogliono nascondere la loro incapacità e mancanza di preparazione dietro a parole altisonanti.

I danni delle IA

I manutentori del progetto, tra cui Rémi Verschelde (uno dei principali responsabili del repository GitHub e cofondatore di W4 Games), hanno raccontato che gestire questa marea di "AI slop" sta diventando sempre più stancante e demoralizzante. Ogni pull request deve essere esaminata con grande attenzione: bisogna capire se il codice è valido, se l'autore lo comprende davvero e se è stato testato. Spesso le risposte degli autori confermano l'uso dell'IA, ma senza chiarire il livello dell'intervento umano.

Il problema non è solo distinguere il codice generato dall'IA da quello umano, ma anche decidere se gli errori derivino dall'IA o dall'inesperienza del contributore. Inoltre, la grande quantità di codice di bassa qualità rallenta il lavoro dei manutentori, che devono aiutare i nuovi contributori a rendere il codice accettabile. Verschelde teme che questa situazione possa diventare insostenibile nel lungo periodo.

NVIDIA fa retromarcia su OpenAI: il nuovo accordo vale 70 miliardi in meno NVIDIA fa retromarcia su OpenAI: il nuovo accordo vale 70 miliardi in meno

Le possibili soluzioni includono l'introduzione di strumenti automatici per individuare i contributi generati dall'IA, ma ciò appare assurdo e paradossale, perché costringerebbe a usare l'IA per combattere gli effetti dell'IA. Si sta valutando anche l'idea di spostare il progetto su piattaforme diverse, ma questo potrebbe ridurre la partecipazione della comunità.

Anche GitHub, di proprietà di Microsoft, ha riconosciuto il problema dell'aumento dei contributi di bassa qualità e sta studiando soluzioni per migliorare la gestione delle pull request. Tuttavia, per Verschelde la vera risposta è soprattutto economica: servono più fondi per poter assumere manutentori e gestire l'ondata di contributi IA.