Bollino "AI-free code"

Salve,

non so se state seguendo la discussione su Copilot di Github, un sistema di machine learning che, allenato su sorgenti disponibili su Github talora sotto licenze proprietarie, talora sotto licenze di software libero (anche copyleft), “genera” codice per gli utenti “ripulendolo” dalle licenze originali.

Metto “genera” tra virgolette perché è capitato che Copilot restituisse parola per parola (inclusi i commenti) codice rilasciato sotto GPLv2, per esempio la “radice quadrata inversa” di Quake (video).

Metto “ripulendolo” tra virgolette perché lo status legale di Copilot e del codice da esso generato è del tutto ignoto, visto che non è ancora stato messo alla prova nei tribunali e la stessa FSF non ha ancora delle risposte: per cercarle ha appena indetto una call for papers.

Rischiando di apparire un “nemico del progresso”, faccio questa proposta: cosa ne direste di lanciare un bollino “AI-free” per i progetti di software libero? Sarebbe come autocertificare che “tutto il codice originale di questo progetto non è stato generato da algoritmi di intelligenza artificiale (es. machine learning, deep learning)”.

Questo da un lato offrirebbe una (per quanto debole) garanzia legale ad utenti ed aziende, che potrebbero da un giorno all’altro non poter più utilizzare un determinato software perché lesivo del diritto di autore di qualche altro software (e quindi soggetto a DMCA, cease-and-desist, etc.).

Dall’altro lato promuoverebbe una cultura di “umanesimo digitale” che mette al centro l’essere umano quale autore creativo (o artigiano) del software: una cultura di cui abbiamo disperatamente bisogno, visto che spesso quando si parla di digitale si mette da parte l’etica, considerata a volte come un ostacolo verso il raggiungimento di un astratto “progresso”.

Questo post non è una provocazione ma una proposta seria. Da utente di software libero, mi sentirei molto più sicuro se sapessi che i miei progetti preferiti sono scritti interamente da essere umani!

Oddio io uso già da sviluppatore strumenti come LSP o altri autocompletamenti che hanno un AI o un algoritmo sotto quindi da sviluppatore, manteiner di vari progetti open source non credo sia qualcosa di fattibile.
Anche perchè abbiamo strumenti che poi fanno analisi del codice per segnalare errori o altro, quindi anche le loro segnalazioni rientrano in questo contesto.

Direi che finchè le licenze non avranno delle sezioni che riguardano l’argomenti AI è tutto prematuro e alquanto fumoso. Nelle scorse puntate del mio podcast ho parlato di copilot su questi fattori.
Secondo me gli unici spunti utili sono questi due articoli:

Anche perché questi sono i veri fattori problematici, ci fu una discussione sulla mailing list di FSFE in merito e si arrivo alla conclusione che è tutto alla base della licenza.

PS: da sviluppatore ritengo gli strumenti AI o automatici molto migliori degli umani a segnalare problemi o codice migliori se fatti bene e copilot ha varie falle.

https://www.fsf.org/news/publication-of-the-fsf-funded-white-papers-on-questions-around-copilot

Ecco i white paper sponsorizzati dalla FSF a riguardo, per chi fosse interessato/a :slight_smile: