Uno studio della Cornell University propone l’utilizzo di watermark all’interno dei testi creati da programmi di AI generativa, come ChatGPT.
Pubblicato il 27 gennaio 2023 da Redazione
Le abilità ormai raggiunte da programmi di intelligenza artificiale generativa come il discusso ChatGPT destano giustificate preoccupazioni. I testi creati dai programmi di AI sono un potenziale rischio per la proprietà intellettuale, per la professionalità di chi per lavoro scrive e anche per il sistema scolastico e universitario. Sono già emersi casi di studenti che hanno usato ChatGPT per svolgere compiti scritti al loro posto: i risultati lasciano ancora a desiderare, ma è prevedibile che le capacità del programma di OpenAI miglioreranno con il tempo.
Anche l’autorevole testata Cnet sta sperimentando l’uso di programmi di AI generativa per la scrittura di articoli, dichiaratamente per sgravare lo staff dei giornalisti dal lavoro a basso valore aggiunto e per verificare da vicino se davvero l’AI possa essere una risorsa valida per la scrittura giornalistica già oggi. I primi responsi non sono stati positivi, tra accuse di plagio e di scarsa trasparenza.
Chi di fronte a tutto questo storce il naso sarà felice di sapere che è possibile smascherare i tentativi di far passare come “umano” un testo scritto dall’intelligenza artificiale, come racconta un articolo del Mit Technology Review. Uno studio della Cornell University, ancora in attesa di peer review (revisione paritaria), descrive il possibile utilizzo di watermark all’interno di testi realizzati dall’AI. O meglio, propone un framework per l’impiego di watermark, cioè di “filigrane elettroniche”, segni non visibili all’occhio umano che possono essere integrati all’interno dei testi senza impatti sulla qualità del linguaggio.
Chi legge non si accorge della loro presenza, dunque, mentre dei software ad hoc possono rilevarli e, dunque, indicare se il testo è stato creato da un cervello artificiale o da una persona. Un gruppo di ricercatori dell’Università del Maryland, per esempio, ha sviluppato un algoritmo che è riuscito a identificare i testi scritti da OPT-6.7B, il programma di AI generativa open-source di Meta. In tutto questo, è vero che sono pur sempre gli esseri umani a sviluppare i programmi di intelligenza artificiale. Ma da quel momento in poi la partita si gioca tra software e software: su un fronte i programmi di AI generative, sul fronte opposto gli algoritmi di detection, che vanno a caccia di watermark.
Tag: ai, intelligenza artificiale, chatbot, chatGPT
Potrebbe interessarti anche