ChatGPT-Immagine Credit Public Domain-
Se sei uno studente che usa ChatGPT, potresti voler ripensarci prima di usarlo!
Nei pochi mesi da quando ChatGPT è stato introdotto pubblicamente, ha preso d’assalto il mondo. Ha la capacità di produrre tutti i tipi di contenuti basati su testo, anche superando esami che sono impegnativi per gli esseri umani. Naturalmente, gli studenti hanno iniziato a prenderne atto. Puoi utilizzare ChatGPT per aiutarti con saggi e tutti i tipi di compiti, soprattutto perché il contenuto che emette non è plagiato, o no?
Secondo un nuovo studio, i modelli linguistici come ChatGPT possono plagiare su più livelli. Anche se non sempre prendono le idee alla lettera da altre fonti, possono riformulare o parafrasare le idee senza cambiarne affatto il significato, il che non è ancora accettabile.
“Il plagio ha gusti diversi”, ha affermato Dongwon Lee, Professore di scienze e tecnologia dell’informazione alla Penn State University e coautore del nuovo studio. “Volevamo vedere se i modelli linguistici non solo copiano e incollano, ma ricorrono a forme più sofisticate di plagio senza rendersene conto”. Ecco, ChatGPT lo ha fatto davvero!
Essere uno studente universitario al giorno d’oggi può essere piuttosto impegnativo. Dopo il periodo di blocco della pandemia, molte cose sono cambiate: le Università devono affrontare carenze di personale e problemi di salute poiché c’è molto più lavoro online da svolgere, il che può essere impegnativo in diversi modi. Oltre alle sfide tecniche, come la necessità di possedere un laptop o un computer con una connessione Internet sufficientemente stabile, gli studenti hanno dovuto sviluppare una serie complementare di competenze, in particolare in termini di alfabetizzazione informatica. Sempre di più, devi sapere come gestire il sistema di gestione dei corsi online, navigare tra lezioni e registrazioni, modificare e inviare compiti e saggi rigorosamente in digitale. Alcuni anni fa, potresti essere riuscito a cavartela senza utilizzare cose come Google Drive o un pdf editor, ma al giorno d’oggi non è più così.
Comprensibilmente, gli studenti hanno colto al volo l’opportunità di avere un assistente AI che facesse il lavoro per loro. A prima vista, questo assistente sembra sicuro perché nonostante sia addestrato sui dati esistenti, l’IA produce un nuovo testo che non può essere accusato di plagio. O così sembrerebbe!!
Lee e colleghi si sono concentrati sull’identificazione di tre forme di plagio:
- letterale o copia diretta;
- parafrasare o riformulare;
- riformulazione e ristrutturazione dei contenuti senza citare la fonte originale.
Tutto questo è, in sostanza, plagio.
Poiché i ricercatori non sono stati in grado di costruire una “pipeline” per ChatGPT, hanno lavorato con GPT-2, una precedente iterazione del modello linguistico. Hanno utilizzato 210.000 testi generati per testare il plagio “in modelli linguistici pre-addestrati e modelli linguistici perfezionati o modelli addestrati ulteriormente per concentrarsi su aree tematiche specifiche“. Nel complesso, il team ha scoperto che l’intelligenza artificiale è coinvolta in tutte e tre le forme di plagio e più grande è il set di dati su cui è stato addestrato il modello, più spesso si è verificato il plagio. Ciò suggerisce che i modelli più grandi sarebbero ancora più predisposti a questo.
Vedki anche:ChatGPT è quasi abbastanza bravo per diventare un medico
“Le persone perseguono modelli linguistici di grandi dimensioni perché più grande diventa il modello, più aumentano le capacità di generazione”, ha affermato l’autore principale Jooyoung Lee, dottorando presso il College of Information Sciences and Technology della Penn State. “Allo stesso tempo, stanno mettendo a repentaglio l’originalità e la creatività dei contenuti all’interno del corpus formativo. Questa è una scoperta importante”.
Non è la prima volta che viene proposta una cosa del genere. Un documento uscito poco più di un anno fa e già citato più di 1.300 volte afferma che questo tipo di intelligenza artificiale è un “pappagallo stocastico” che si limita a ripetere a pappagallo informazioni esistenti, senza produrre veramente nulla di nuovo.
È ancora presto per questo tipo di tecnologia e sono necessarie molte più ricerche per comprendere problemi come questo, ma le aziende sembrano ansiose di rilasciare questa tecnologia in libertà prima che questo tipo di problema possa essere compreso. Secondo gli autori dello studio, questa ricerca evidenzia la necessità di ulteriori ricerche sugli enigmi etici posti dai generatori di testo.
“Anche se il risultato può essere allettante e i modelli linguistici possono essere divertenti da usare e sembrare produttivi per determinati compiti, ciò non significa che siano pratici”, ha affermato Thai Le, assistente Professore di informatica e scienze dell’informazione presso l’Università del Mississippi che ha iniziato a lavorare al progetto come dottorando alla Penn State. “In pratica, dobbiamo occuparci delle questioni etiche e di copyright poste dai generatori di testo”.
Nel frattempo, i generatori di testo AI sono impostati per innescare una corsa agli armamenti. I rilevatori di plagio sono dappertutto: essere in grado di rilevare gli imbrogli di ChatGPT (o gli imbrogli di qualsiasi IA generativa) è prezioso per garantire l’integrità accademica. Ma resta da vedere se ci riusciranno o meno. Per ora, gli strumenti attuali non sembrano fare un lavoro abbastanza buono.
Nel frattempo, gli studenti universitari (e non solo) continueranno a utilizzare ChatGPT per i loro compiti se potranno farla franca. Una nuova alba del plagio potrebbe essere su di noi e non sarà così facile da affrontare.
I ricercatori presenteranno le loro scoperte alla 2023 ACM Web Conference, che si svolgerà dal 30 aprile al 4 maggio ad Austin, in Texas.
Fonte:ZMEscience