Almeno quattro articoli accreditano lo strumento ChatGPT-AI come coautore, mentre gli editori si affrettano a regolamentarne l’uso.
Il chatbot di intelligenza artificiale (AI) ChatGPT che ha preso d’assalto il mondo ha fatto il suo debutto formale nella letteratura scientifica, accumulando almeno quattro crediti di paternità su articoli pubblicati e preprint.
Redattori di riviste, ricercatori ed editori stanno ora discutendo il posto di tali strumenti di intelligenza artificiale nella letteratura pubblicata e se sia appropriato citare il bot come autore. Gli editori stanno correndo per creare politiche per il chatbot, che è stato rilasciato come strumento gratuito a novembre dalla società tecnologica OpenAI di San Francisco, in California.
Il bot AI ChatGPT scrive saggi intelligenti: i professori dovrebbero preoccuparsi?
ChatGPT è un modello linguistico di grandi dimensioni (LLM), che genera frasi convincenti imitando i modelli statistici del linguaggio in un enorme database di testo raccolto da Internet. Il bot sta già sconvolgendo settori tra cui quello accademico: in particolare, sta sollevando interrogativi sul futuro dei saggi universitari e della produzione di ricerca.
Gli editori e i server di prestampa contattati dal team di notizie di Nature concordano sul fatto che AI come ChatGPT non soddisfano i criteri per un autore di studio, perché non possono assumersi la responsabilità del contenuto e dell’integrità degli articoli scientifici.Ma alcuni editori affermano che il contributo di un’intelligenza artificiale alla scrittura di articoli può essere riconosciuto in sezioni diverse dall’elenco degli autori.
In un caso, un editore ha detto a Nature che ChatGPT era stato citato per errore come coautore e che la rivista avrebbe corretto.
Autore artificiale
ChatGPT è uno dei 12 autori su una prestampa sull’utilizzo dello strumento per l’educazione medica, pubblicato sul repository medico medRxiv nel dicembre dello scorso anno.
“Il team dietro il repository e il suo sito gemello, bioRxiv, stanno discutendo se sia appropriato utilizzare e accreditare strumenti di intelligenza artificiale come ChatGPT quando si scrivono studi”, afferma il co-fondatore Richard Sever, assistente Direttore della stampa del Cold Spring Harbor Laboratory a New York. “Le convenzioni potrebbero cambiare”, aggiunge.
“Dobbiamo distinguere il ruolo formale di un autore di un manoscritto accademico dalla nozione più generale di un autore come autore di un documento”, afferma Sever. Gli autori si assumono la responsabilità legale del loro lavoro, quindi solo le persone dovrebbero essere elencate, dice. “Naturalmente, le persone potrebbero provare a introdurlo di nascosto – questo è già successo a medRxiv – proprio come in passato le persone hanno elencato animali domestici, persone immaginarie, ecc. ” (Victor Tseng, autore corrispondente della prestampa e Direttore medico di Ansible Health a Mountain View, California, non ha risposto a una richiesta di commento).
Un editoriale pubblicato sulla rivista Nurse Education in Practice questo mese accredita l’IA come coautore, insieme a Siobhan O’Connor, ricercatrice di tecnologia sanitaria presso l’Università di Manchester, nel Regno Unito. Roger Watson, caporedattore della rivista, afferma che questo credito è scivolato per errore e sarà presto corretto. “È stata una mia svista”, dice, “perché gli editoriali passano attraverso un sistema di gestione diverso dai documenti di ricerca”.
E Alex Zhavoronkov, amministratore delegato di Insilico Medicine, una società di scoperta di farmaci alimentata dall’intelligenza artificiale a Hong Kong, ha accreditato ChatGPT come coautore di un articolo di prospettiva sulla rivista Oncoscience il mese scorso. Dice che la sua azienda ha pubblicato più di 80 articoli prodotti da strumenti di intelligenza artificiale generativa.“Non siamo nuovi in questo campo”, dice. L’ultimo articolo discute i pro e i contro dell’assunzione del farmaco Rapamicina, nel contesto di un argomento filosofico chiamato “La scommessa di Pascal”. “ChatGPT ha scritto un articolo migliore rispetto alle precedenti generazioni di strumenti di intelligenza artificiale generativa”, afferma Zhavoronkov.
Dice che Oncoscience peer ha rivisto questo documento dopo aver chiesto al suo editore di farlo. La rivista non ha risposto alla richiesta di commento di Nature.
“Un quarto articolo, co-scritto da un precedente chatbot chiamato GPT-3 e pubblicato sul server di prestampa francese HAL nel giugno 2022, sarà presto pubblicato in una rivista peer-reviewed”, afferma la coautrice Almira Osmanovic Thunström, neurobiologa presso Sahlgrenska Ospedale universitario di Göteborg, Svezia. Dice che un giornale ha rifiutato l’articolo dopo la revisione, ma un secondo lo ha accettato con GPT-3 come autore dopo aver riscritto l’articolo in risposta alle richieste del revisore.
Norme dell’editore
I redattori capo di Nature and Science hanno dichiarato al team di notizie di Nature che ChatGPT non soddisfa lo standard per la paternità. “Un’attribuzione di paternità porta con sé la responsabilità per il lavoro, che non può essere efficacemente applicata agli LLM“, afferma Magdalena Skipper, caporedattore di Nature a Londra. “Gli autori che utilizzano gli LLM in qualsiasi modo durante lo sviluppo di un documento dovrebbero documentare il loro utilizzo nelle sezioni dei metodi o dei ringraziamenti, se appropriato”, afferma.
“Non permetteremmo che AI fosse elencato come autore su un articolo che abbiamo pubblicato e l’uso di testo generato da AI senza una citazione adeguata potrebbe essere considerato plagio“, afferma Holden Thorp, redattore capo della famiglia di riviste Science in Washington DC.
“L’editore Taylor & Francis di Londra sta rivedendo la sua politica”, afferma Sabina Alam, Direttrice dell’etica editoriale e dell’integrità. Concorda sul fatto che gli autori sono responsabili della validità e integrità del loro lavoro e dovrebbero citare qualsiasi uso di LLM nella sezione dei ringraziamenti. Taylor & Francis non ha ancora ricevuto alcun contributo che accredita ChatGPT come coautore.
“Il consiglio di amministrazione del server di prestampa di scienze fisiche arXiv ha avuto discussioni interne e sta iniziando a convergere su un approccio all’uso delle IA generative”, afferma il Direttore scientifico Steinn Sigurdsson, astronomo presso la Pennsylvania State University di University Park. Concorda sul fatto che uno strumento software non può essere l’autore di una presentazione, in parte perché non può acconsentire ai termini di utilizzo e al diritto di distribuire il contenuto.Sigurdsson non è a conoscenza di alcuna prestampa arXiv che elenchi ChatGPT come coautore e afferma che la guida per gli autori arriverà presto.
L’etica dell’IA generativa
“Esistono già chiare linee guida sulla paternità che indicano che ChatGPT non dovrebbe essere accreditato come coautore”, afferma Matt Hodgkinson, responsabile dell’integrità della ricerca presso il Research Integrity Office del Regno Unito a Londra, parlando a titolo personale. Una linea guida è che un coautore deve dare un “significativo contributo accademico” all’articolo, cosa che potrebbe essere possibile con strumenti come ChatGPT. Ma deve anche avere la capacità di accettare di essere un coautore e di assumersi la responsabilità di uno studio – o, almeno, della parte a cui ha contribuito. “È davvero quella seconda parte in cui l’idea di dare la co-paternità a uno strumento di intelligenza artificiale incontra davvero un ostacolo“, afferma.
Zhavoronkov afferma che quando ha cercato di convincere ChatGPT a scrivere articoli più tecnici rispetto alla prospettiva che ha pubblicato, non ci è riuscito. “Molto spesso ChatGPT restituisce affermazioni che non sono necessariamente vere, e se gli fai più volte la stessa domanda, ti darà risposte diverse”, dice. “Quindi sarò sicuramente preoccupato per l’uso improprio del sistema nel mondo accademico, perché ora le persone senza esperienza nel settore potrebbero provare a scrivere articoli scientifici”.
Fonte: Nature