Η American Association for Cancer Research (AACR) παρουσίασε στο 10th International Congress on Peer Review and Scientific Publications που έγινε στο Σικάγο των ΗΠΑ, ευρήματα που δείχνουν εκτεταμένη χρήση μεγάλων γλωσσικών μοντέλων (LLMs) σε επιστημονικές δημοσιεύσεις. Από ανάλυση πολλών εργασιών διαπιστώθηκε ότι έως 23% των abstracts και σχεδόν 5% των peer-review reports περιείχαν αποσπάσματα τα οποία έχουν παραχθεί από AI, ενώ λιγότεροι των 25% των συγγραφέων δήλωσαν τη χρήση τους, παρότι υπήρχε ρητή υποχρέωση δήλωσης της χρήσης της.
Η AACR χρησιμοποίησε το εργαλείο Pangram, με ακρίβεια 99,85% και χαμηλά ποσοστά false positives. Το σύστημα αυτό, μπορεί να ανιχνεύει διαφορετικά LLMs (ChatGPT, Claude, LLaMa, DeepSeek), αλλά δεν μπορεί να εντοπίσει αν το κείμενο έχει αναθεωρηθεί από ανθρώπινο παράγοντα. Παρά την απαγόρευση χρήσης LLMs από peer reviewers ήδη από το 2023, το ποσοστό χρήσης διπλασιάστηκε το 2024, γεγονός που δείχνει το εύρος της διείσδυσης της χρήσης της ΤΝ στην επιστημονική κοινότητα αλλά και για την αξιοπιστία της διαδικασίας αξιολόγησης.
Διεθνές πλαίσιο πολιτικών disclosure
Ο εκδοτικός όμιλος Springer Nature απαιτεί από το 2023 οι συγγραφείς να δηλώνουν ρητά αν χρησιμοποίησαν AI σε συγγραφή ή ανάλυση, με λεπτομέρειες για το εργαλείο και πώς χρησιμοποιήθηκε. Η Elsevier επίσης ζητά disclosure, διευκρινίζοντας ότι η ευθύνη για την ακρίβεια του περιεχομένου παραμένει στον συγγραφέα, ενώ η Nature έχει ήδη δημοσιεύσει οδηγίες χρήσης LLMs για authors και reviewers. Ωστόσο, η AACR προχωρά πιο δυναμικά, εφαρμόζοντας καθολικό screening όλων των submissions και peer reviews, αντί να βασίζεται αποκλειστικά στην ειλικρίνεια των συγγραφέων.
Για να φανεί αν η AACR κινείται μόνη της ή ακολουθεί μια ευρύτερη τάση, αξίζει να συγκρίνουμε τις πολιτικές disclosure που εφαρμόζουν και άλλοι
μεγάλοι εκδότες επιστημονικών περιοδικών:
Συγκριτικός πίνακας πολιτικών disclosure για χρήση AI
Εκδότης / Οργανισμός | Πολιτική Disclosure | Ιδιαιτερότητες |
---|---|---|
AACR (American Association for Cancer Research) | Υποχρεωτική δήλωση χρήσης AI· από το 2024 εφαρμόζεται καθολικός έλεγχος (screening) σε abstracts και peer reviews με AI detectors. | Απαγόρευση χρήσης LLMs από reviewers· προωθείται ενισχυμένη δήλωση με λεπτομέρειες για τον τρόπο χρήσης AI. |
Springer Nature | Από το 2023 απαιτεί disclosure για κάθε χρήση AI. | Υποχρεωτική αναφορά εργαλείου και σκοπού (π.χ. γλωσσική επιμέλεια)· η ευθύνη περιεχομένου παραμένει στους συγγραφείς. |
Elsevier | Ζητά disclosure σε όλα τα στάδια συγγραφής. | Το AI δεν μπορεί να θεωρηθεί συν-συγγραφέας· οι συγγραφείς είναι υπεύθυνοι για ακρίβεια, πρωτοτυπία και δεοντολογία. |
Nature (όμιλος) | Δημοσιευμένες οδηγίες για χρήση LLMs από authors και reviewers. | Ενθαρρύνει διαφάνεια και περιορισμένη χρήση για γλωσσική υποστήριξη· σύσταση οι reviewers να μην χρησιμοποιούν LLMs στις αξιολογήσεις. |
IEEE | Υποχρεωτική γνωστοποίηση χρήσης AI. | Δεν επιτρέπεται απόδοση authorship σε AI εργαλεία· προτείνεται disclosure σε υποσημειώσεις. |
Πιθανές συνέπειες για το σύστημα δημοσίευσης
Η εντατικοποίηση των ελέγχων μπορεί να οδηγήσει σε αύξηση των απορρίψεων ή σε αύξηση των retractions εφόσον αποκαλυφθεί εκτεταμένη μη δηλωμένη χρήση ΤΝ σε δημοσιευμένα άρθρα. Παράλληλα, ενδέχεται να αλλάξουν οι πρακτικές peer reviewing, με περισσότερη έμφαση σε cross-checking και στην ανθρώπινη επιμέλεια. Ένα τέτοιο κλίμα θα μπορούσε να οδηγήσει σε μεγαλύτερη καθυστέρηση στη διαδικασία δημοσίευσης αλλά και σε ενίσχυση της αξιοπιστίας.
Προτάσεις της AACR
Η AACR δεν περιορίζεται σε απαγορεύσεις. Στο συνέδριο παρουσίασε ένα περίγραμμα βέλτιστων πρακτικών, που περιλαμβάνει:
-
Ενισχυμένη δήλωση: υποχρεωτική αναφορά όχι μόνο του αν, αλλά και του πώς χρησιμοποιήθηκε AI (π.χ. για γλωσσική επιμέλεια, για συνοπτική περίληψη ή για παραγωγή μεθοδολογικών αποσπασμάτων).
-
Επιμόρφωση reviewers: εκπαιδευτικά σεμινάρια για να κατανοούν τα όρια και τις παγίδες της χρήσης LLMs.
-
Συνδυασμό ανιχνευτών: χρήση πολλαπλών συστημάτων AI detection ώστε να περιοριστούν τα λάθη και να διασφαλιστεί η αμεροληψία.
Η χρήση AI στη συγγραφή επιστημονικών άρθρων είναι πλέον πραγματικότητα, αλλά η μη δήλωσή της δημιουργεί ζητήματα εμπιστοσύνης. Η AACR με τα νέα μέτρα δεν στοχεύει απλώς στον έλεγχο, αλλά στη διαμόρφωση ενός πλαισίου όπου η τεχνητή νοημοσύνη μπορεί να αξιοποιηθεί υπεύθυνα, χωρίς να αλλοιώνει την αξιοπιστία της επιστημονικής επικοινωνίας. Το ερώτημα που μένει είναι αν οι υπόλοιποι μεγάλοι εκδότες θα ακολουθήσουν με ανάλογη αυστηρότητα ή θα αρκεστούν στις υφιστάμενες πολιτικές disclosure.
Recommended Comments
There are no comments to display.
Create an account or sign in to comment
You need to be a member in order to leave a comment
Create an account
Sign up for a new account in our community. It's easy!
Register a new accountSign in
Already have an account? Sign in here.
Sign In Now