Τεχνητή νοημοσύνη στα επιστημονικά άρθρα: η AACR ανιχνεύει 23% χρήσης σε abstracts και ενισχύει τους ελέγχους
Η AACR χρησιμοποίησε το εργαλείο Pangram, με ακρίβεια 99,85% και χαμηλά ποσοστά false positives. Το σύστημα αυτό, μπορεί να ανιχνεύει διαφορετικά LLMs (ChatGPT, Claude, LLaMa, DeepSeek), αλλά δεν μπορεί να εντοπίσει αν το κείμενο έχει αναθεωρηθεί από ανθρώπινο παράγοντα. Παρά την απαγόρευση χρήσης LLMs από peer reviewers ήδη από το 2023, το ποσοστό χρήσης διπλασιάστηκε το 2024, γεγονός που δείχνει το εύρος της διείσδυσης της χρήσης της ΤΝ στην επιστημονική κοινότητα αλλά και για την αξιοπιστία της διαδικασίας αξιολόγησης.
Διεθνές πλαίσιο πολιτικών disclosure
Ο εκδοτικός όμιλος Springer Nature απαιτεί από το 2023 οι συγγραφείς να δηλώνουν ρητά αν χρησιμοποίησαν AI σε συγγραφή ή ανάλυση, με λεπτομέρειες για το εργαλείο και πώς χρησιμοποιήθηκε. Η Elsevier επίσης ζητά disclosure, διευκρινίζοντας ότι η ευθύνη για την ακρίβεια του περιεχομένου παραμένει στον συγγραφέα, ενώ η Nature έχει ήδη δημοσιεύσει οδηγίες χρήσης LLMs για authors και reviewers. Ωστόσο, η AACR προχωρά πιο δυναμικά, εφαρμόζοντας καθολικό screening όλων των submissions και peer reviews, αντί να βασίζεται αποκλειστικά στην ειλικρίνεια των συγγραφέων.
Για να φανεί αν η AACR κινείται μόνη της ή ακολουθεί μια ευρύτερη τάση, αξίζει να συγκρίνουμε τις πολιτικές disclosure που εφαρμόζουν και άλλοι
μεγάλοι εκδότες επιστημονικών περιοδικών:
Συγκριτικός πίνακας πολιτικών disclosure για χρήση AI
Εκδότης / Οργανισμός Πολιτική Disclosure Ιδιαιτερότητες AACR (American Association for Cancer Research) Υποχρεωτική δήλωση χρήσης AI· από το 2024 εφαρμόζεται καθολικός έλεγχος (screening) σε abstracts και peer reviews με AI detectors. Απαγόρευση χρήσης LLMs από reviewers· προωθείται ενισχυμένη δήλωση με λεπτομέρειες για τον τρόπο χρήσης AI. Springer Nature Από το 2023 απαιτεί disclosure για κάθε χρήση AI. Υποχρεωτική αναφορά εργαλείου και σκοπού (π.χ. γλωσσική επιμέλεια)· η ευθύνη περιεχομένου παραμένει στους συγγραφείς. Elsevier Ζητά disclosure σε όλα τα στάδια συγγραφής. Το AI δεν μπορεί να θεωρηθεί συν-συγγραφέας· οι συγγραφείς είναι υπεύθυνοι για ακρίβεια, πρωτοτυπία και δεοντολογία. Nature (όμιλος) Δημοσιευμένες οδηγίες για χρήση LLMs από authors και reviewers. Ενθαρρύνει διαφάνεια και περιορισμένη χρήση για γλωσσική υποστήριξη· σύσταση οι reviewers να μην χρησιμοποιούν LLMs στις αξιολογήσεις. IEEE Υποχρεωτική γνωστοποίηση χρήσης AI. Δεν επιτρέπεται απόδοση authorship σε AI εργαλεία· προτείνεται disclosure σε υποσημειώσεις.
Πιθανές συνέπειες για το σύστημα δημοσίευσης
Η εντατικοποίηση των ελέγχων μπορεί να οδηγήσει σε αύξηση των απορρίψεων ή σε αύξηση των retractions εφόσον αποκαλυφθεί εκτεταμένη μη δηλωμένη χρήση ΤΝ σε δημοσιευμένα άρθρα. Παράλληλα, ενδέχεται να αλλάξουν οι πρακτικές peer reviewing, με περισσότερη έμφαση σε cross-checking και στην ανθρώπινη επιμέλεια. Ένα τέτοιο κλίμα θα μπορούσε να οδηγήσει σε μεγαλύτερη καθυστέρηση στη διαδικασία δημοσίευσης αλλά και σε ενίσχυση της αξιοπιστίας.
Προτάσεις της AACR
Η AACR δεν περιορίζεται σε απαγορεύσεις. Στο συνέδριο παρουσίασε ένα περίγραμμα βέλτιστων πρακτικών, που περιλαμβάνει:
Ενισχυμένη δήλωση: υποχρεωτική αναφορά όχι μόνο του αν, αλλά και του πώς χρησιμοποιήθηκε AI (π.χ. για γλωσσική επιμέλεια, για συνοπτική περίληψη ή για παραγωγή μεθοδολογικών αποσπασμάτων).
Επιμόρφωση reviewers: εκπαιδευτικά σεμινάρια για να κατανοούν τα όρια και τις παγίδες της χρήσης LLMs.
Συνδυασμό ανιχνευτών: χρήση πολλαπλών συστημάτων AI detection ώστε να περιοριστούν τα λάθη και να διασφαλιστεί η αμεροληψία.
Η χρήση AI στη συγγραφή επιστημονικών άρθρων είναι πλέον πραγματικότητα, αλλά η μη δήλωσή της δημιουργεί ζητήματα εμπιστοσύνης. Η AACR με τα νέα μέτρα δεν στοχεύει απλώς στον έλεγχο, αλλά στη διαμόρφωση ενός πλαισίου όπου η τεχνητή νοημοσύνη μπορεί να αξιοποιηθεί υπεύθυνα, χωρίς να αλλοιώνει την αξιοπιστία της επιστημονικής επικοινωνίας. Το ερώτημα που μένει είναι αν οι υπόλοιποι μεγάλοι εκδότες θα ακολουθήσουν με ανάλογη αυστηρότητα ή θα αρκεστούν στις υφιστάμενες πολιτικές disclosure.
768
