Jump to content
  • astrolabos
    astrolabos

    Διαρροή συνομιλιών ChatGPT μέσα από το Google Search Console: τι συνέβη και τι λέει η OpenAI

    Η Ars Technica αποκάλυψε ότι ιδιωτικές συνομιλίες χρηστών με το ChatGPT εμφανίστηκαν σε αναφορές του Google Search Console. Το ζήτημα ήρθε στο φως στις 8 Νοεμβρίου 2025 και προκάλεσε ανησυχία για την προστασία προσωπικών δεδομένων, καθώς ορισμένα αποσπάσματα ήταν ιδιαίτερα προσωπικά. Σύμφωνα με τον αναλυτή Jason Packer, που εντόπισε πρώτος τα «περίεργα» ερωτήματα, η διαρροή υποδηλώνει ότι το ChatGPT μετατρέπει προτροπές χρηστών σε πραγματικά ερωτήματα στη Google. Αυτά τα ερωτήματα καταγράφονται στη συνέχεια στα εργαλεία της Google για διαχειριστές ιστοσελίδων.

     

    Η OpenAI απάντησε ότι επρόκειτο για σφάλμα που επηρέασε «μικρό αριθμό» προτροπών και έχει ήδη διορθωθεί. Η εξήγηση που προβάλλεται είναι ότι ο μηχανισμός του ChatGPT που μετατρέπει τις προτροπές σε ανώνυμες και ουδέτερες αναζητήσεις παρουσίασε δυσλειτουργία. Αυτό είχε ως αποτέλεσμα να στέλνονται στη Google αυτούσια τμήματα συνομιλιών. Αν ισχύει, οι διαχειριστές ιστοσελίδων μπορούσαν να βλέπουν στο Search Console ερωτήματα αναζήτησης που δεν ήταν απλές αναζητήσεις, αλλά κομμάτια διαλόγων. Αυτό εξηγεί γιατί πολλά παραδείγματα έμοιαζαν αμήχανα.

     

    Το περιστατικό διαφέρει από εκείνο του Αυγούστου 2025, όταν χιλιάδες δημόσια κοινοποιημένες συνομιλίες ChatGPT είχαν ευρετηριαστεί από τη Google και εμφανίζονταν στα αποτελέσματα αναζήτησης. Τότε η OpenAI είχε αποδώσει την έκθεση σε ρυθμίσεις δημόσιας κοινοποίησης που είχαν επιλέξει οι ίδιοι οι χρήστες. Στην παρούσα περίπτωση δεν μιλάμε για δημόσιες σελίδες, αλλά για λογαριασμούς Search Console όπου εμφανίστηκαν φράσεις που φαίνεται να προήλθαν από ιδιωτικές προτροπές. Αυτό αναζωπυρώνει τα ερωτήματα για το πώς τα μεγάλα μοντέλα συνδυάζουν περιήγηση και αναζήτηση, καθώς και τι ίχνος δεδομένων αφήνουν σε τρίτα συστήματα.

     

    Ο πρακτικός κίνδυνος δεν είναι θεωρητικός. Τα ερωτήματα αναζήτησης του Search Console μπορεί να περιλαμβάνουν ονόματα, τοποθεσίες, επαγγελματικά σχέδια ή ακόμη και ευαίσθητες πληροφορίες, όταν ο χρήστης «μιλά» ελεύθερα σε έναν συνομιλητή τεχνητής νοημοσύνης (chatbot). Αν αυτά περάσουν από τρίτα συστήματα, αποθηκεύονται για κάποιο διάστημα στη Google και προβάλλονται συγκεντρωτικά στους διαχειριστές. Η Ars Technica αναφέρει ότι η OpenAI διόρθωσε το πρόβλημα γρήγορα, όμως μένουν ανοιχτά ερωτήματα για την έκταση και την πρόληψη ανάλογων περιστατικών.

     

    Για τους χρήστες, το συμπέρασμα είναι απλό: όταν μια προτροπή απαιτεί αναζήτηση στο διαδίκτυο, συμπεριφερθείτε σαν να μπορεί να φτάσει σε τρίτα συστήματα. Αποφύγετε πλήρη ονόματα, ακριβείς διευθύνσεις ή επιχειρηματικά μυστικά. Για τους διαχειριστές ιστοσελίδων, αξίζει ένας έλεγχος των πρόσφατων ερωτημάτων στο Search Console. Αν εντοπιστούν μη φυσιολογικές εγγραφές, κρατήστε στιγμιότυπα, περιορίστε την πρόσβαση και ενημερώστε διαφανώς τους χρήστες σας.

     

    Σε επίπεδο αγοράς, το περιστατικό επαναφέρει τη συζήτηση για καταγραφή, ανωνυμοποίηση και σχεδιασμό με αρχές ελαχιστοποίησης των δεδομένων που συλλέγονται. Ακόμη και αν πρόκειται για σπάνιο σφάλμα, η λογοδοσία και οι σαφείς τεχνικοί έλεγχοι θα κρίνουν πόσο γρήγορα μπορεί να αποκατασταθεί η εμπιστοσύνη.


    Πηγή
    Φωτογραφία: Aurich Lawson | Getty Images
×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.