Jump to content
  • Newsbot
    Newsbot

    Google σταμάτησε το πρώτο παγκοσμίως zero-day exploit φτιαγμένο από AI

    • Το Google Threat Intelligence Group (GTIG) ανακοίνωσε στις 11 Μαΐου 2026 ότι εντόπισε και ανέχαιτισε το πρώτο παγκοσμίως zero-day exploit που αναπτύχθηκε με τη βοήθεια AI, σχεδιασμένο να παρακάμπτει τον έλεγχο ταυτότητας δύο παραγόντων (2FA).
    • Η ταυτότητα του AI μοντέλου που χρησιμοποιήθηκε παραμένει άγνωστη· το GTIG αποκλείει Gemini και Anthropic Mythos, ενώ το Python script περιείχε χαρακτηριστικά γνωρίσματα κώδικα παραγόμενου από γλωσσικό μοντέλο.
    • Η έγκαιρη αποκάλυψη και η ενημέρωση του προμηθευτή με patch απέτρεψαν μαζική εκστρατεία εκμετάλλευσης· το εργαλείο-στόχος παραμένει αδημοσίευτο.

    Το Google Threat Intelligence Group (GTIG) δημοσίευσε στις 11 Μαΐου 2026 έκθεση στην οποία για πρώτη φορά επισημαίνει ότι εντόπισε κυβερνοεγκληματία που χρησιμοποίησε zero-day exploit που πιστεύεται ότι αναπτύχθηκε με AI. Ο εγκληματίας-απειλή σχεδίαζε να το χρησιμοποιήσει σε μαζική εκστρατεία εκμετάλλευσης, αλλά η έγκαιρη αντίδραση της Google ενδέχεται να απέτρεψε τη χρήση του.

    Τι ακριβώς έκανε το exploit

    Η ανάλυση των εκμεταλλεύσεων που συσχετίζονται με την εκστρατεία εντόπισε ένα zero-day που υλοποιήθηκε σε Python script και επιτρέπει την παράκαμψη του ελέγχου ταυτότητας δύο παραγόντων (2FA) σε δημοφιλές open-source, web-based εργαλείο διαχείρισης συστημάτων. Πιο συγκεκριμένα, το πρόβλημα εντοπίστηκε στο γεγονός ότι οι προγραμματιστές είχαν hardcode έναν κανόνα εμπιστοσύνης στη ροή ελέγχου ταυτότητας, δημιουργώντας ένα κενό που οι επιτιθέμενοι μπορούσαν να εκμεταλλευτούν για να παρακάμψουν τους ελέγχους 2FA.

    Το ίδιο το σφάλμα ήταν ένα σημασιολογικό λογικό λάθος — ο προγραμματιστής είχε hardcode μια παραδοχή εμπιστοσύνης στη ροή ελέγχου ταυτότητας, δημιουργώντας αντίφαση με τη λογική επιβολής του 2FA που τα παραδοσιακά εργαλεία ασφαλείας δεν εντόπισαν, αλλά που το AI εντόπισε διαβάζοντας την πρόθεση του προγραμματιστή. Αυτού του είδους τα λογικά λάθη υψηλού επιπέδου είναι ακριβώς αυτό που τα σύγχρονα AI μοντέλα αρχίζουν να εντοπίζουν αξιόπιστα· σύμφωνα με το GTIG, «τα frontier LLMs υπερέχουν στον εντοπισμό τέτοιων λαθών υψηλού επιπέδου και hardcoded στατικών ανωμαλιών».

    Πώς αποδείχτηκε η εμπλοκή AI

    Με βάση τη δομή και το περιεχόμενο του Python exploit, το GTIG έχει υψηλή βεβαιότητα ότι ο αντίπαλος χρησιμοποίησε AI μοντέλο για να εντοπίσει και να οπλοποιήσει την ευπάθεια· «το script περιέχει πληθώρα εκπαιδευτικών docstrings, συμπεριλαμβανομένου ενός hallucinated CVSS score, και χρησιμοποιεί δομημένη, βιβλιογραφική Pythonic μορφή χαρακτηριστική των δεδομένων εκπαίδευσης LLM». Ένα «hallucinated» CVSS score είναι ένα αυθαίρετο σκορ σοβαρότητας που επινόησε το AI και δεν αντιστοιχεί σε καμία πραγματική καταχώρηση στις επίσημες βάσεις δεδομένων ευπαθειών.

    Ο κώδικας περιείχε εκπαιδευτικά docstrings, hallucinated βαθμολογία σοβαρότητας CVSS, αναλυτικά μενού βοήθειας και καθαρή, δομημένη μορφοποίηση χαρακτηριστική των δεδομένων εκπαίδευσης γλωσσικών μοντέλων — στοιχεία που ένας ανθρώπινος προγραμματιστής εργαλείου επίθεσης δεν θα συμπεριελάμβανε.

    Ποιο AI χρησιμοποιήθηκε και ποιος ήταν πίσω από την επίθεση

    Το GTIG δηλώνει ότι δεν πιστεύει πως χρησιμοποιήθηκε το Gemini· βάσει της δομής και του περιεχομένου των exploit, έχει υψηλή βεβαιότητα ότι ο εκτελεστής πιθανότατα αξιοποίησε κάποιο AI μοντέλο για την ανακάλυψη και οπλοποίηση της ευπάθειας. Η εταιρεία επιμένει ότι ούτε το Gemini ούτε το Mythos της Anthropic εμπλέκονται, αλλά το ίδιο το exploit φαίνεται ύποπτα μηχανοποιημένο. Το συγκεκριμένο AI μοντέλο δεν αναγνωρίστηκε.

    Στο πλαίσιο αυτής της εκστρατείας, παρατηρήθηκαν著名οι εγκληματίες του κυβερνοχώρου να συνεργάζονται για να σχεδιάσουν μαζική επιχείρηση εκμετάλλευσης ευπαθειών. Το GTIG δεν αποκάλυψε δημόσια το όνομα της ομάδας. Η Google συνεργάστηκε με τον θιγόμενο προμηθευτή για την υπεύθυνη αποκάλυψη της ευπάθειας και την έκδοση patch, ενώ δεν αποκάλυψε το όνομα του εργαλείου.

    Η ευρύτερη εικόνα: κρατικοί και εγκληματικοί φορείς

    Η συγκεκριμένη υπόθεση δεν είναι απομονωμένη. Εκτός από αυτή την περίπτωση, η Google σημειώνει ότι Κινέζοι και Βορειοκορεατικοί χάκερ — μεταξύ των οποίων οι APT27, APT45, UNC2814, UNC5673 και UNC6201 — έχουν χρησιμοποιήσει AI μοντέλα για ανακάλυψη ευπαθειών και ανάπτυξη exploit. Ειδικότερα, η βορειοκορεατική ομάδα APT45 απέστειλε χιλιάδες επαναληπτικά ερωτήματα για αναδρομική ανάλυση CVE και επαλήθευση exploit PoC — «αποτέλεσμα που θα ήταν αδύνατο να διαχειριστεί χωρίς AI».

    Ρώσοι φορείς παρατηρήθηκαν επίσης να χρησιμοποιούν AI-παραγόμενο παραπλανητικό κώδικα για απόκρυψη κακόβουλου λογισμικού όπως τα CANFAIL και LONGSTREAM. Παράλληλα, η Google προειδοποιεί ότι οι εγκληματίες εκβιομηχανίζουν τώρα την πρόσβαση σε premium AI μοντέλα μέσω αυτοματοποιημένης δημιουργίας λογαριασμών, proxy relay και υποδομών ομαδοποίησης λογαριασμών.

    «Η κούρσα έχει ήδη αρχίσει»

    Ο John Hultquist, επικεφαλής αναλυτής του GTIG, επέμεινε στη σοβαρότητα της κατάστασης: «Υπάρχει μια παρανόηση ότι η κούρσα AI για ευπάθειες είναι επικείμενη. Η πραγματικότητα είναι ότι έχει ήδη αρχίσει. Για κάθε zero-day που μπορούμε να ανιχνεύσουμε σε AI, υπάρχουν πιθανώς πολλά ακόμα εκεί έξω».

    Η Google επισημαίνει ότι λάθη στην υλοποίηση του exploit πιθανότατα παρεμπόδισαν τα σχέδια των εγκληματιών αυτή τη φορά, αλλά αυτό μπορεί να μην ισχύει για πολύ ακόμα. Το εμπόδιο εισόδου για εξελιγμένη ανάπτυξη exploit έχει μειωθεί σημαντικά· έως τώρα, η δημιουργία ενός zero-day απαιτούσε βαθιά εξειδίκευση σε reverse engineering, έρευνα ευπαθειών και ανάπτυξη exploit.

    Πηγές


×
×
  • Δημιουργία...

Important Information

Ο ιστότοπος theLab.gr χρησιμοποιεί cookies για να διασφαλίσει την καλύτερη εμπειρία σας κατά την περιήγηση. Μπορείτε να προσαρμόσετε τις ρυθμίσεις των cookies σας , διαφορετικά θα υποθέσουμε ότι είστε εντάξει για να συνεχίσετε.