Η τεχνητή νοημοσύνη δεν χρησιμοποιείται πλέον μόνο για chatbots, εικόνες ή προγραμματισμό. Σύμφωνα με νέα έκθεση της Google Threat Intelligence Group (GTIG), hackers χρησιμοποίησαν AI για να αναπτύξουν πραγματικό zero-day exploit που εντοπίστηκε «στην άγρια φύση» — δηλαδή σε πραγματική κακόβουλη επίθεση.
Και αυτό θεωρείται ιστορική στιγμή για τον χώρο της κυβερνοασφάλειας.
Τι είναι ένα zero-day exploit;
Zero-day vulnerability ονομάζεται ένα κενό ασφαλείας που:
- είναι άγνωστο στον κατασκευαστή
- δεν έχει διορθωθεί ακόμα
- και μπορεί να χρησιμοποιηθεί άμεσα από hackers.
Ονομάζεται “zero-day” επειδή οι εταιρείες έχουν… μηδέν ημέρες για να προστατευθούν πριν ξεκινήσει η εκμετάλλευση του προβλήματος.
Τέτοιου είδους exploits θεωρούνται από τα πιο επικίνδυνα όπλα στον κυβερνοχώρο.
Τι ακριβώς ανακάλυψε η Google
Σύμφωνα με την GTIG, μια οργανωμένη cybercrime ομάδα χρησιμοποίησε large language models (LLMs) για να δημιουργήσει exploit που παρέκαμπτε two-factor authentication (2FA) σε δημοφιλές open-source web administration εργαλείο.
Η Google αναφέρει ότι:
- το exploit είχε γραφτεί σε Python
- περιείχε “hallucinated” CVSS score
- χρησιμοποιούσε docstrings και formatting χαρακτηριστικά AI-generated code
- και παρουσίαζε δομή που θύμιζε εκπαιδευτικά datasets LLMs.
Με απλά λόγια:
η AI πιθανότατα βοήθησε όχι μόνο στη συγγραφή του κώδικα, αλλά και στην ίδια την ανακάλυψη της ευπάθειας.
Η Google λέει ότι αποτράπηκε «μαζική επίθεση»
Το πιο ανησυχητικό στοιχείο είναι ότι η συγκεκριμένη ομάδα φέρεται να σχεδίαζε μαζική exploitation campaign.
Η Google πιστεύει ότι η έγκαιρη ανίχνευση της δραστηριότητας πιθανότατα απέτρεψε ένα πολύ μεγαλύτερο περιστατικό ασφαλείας.
Η εταιρεία δεν αποκάλυψε:
- ποιο ακριβώς open-source εργαλείο στοχοποιήθηκε
- ούτε ποια ομάδα βρίσκεται πίσω από την επίθεση.
Ωστόσο, ξεκαθάρισε ότι δεν υπάρχουν ενδείξεις πως χρησιμοποιήθηκε το Gemini model της Google.
Γιατί αυτό θεωρείται τόσο σημαντικό
Μέχρι σήμερα, η AI χρησιμοποιούνταν κυρίως από hackers για:
- phishing emails
- malware obfuscation
- social engineering
- fake identities
- automated reconnaissance.
Τώρα όμως φαίνεται πως περνάμε σε επόμενο επίπεδο:
AI-assisted vulnerability discovery και exploit generation.
Αυτό σημαίνει ότι:
- οι επιθέσεις μπορούν να γίνουν ταχύτερες
- η εύρεση vulnerabilities αυτοματοποιείται
- και το κόστος ανάπτυξης sophisticated attacks μειώνεται δραματικά.
Η Google μάλιστα προειδοποιεί ότι η «AI arms race» στην κυβερνοασφάλεια έχει ήδη ξεκινήσει.
Οι hackers χρησιμοποιούν πλέον AI σαν “force multiplier”
Η νέα έκθεση της GTIG περιγράφει ένα περιβάλλον όπου:
- AI models βοηθούν σε reverse engineering
- δημιουργούν polymorphic malware
- γράφουν decoy code
- και προσαρμόζουν exploits δυναμικά ανάλογα με το target system.
Μάλιστα, η Google αναφέρει malware όπως το PROMPTSPY, το οποίο μπορεί να:
- αναλύει system state
- δημιουργεί commands αυτόνομα
- και αλληλεπιδρά δυναμικά με το περιβάλλον του θύματος.
Αυτό θυμίζει περισσότερο “autonomous cyber agents” παρά παραδοσιακό malware.
Η AI γίνεται πλέον και στόχος επιθέσεων
Το report δεν εστιάζει μόνο στη χρήση AI από hackers.
Η Google προειδοποιεί επίσης ότι:
- AI infrastructure
- machine learning pipelines
- και model supply chains
γίνονται πλέον νέα attack surfaces.
Κυβερνοεγκληματίες έχουν ήδη αρχίσει να στοχεύουν:
- AI environments
- training dependencies
- model APIs
- και cloud AI εργαλεία.
Και αυτό ανοίγει εντελώς νέο κεφάλαιο στην κυβερνοασφάλεια.
Οι ειδικοί μιλούν για «την κορυφή του παγόβουνου»
Αναλυτές ασφαλείας θεωρούν ότι αυτό είναι πιθανότατα μόνο η αρχή.
Όπως ανέφερε χαρακτηριστικά το TechRadar:
“This is the tip of the iceberg.”
Η μεγάλη ανησυχία είναι ότι:
- τα AI models γίνονται όλο και καλύτερα στον προγραμματισμό
- κατανοούν λογικά flaws
- και μπορούν να αναλύουν τεράστιες βάσεις vulnerabilities πολύ γρηγορότερα από ανθρώπους researchers.
Και όσο τα μοντέλα γίνονται πιο agentic και autonomous, τόσο αυξάνεται ο κίνδυνος industrial-scale cyberattacks.
Οι εταιρείες AI προσπαθούν ήδη να βάλουν φρένα
Η κατάσταση έχει αρχίσει να ανησυχεί σοβαρά και τις ίδιες τις AI εταιρείες.
Σύμφωνα με αναφορές:
- η Anthropic περιόρισε την πρόσβαση στο μοντέλο Mythos
- λόγω ανησυχιών ότι μπορούσε να ανακαλύπτει zero-day vulnerabilities αυτόνομα.
Παράλληλα:
- OpenAI
- Anthropic
- και άλλες AI εταιρείες
επενδύουν πλέον όλο και περισσότερο σε:
- AI safety
- exploit detection
- misuse prevention
- και defensive AI tooling.
Συμπέρασμα
Η ανακάλυψη του πρώτου AI-assisted zero-day exploit ίσως αποτελεί σημείο καμπής για την κυβερνοασφάλεια.
Για πρώτη φορά βλέπουμε AI να χρησιμοποιείται όχι απλώς ως βοηθητικό εργαλείο hacking, αλλά ως ενεργό μέρος της διαδικασίας δημιουργίας exploit.
Και αυτό αλλάζει πλήρως την ισορροπία μεταξύ:
- attackers
- defenders
- και εταιρειών τεχνολογίας.
Το μόνο βέβαιο είναι ότι η μάχη της κυβερνοασφάλειας μπαίνει πλέον στην εποχή της τεχνητής νοημοσύνης — και οι επόμενοι μήνες πιθανότατα θα δείξουν πόσο γρήγορα μπορεί να εξελιχθεί αυτή η νέα μορφή ψηφιακού πολέμου.
Κάντε like στη σελίδα μας στο facebook και ενημερωθείτε για ό,τι νέο.

