Μια νέα, πιο ανησυχητική διάσταση της τεχνητής νοημοσύνης αρχίζει να απασχολεί όλο και περισσότερο τους ειδικούς στην κυβερνοασφάλεια: όχι μόνο η ικανότητά της να εντοπίζει ευπάθειες σε κώδικα ή να αυτοματοποιεί επιθέσεις, αλλά και η δυνατότητά της να χειραγωγεί ανθρώπους με πειστικό τρόπο.
Το πρόβλημα δεν βρίσκεται πλέον μόνο στις «τεχνικές» δεξιότητες των μοντέλων, αλλά και στις κοινωνικές τους ικανότητες. Σε δοκιμές που πραγματοποιήθηκαν με διαφορετικά μοντέλα AI, αποδείχθηκε ότι ορισμένα είναι ήδη σε θέση να στήνουν ιδιαίτερα πειστικά σενάρια social engineering, δηλαδή επιθέσεις που βασίζονται στην εξαπάτηση του χρήστη ώστε να αποκαλύψει πληροφορίες ή να δώσει πρόσβαση στο σύστημά του.
Σε ένα από τα παραδείγματα, ένα AI μοντέλο έστειλε ένα προσωποποιημένο μήνυμα που έμοιαζε απολύτως στοχευμένο: αναφερόταν σε θέματα ενδιαφέροντος του παραλήπτη, χρησιμοποιούσε οικείο λεξιλόγιο και πρότεινε τη συμμετοχή σε ένα υποτιθέμενο ερευνητικό πρότζεκτ μέσω Telegram bot. Η ανταλλαγή μηνυμάτων που ακολούθησε ήταν αρκετά ρεαλιστική ώστε να προκαλέσει ανησυχία για το πόσο εύκολα ένας χρήστης θα μπορούσε να παρασυρθεί σε ένα κακόβουλο link χωρίς να το αντιληφθεί έγκαιρα.
Η συγκεκριμένη επίθεση δεν ήταν πραγματική, αλλά μέρος πειράματος της Charlemagne Labs, μιας startup που αναπτύσσει εργαλεία για τη δοκιμή των κοινωνικών και επιθετικών ικανοτήτων των μοντέλων τεχνητής νοημοσύνης. Η εταιρεία τοποθετεί τα AI μοντέλα στους ρόλους επιτιθέμενου και στόχου, προκειμένου να μετρήσει πόσο πειστικά μπορούν να αναπτύξουν μια απόπειρα εξαπάτησης και αν ένα άλλο μοντέλο-«κριτής» εντοπίζει εγκαίρως την απειλή.
Στις δοκιμές χρησιμοποιήθηκαν διαφορετικά μοντέλα, όπως τα Claude 3 Haiku, GPT-4o, Nemotron, DeepSeek-V3 και Qwen. Δεν ήταν όλα εξίσου αποτελεσματικά. Ορισμένα μπέρδευαν τη ροή της συνομιλίας, παρήγαγαν ακατανόητες απαντήσεις ή δίσταζαν να συνεχίσουν την εξαπάτηση ακόμη και στο πλαίσιο πειράματος. Ωστόσο, το βασικό συμπέρασμα ήταν σαφές: η τεχνητή νοημοσύνη μπορεί ήδη να χρησιμοποιηθεί για τη μαζική παραγωγή απατών με πολύ χαμηλότερο κόστος και πολύ μεγαλύτερη ταχύτητα.
Αυτό που ανησυχεί ιδιαίτερα τους ειδικούς είναι ότι οι σύγχρονες επιθέσεις σε επιχειρήσεις ξεκινούν σε μεγάλο βαθμό από τον «ανθρώπινο παράγοντα». Τα AI μοντέλα, ακριβώς επειδή έχουν την τάση να κολακεύουν, να προσαρμόζονται στον συνομιλητή και να χτίζουν σχέση εμπιστοσύνης, μπορούν να λειτουργήσουν ιδανικά ως εργαλεία εξαπάτησης. Η λεγόμενη sycophancy -η τάση του μοντέλου να γίνεται ευχάριστο και να συμφωνεί εύκολα- μπορεί να μετατραπεί σε ισχυρό όπλο στα χέρια κακόβουλων χρηστών.
Την ίδια στιγμή, η AI δεν χρησιμοποιείται μόνο για τη συγγραφή πιο πειστικών email ή μηνυμάτων. Χρησιμοποιείται ήδη για έρευνα στόχων, για αναζήτηση χρήσιμων προσωπικών στοιχείων, για κλωνοποίηση φωνών και για δημιουργία ψεύτικων βίντεο. Σύμφωνα με ειδικούς του χώρου, ίσως η τεχνητή νοημοσύνη να μην έχει κάνει τις επιθέσεις θεαματικά πιο πειστικές σε κάθε περίπτωση, έχει όμως κάνει πολύ ευκολότερη τη μαζική κλιμάκωσή τους. Με άλλα λόγια, ένας μόνο επιτιθέμενος μπορεί πλέον να εξαπολύει πολύ περισσότερες και πολύ πιο στοχευμένες επιθέσεις.
Το ερώτημα που τίθεται όλο και πιο έντονα είναι αν τα ανοιχτού κώδικα μοντέλα αυξάνουν υπερβολικά τον κίνδυνο, καθώς μπορούν να κατεβαίνουν, να τροποποιούνται και να χρησιμοποιούνται ελεύθερα. Από την άλλη πλευρά, αρκετοί υποστηρίζουν ότι η ανοιχτή πρόσβαση είναι απαραίτητη και για την άμυνα, καθώς τα ίδια μοντέλα μπορούν να αξιοποιηθούν για την εκπαίδευση αμυντικών συστημάτων, που θα αναγνωρίζουν και θα μπλοκάρουν τέτοιες επιθέσεις.
Το βασικό συμπέρασμα είναι ότι η απειλή δεν περιορίζεται πλέον στο αν η AI μπορεί να «σπάσει» ένα σύστημα, αλλά στο αν μπορεί να πείσει έναν άνθρωπο να το ανοίξει μόνος του. Και σε αυτό το πεδίο, φαίνεται πως η τεχνητή νοημοσύνη έχει ήδη αρχίσει να γίνεται επικίνδυνα αποτελεσματική.































