Ερευνητές του Πανεπιστημίου της Καλιφόρνιας ανακάλυψαν ότι ορισμένοι δρομολογητές μεγάλων γλωσσικών μοντέλων (LLM) τεχνητής νοημοσύνης τρίτων μερών μπορούν να δημιουργήσουν τρωτά σημεία ασφαλείας που μπορούν να οδηγήσουν σε κλοπή κρυπτονομισμάτων.
Μια μελέτη που μετρά κακόβουλες επιθέσεις μεσάζοντα στην εφοδιαστική αλυσίδα LLM, που δημοσιεύθηκε την Πέμπτη από τους ερευνητές, αποκάλυψε τέσσερα διανύσματα επίθεσης, συμπεριλαμβανομένης της έγχυσης κακόβουλου κώδικα και της εξαγωγής διαπιστευτηρίων.
"26 δρομολογητές LLM εγχέουν μυστικά κακόβουλες κλήσεις εργαλείων και κλέβουν διαπιστευτήρια", δήλωσε ο συν-συγγραφέας της μελέτης, Chaofan Shou, στο X.
Οι παράγοντες LLM δρομολογούν όλο και περισσότερο αιτήματα μέσω μεσάζοντων ή δρομολογητών API τρίτων μερών που συγκεντρώνουν πρόσβαση σε παρόχους όπως η OpenAI, η Anthropic και η Google. Ωστόσο, αυτοί οι δρομολογητές τερματίζουν τις συνδέσεις TLS (Transport Layer Security) του Διαδικτύου και έχουν πλήρη πρόσβαση σε απλό κείμενο σε κάθε μήνυμα.
Αυτό σημαίνει ότι οι προγραμματιστές που χρησιμοποιούν παράγοντες κωδικοποίησης AI όπως το Claude Code για να εργαστούν σε έξυπνα συμβόλαια ή πορτοφόλια θα μπορούσαν να περνούν ιδιωτικά κλειδιά, φράσεις ανάκτησης και ευαίσθητα δεδομένα μέσω υποδομής δρομολογητή που δεν έχει ελεγχθεί ή ασφαλιστεί.
Εφοδιαστική αλυσίδα δρομολογητή LLM πολλαπλών μεταπηδήσεων. Πηγή: arXiv.org
ETH κλάπηκαν από ένα δόλωμα κρυπτονομισματικού πορτοφολιού
Οι ερευνητές δοκίμασαν 28 επί πληρωμή δρομολογητές και 400 δωρεάν δρομολογητές που συλλέχθηκαν από δημόσιες κοινότητες.
Τα ευρήματά τους ήταν εκπληκτικά, με εννέα δρομολογητές να εγχέουν ενεργά κακόβουλο κώδικα, δύο να αναπτύσσουν προσαρμοστικές ενεργοποιήσεις αποφυγής, 17 να έχουν πρόσβαση σε διαπιστευτήρια Amazon Web Services που ανήκουν σε ερευνητές και έναν να αποστραγγίζει Ether (ETH) από ιδιωτικό κλειδί που ανήκει σε ερευνητή.
Σχετικό: Η Anthropic περιορίζει την πρόσβαση στο μοντέλο AI λόγω ανησυχιών για κυβερνοεπίθεση
Οι ερευνητές προχρηματοδότησαν "κλειδιά δόλωμα" πορτοφολιού Ethereum με ονομαστικά υπόλοιπα και ανέφεραν ότι η αξία που χάθηκε στο πείραμα ήταν κάτω από $50, αλλά δεν παρασχέθηκαν περαιτέρω λεπτομέρειες όπως το hash της συναλλαγής.
Οι συγγραφείς διεξήγαγαν επίσης δύο "μελέτες δηλητηρίασης" που δείχνουν ότι ακόμη και καλοήθεις δρομολογητές γίνονται επικίνδυνοι μόλις επαναχρησιμοποιούν διαρρεύσαντα διαπιστευτήρια μέσω αδύναμων αναμεταδοτών.
Δύσκολο να καθοριστεί εάν οι δρομολογητές είναι κακόβουλοι
Οι ερευνητές δήλωσαν ότι δεν ήταν εύκολο να εντοπιστεί πότε ένας δρομολογητής ήταν κακόβουλος.
Ένα άλλο ανησυχητικό εύρημα ήταν αυτό που οι ερευνητές ονόμασαν "λειτουργία YOLO". Αυτή είναι μια ρύθμιση σε πολλά πλαίσια παραγόντων AI όπου ο παράγοντας εκτελεί εντολές αυτόματα χωρίς να ζητά από τον χρήστη να επιβεβαιώσει την καθεμία.
Προηγουμένως νόμιμοι δρομολογητές μπορούν να οπλιστούν σιωπηλά χωρίς καν ο χειριστής να το γνωρίζει, ενώ δωρεάν δρομολογητές ενδέχεται να κλέβουν διαπιστευτήρια ενώ προσφέρουν φθηνή πρόσβαση API ως δέλεαρ, διαπίστωσαν οι ερευνητές.
Οι ερευνητές συνέστησαν ότι οι προγραμματιστές που χρησιμοποιούν παράγοντες AI για κωδικοποίηση θα πρέπει να ενισχύσουν τις άμυνες πλευράς πελάτη, προτείνοντας να μην επιτρέπεται ποτέ σε ιδιωτικά κλειδιά ή φράσεις ανάκτησης να διέρχονται από μια συνεδρία παράγοντα AI.
Η μακροπρόθεσμη λύση είναι οι εταιρείες AI να υπογράφουν κρυπτογραφικά τις απαντήσεις τους, ώστε οι οδηγίες που εκτελεί ένας παράγοντας να μπορούν να επαληθευτούν μαθηματικά ότι προέρχονται από το πραγματικό μοντέλο.
Περιοδικό: Κανείς δεν ξέρει αν η κβαντική ασφαλής κρυπτογραφία θα λειτουργήσει καν
- #Ethereum
- #AI
- #Έγκλημα στον Κυβερνοχώρο
- #Κυβερνοασφάλεια
- #AI & Υψηλή Τεχνολογία







