Η αμερικανική εταιρεία τεχνητής νοημοσύνης Anthropic προειδοποίησε για την αυξανόμενη απειλή που θέτουν οι χάκερς, οι οποίοι χρησιμοποιούν τις εξελιγμένες τεχνολογίες της για να πραγματοποιούν κυβερνοεπιθέσεις και να διαπράττουν εγκλήματα στον κυβερνοχώρο.
Η εταιρεία, γνωστή για το chatbot της «Claude», ανακοίνωσε ότι τα εργαλεία της χρησιμοποιήθηκαν για τη δημιουργία κώδικα που εξυπηρετούσε επιθέσεις, με αποτέλεσμα κλοπή και εκβιασμό προσωπικών δεδομένων σε μεγάλες κλίμακες.
Η Anthropic ανέφερε ότι, στην πιο πρόσφατη περίπτωση, οι χάκερς χρησιμοποίησαν την AI για να «γράφουν» κώδικες που επέτρεπαν την παραβίαση του συστήματος τουλάχιστον 17 οργανισμών, συμπεριλαμβανομένων κυβερνητικών φορέων. Οι δράστες χρησιμοποίησαν την τεχνολογία για να λάβουν τακτικές και στρατηγικές αποφάσεις, όπως το ποια δεδομένα να κλέψουν και πώς να συντάξουν εκβιαστικά μηνύματα, ενώ η AI υπέδειξε ακόμη και το ποσό του λύτρων για τις «θύματα».
Η χρήση της τεχνητής νοημοσύνης έχει γίνει εξαιρετικά δημοφιλής για τη δημιουργία κώδικα και την εκμετάλλευση αδυναμιών στον κυβερνοχώρο, κάτι που επιτρέπει στους χάκερς να εκμεταλλευτούν τα κενά ασφαλείας σε χρόνο ρεκόρ. Η Alina Timofeeva, σύμβουλος για το κυβερνοέγκλημα και την AI, υπογραμμίζει ότι «ο χρόνος που απαιτείται για να εκμεταλλευτούν τις ευπάθειες στον κυβερνοχώρο μειώνεται δραματικά», καλώντας τις οργανώσεις να επενδύσουν σε προληπτικά μέτρα ασφαλείας και όχι να περιμένουν να αντιδράσουν μετά την επίθεση.
Ακόμη πιο ανησυχητικό είναι ότι η τεχνητή νοημοσύνη δεν χρησιμοποιείται μόνο για κυβερνοεγκλήματα.
Η Anthropic αποκάλυψε ότι πράκτορες από τη Βόρεια Κορέα χρησιμοποίησαν το μοντέλο «Claude» για να δημιουργήσουν ψεύτικα προφίλ και να αποκτήσουν απομακρυσμένες θέσεις εργασίας σε μεγάλες αμερικανικές εταιρείες, παρακάμπτοντας έτσι διεθνείς κυρώσεις και αποφεύγοντας τα πολιτικά εμπόδια. Η AI χρησιμοποιήθηκε για να συντάξουν αιτήσεις για θέσεις εργασίας, να μεταφράζουν μηνύματα και να γράφουν κώδικα, διευκολύνοντας την είσοδο των Βορειοκορεατών σε αμερικανικούς τεχνολογικούς κολοσσούς.
Οι ειδικοί εκτιμούν ότι αυτή η πρακτική σηματοδοτεί μια «νέα φάση» στα εγκλήματα που σχετίζονται με τις θέσεις εργασίας και τα κυβερνοεγκλήματα, όπου οι τεχνολογίες AI συνδυάζονται με παραδοσιακές μεθόδους εξαπάτησης, όπως τα phishing emails και οι κενές θέσεις σε μη ασφαλείς συστήματα.
Η χρήση αυτών των εργαλείων από εγκληματίες αποδεικνύει την ανάγκη για αυστηρότερη προστασία και ενημέρωση γύρω από την τεχνητή νοημοσύνη, ώστε να περιοριστούν οι απειλές στον κυβερνοχώρο. Ειδικοί, όπως η Nivedita Murthy από την εταιρεία ασφάλειας Black Duck, αναφέρουν ότι «η AI είναι πλέον μια αποθήκη ευαίσθητων δεδομένων που απαιτεί προστασία, ακριβώς όπως οποιοδήποτε άλλο σύστημα αποθήκευσης».
BBC