Artificial Intelligence Crime (AIC): Ένας Νέος Τρόπος Τέλεσης Εγκλημάτων
Όπως έχει γίνει ήδη αναφορά σε προηγούμενο άρθρο, μελετάται όλο και περισσότερο η χρήση της λεγόμενης «τεχνητής» νοημοσύνης στο πλαίσιο της εφαρμογής της αντεγκληματικής πολιτικής, ενώ ήδη βρίσκονται σε χρήση λογισμικά τα οποία με τη χρήση τεχνητής νοημοσύνης συνδράμουν στη διαλεύκανση εγκλημάτων αλλά και στην έκδοση δικαστικών αποφάσεων[1].
Ωστόσο, δεν βρίσκεται μακριά το ενδεχόμενο η τεχνητή νοημοσύνη να χρησιμοποιείται και για τον ακριβώς αντίθετο σκοπό, δηλαδή για την τέλεση εγκληματικών πράξεων, το λεγόμενο «έγκλημα μέσω τεχνητής νοημοσύνης» και στα αγγλικά AI Crime (AIC) [2]. Στο συγκεκριμένο άρθρο παρατίθενται χρήσιμα παραδείγματα που επιβεβαιώνουν τη χρήση συστημάτων τεχνητής νοημοσύνης για την τέλεση εγκηματικών ενεργειών.
Ένα πρώτο παράδειγμα τέτοιου είδους χρήσης αποτυπώνεται σε ένα πείραμα των Seymour και Tully (2016)[3]. Οι εν λόγω επιστήμονες δημιούργησαν στο πλαίσιο της έρευνας τους το SNAP_R, ένα νευρωτικό δίκτυο το οποίο μαθαίνει να στέλνει μηνύματα «phishing» μέσω του “twitter” σε συγκεκριμένους χρήστες από συγκεκριμένους χρήστες (End2End), λαμβάνοντας υπ’ όψη προηγούμενα tweets και retweets. Σκοπός είναι τα συγκεκριμένα μηνύματα «phishing» να λαμβάνουν το μεγαλύτερο δυνατό αριθμό κλικ, και πράγματι τα αποτελέσματα ήταν θεαματικά.
Στόχος των δύο επιστημόνων ήταν αφενός να αναδείξουν τη δυνατότητα χρήσης της μηχανικής μάθησης για κακόβουλες ενέργειες αλλά και τη σύνδεση αυτής με τα κοινωνικά δίκτυα, ως έναν αποτελεσματικό συνδυασμό για ενέργειες «phishing» και κοινωνικής μηχανικής (social engineering)[4].
Πάλι στο πλαίσιο του phishing μια άλλη ομάδα επιστημόνων δημιούργησε με τη χρήση νευρωνικών δικτύων και μηχανικής μάθησης το «DeepPhish», έναν αλγόριθμο το οποίο μπορεί να κάνει επιθέσεις phishing με αυξημένες πιθανότητες να «ξεγελάσουν» λογισμικά ανίχνευσης κυβερνοαπάτης[5].
Μια τρίτη περίπτωση αφορά το έγκλημα της χειραγώγησης της αγοράς και εντυπώνεται στο πείραμα του EnriqueMartınez-Miranda και των συνεργατών του. Στο συγκεκριμένο πείραμα έγινε προσομοίωση μιας αγοράς αξιών και με χρήση των στρατηγικών “spoofing” και “pinging” σε συνδυασμό με ενισχυμένη μάθηση μπορούσε να γίνει επηρεαστεί η τιμή ορισμένων αξιών[6].
Είναι γνωστό ότι γίνεται όλο και πιο ευρεία η χρήση αλγορίθμων στην αγορά και πώληση χρηματηστηριακών αξιών, στους οποίους βέβαια εφαρμόζεται μηχανική μάθηση. Τι θα γινόταν λοιπόν αν μπορούσε κάποιος άλλος αλγόριθμος να επηρεάσει τα δεδομένα τα οποία ο πρώτος θα λάμβανε υπ’ όψη για τη λήψη της απόφασης αγοράς ή πώλησης; Μια τέτοια περίπτωση καταγράφεται σε σχετική έρευνα, όταν ένα «social bot»[7] χρησιμοποιήθηκε ώστε να διασπείρει «ειδήσεις» μέσα από τα κοινωνικά δίκτυα που αφορούσαν μια μετοχή πολύ μικρής αξίας. Παρόλο που οι «άνθρωποι» παίκτες του χρηματιστηρίου σπάνια θα λάμβαναν υπ’ όψη τις αναρτήσεις των κοινωνικών δικτύων για την αγορά ή την πώληση μιας μετοχής, δεν συνέβη το ίδιο για τους «αλγοριθμικούς» παίκτες, οι οποίοι δεν είχαν τη δυνατότητα να ξεχωρίσουν ότι επρόκειτο για «bot» και όχι για πραγματικές ειδήσεις. Τούτο είχε σαν αποτέλεσμα η μετοχή σε μερικές εβδομάδες να αυξήσει την αξία της κατά 36.000%[8].
Ένας άλλος κίνδυνος σχετικά με τη χρήση εφαρμογών τεχνητής νοημοσύνης αφορά στο πεδίο της διακίνησης ναρκωτικών. Γνωστές είναι οι περιπτώσεις όπου έμποροι ναρκωτικών χρησιμοποιούν υποβρύχια ή άλλα μη επανδρωμένα οχήματα με σκοπό την με ασφάλεια διακίνηση μεγάλου όγκου ναρκωτικών ουσιών για μεγάλες αποστάσεις[9]. Δεδομένου ότι η πλοήγηση μη επανδρωμένων οχημάτων με χρήση συστημάτων τεχνητής νοημοσύνης βρίσκεται σε ανάπτυξη τουλάχιστον για μια δεκαπενταετία[10], στη βιβλιογραφία σημειώνεται ο κίνδυνος η τεχνητή νοημοσύνη να χρησιμοποιηθεί για τη διευκόλυνση της παράνομης διακίνησης ναρκωτικών ουσιών, αφού με τη χρήση GPS αλλά και μέσω συλλογής πληροφοριών από άλλα συστήματα, το μη επανδρωμένο όχημα θα μπορεί να πλοηγείται μόνο του χαράζοντας πορεία τέτοια ώστε να αποφεύγεται ο εντοπισμός από τις διωκτικές αρχές[11].
Τέλος, ένα άλλο ζήτημα εξαιρετικού ενδιαφέροντος σχετίζεται με τη χρήση των λεγόμενων “sexbots”. Τα sexbotsείναι ρομποτ τα οποία: έχουν ανθρωποειδή μορφή, την ικανότητα να κινούνται, και κάποιο βαθμό τεχνητής νοημοσύνης (δηλαδή ανταπόκριση σε ορισμένα ερεθίσματα που αντλούν από το χρήστη και το περιβάλλον). Ωστόσο κάποια “sexbots” προγραμματίστηκαν να προσομοιώνουν σεξουαλικά εγκλήματα, όπως ο βιασμός και η αποπλάνηση ανηλίκου, κάτι το οποίο προφανώς και εγείρει σημαντικά νομικά αλλά και ηθικά ζητήματα[12].
Τα παραπάνω αποτελούν δείκτες ή παραδείγματα ότι η μηχανική μάθηση και η τεχνητή νοημοσύνη ήδη από την αυγή της εφαρμογής τους χρησιμοποιούνται τόσο για νόμιμες ενέργειες όσο και για παράνομες πράξεις. Όπως ακριβώς και με τα υπολογιστικά συστήματα αλλά και κάθε άλλου είδους τεχνολογική εφαρμογή έτσι και στις συγκεκριμένες, προκύπτει το ζήτημα της λεγόμενης διπλής χρήση (dual-use)[13]. Συνεπώς, όσο η τεχνητή νοημοσύνη εξελίσσεται, τόσο περισσότερο αυξάνεται ο κίνδυνος της χρήσης τους σε εγκληματικές ενέργειες[14], με κίνδυνο είτε την τεχνοφοβία από πλευράς κοινωνίας είτε την εφαρμογή υπερβολικά αυστηρών νομοθετικών μέτρων που εν τέλει θα λειτουργούν κατασταλτικά προς την τεχνολογική και οικονομική ανάπτυξη.
Μάνος Τεχνίτης, Δικηγόρος, υπ. Δρ. Νομικής Σχολής ΔΠΘ, ΜΔΕ Εγκληματολογίας, ΜΔΕ Διεθνούς & Ευρωπαϊκού Εμπορικού Δικαίου,
[1] Ιδίου, Τεχνητή Νοημοσύνη & Αντεγκληματική Πολιτική, Crime Times, Τεύχος 9, Μάιος 2019. https://www.crimetimes.gr/τεχνητή-νοημοσύνη-αντεγκληματική-πο/
[2] Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo, Luciano Floridi, Science and Engineering Ethics , Springer, 2019. http://link.springer.com/10.1007/s11948-018-00081-0
[3] Weaponizing data science for social engineering: Automated E2E spear phishing on Twitter, John Seymour & Philip Tully, 2016, https://www.blackhat.com/docs/us-16/materials/us-16-Seymour-Tully-Weaponizing-Data-Science-For-Social-Engineering-Automated-E2E-Spear-Phishing-On-Twitter-wp.pdf
[4] Social Engineering, The Art of Human Hacking, Hadnagy C, Indianapolis: Wiley Publishing. 11-17, 2011.
[5] DeepPhish: Simulating Malicious AI, Alejandro Correa Bahnsen, Ivan Torroledo, Luis David Camacho and Sergio Villegas, Cyber Threat Analytics, Cyxtera Technologies. https://pdfs.semanticscholar.org/ae99/765d48ab80fe3e221f2eedec719af80b93f9.pdf
[6] Learning Unfair Trading: a Market Manipulation Analysis From the Reinforcement Learning Perspective
Enrique Mart ́ınez-Miranda and Peter McBurney and Matthew J. Howard Department of Informatics
King’s College London, 2015. https://arxiv.org/pdf/1511.00740.pdf
[7] “Social Bots” είναι αυτοματοποιημένα προγράμματα που διαχειρίζονται ψηφιακά κοινωνικά δίκτυα. Μπορούν να χρησιμοποιηθούν για να διασπείρουν κακόβουλο υλικό και ψευδείς ειδήσεις καθώς και να επηρεάσουν ψηφιακά τους χρήστες. Τέτοια εργαλεία έχουν χρησιμοποιηθεί πολλές φορές από πολιτικούς και «διασήμους» με σκοπό να αυξήσουν τη δημοτικότητα τους. Manipulation and deception with social bots: Strategies and indicators for minimizing impact, Haugen, G. M. S., 2017, http://hdl.handle.net/11250/2448952.
[8] The rise of social bots, Ferrara, E., Varol, O., Davis, C., Menczer, F., & Flammini, A, Communications of the ACM, 59(7), 96–104, 2014 https://dl.acm.org/doi/10.1145/2818717
[9] Not Unexpected: First Trans-Atlantic Drug Submarine, Η Ι Sutton, Forbes, 26 Νοεμ. 2019. https://www.forbes.com/sites/hisutton/2019/11/26/big-deal-for-drug-smuggling-first-atlantic-narco-submarine/#60b9c9ef3a13,
Serious and organised crime threat assessment. Europol. 2017. https://www.europol.europa.eu/socta/2017/ .
[10]Application of Artificial Intelligence Techniques in Uninhabited Aerial Vehicle Flight, Dufrene, Warren R., Jr. Nasa Technical Reports Center, 2004. https://ntrs.nasa.gov/archive/nasa/casi.ntrs.nasa.gov/20040082071.pdf
[11] Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo, Luciano Floridi, Science and Engineering Ethics , Springer, 2019. http://link.springer.com/10.1007/s11948-018-00081-0
[12] Robotic rape and robotic child sexual abuse: Should they be criminalised?, Danaher, J.., Criminal Law and Philosophy 11(1), 71–95. 2017 https://doi.org/10.1007/s11572-014-9362-x., Sexbots: a case for artificial ethical agents, Christopher James Headleand, William J. Teahan & Llyr ap Cenydd,Connection Science, 2019, https://doi.org/10.1080/09540091.2019.1640185
[13] The Cambridge handbook of information and computer ethics, Floridi, L., Cambridge University Press. 2010
[14] Artificial Intelligence Crime: An Interdisciplinary Analysis of Foreseeable Threats and Solutions, Thomas C. King, Nikita Aggarwal, Mariarosaria Taddeo, Luciano Floridi, Science and Engineering Ethics , Springer, 2019. http://link.springer.com/10.1007/s11948-018-00081-0