AI Crime – Αναζητώντας το δράστη
Ποια η σχέση της τεχνητής νοημοσύνης με το έγκλημα; Μπορεί, εκτός από στόχος και μέσο, να είναι και ο δράστης; Το παρόν άρθρο επιχειρεί μια, αρχική, καταγραφή του ζητήματος του AI Crime και των ζητημάτων καταλογισμού. |
Τον Ιανουάριο του 2015, η ελβετική αστυνομία «συνέλαβε» το ρομπότ «Random Darknet Shopper» για προμήθεια και αγορά ναρκωτικών, συγκεκριμένα 10 χαπιών ecstasy, στο dark web. Αργότερα, το ρομπότ επεστράφη στους δημιουργούς του, την καλλιτεχνική ομάδα «!Mediengruppe Bitnik», που σχεδίασε το ρομπότ στο πλαίσιο ενός καλλιτεχνικού εγχειρήματος διερεύνησης του dark web, καθώς κρίθηκε ότι η αγορά των ναρκωτικών ήταν ένας εύλογος τρόπος για να εξυπηρετηθούν οι καλλιτεχνικοί σκοποί του εγχειρήματος[1].
Στις Ηνωμένες Πολιτείες Αμερικής, και ειδικότερα στη Φλόριντα, το Μάιο του 2016, ο οδηγός ενός αυτόνομου οχήματος Tesla S σκοτώθηκε όταν το όχημά του, σε λειτουργία AutoPilot, δεν μπόρεσε να διακρίνει ένα λευκό φορτηγό που διέσχιζε κάθετα το δρόμο μπροστά του[2], ενώ το Μάρτιο του 2018 στην Αριζόνα, ένα αυτόνομο αυτοκίνητο σε λειτουργία αυτόματου πιλότου της Uber δεν αναγνώρισε ως άνθρωπο διερχόμενη πεζή, με αποτέλεσμα το θανάσιμο τραυματισμό της[3].
Τον Μάρτιο του 2016, η Microsoft απέσυρε από το Twitter, σε μόλις 18 ώρες από την έναρξη λειτουργίας του, το chatbot «Tay», το οποίο, αν και σχεδιάστηκε για να επικοινωνεί με νέους χρήστες του μέσου, ηλικίας 18 – 24 ετών, μαθαίνοντας από τις συζητήσεις, κατέληξε να εκφέρει ρατσιστικές και εν γένει μισαλλόδοξες απόψεις[4].
Το κοινό στοιχείο των ανωτέρω, παραδειγματικά αναφερόμενων, περιστατικών είναι ότι αφορούν ποινικά αδικήματα, των οποίων ο φυσικός αυτουργός δεν είναι ευχερώς προσδιορίσιμο συγκεκριμένο πρόσωπο, αλλά, αντίθετα, φαίνεται πως θα μπορούσαν να αποδοθούν σε «μη-ανθρώπινους» δράστες, δηλαδή στα συστήματα τεχνητής νοημοσύνης[5] που (ίσως;) συνδέονται αιτιωδώς με το αξιόποινο αποτέλεσμα.
Παρακάτω θα επιχειρηθεί να σκιαγραφηθεί η σχέση της τεχνητής νοημοσύνης με το έγκλημα, τόσο ως προς την έννοια του «εγκλήματος τεχνητής νοημοσύνης» (Artificial Intelligence Crime – AI Crime), όσο και ως προς τα ζητήματα καταλογισμού των με/από αυτή τελούμενων εγκλημάτων.
Τεχνητή Νοημοσύνη και Έγκλημα (AI Crime).
Η σχέση της τεχνητής νοημοσύνης με το έγκλημα αποτελεί ένα από τα σημαντικότερα σημεία ενδιαφέροντος για την επιστημονική κοινότητα, καθώς η ολοένα αυξανόμενη χρήση της σε πληθώρα δραστηριοτήτων της καθημερινότητας (οδήγηση, συναλλαγές, επικοινωνία κοκ) έφερε στην επιφάνεια και αυτή τη, λιγότερο ή περισσότερο, αναμενομένη και σίγουρα ανεπιθύμητη διασύνδεση. Όπως πληθώρα τεχνολογικών επιτευγμάτων πριν από αυτή, έτσι και η τεχνητή νοημοσύνη αποδεικνύεται πως έχει διπλή χρήση (dual use), και, παρά τις προθέσεις και βλέψεις των δημιουργών της, μπορεί να αποτελέσει εργαλείο, μέσο ή στόχο βλαβερών ή και εγκληματικών ενεργειών, πιθανότητα που καθίσταται πιο προβληματική αν αναλογιστεί κανείς το εγγενές χαρακτηριστικό της ΤΝ να δρα, ενίοτε, απρόβλεπτα, ανεξήγητα και αυτόνομα[6].
Μέχρι στιγμής, η επιστημονική κοινότητα δεν έχει ορίσει ακριβώς τι αποτελεί ένα «έγκλημα τεχνητής νοημοσύνης» [Artificial Intelligence (AI) Crime], καθώς ακόμα δεν υπάρχει ενιαία προσέγγιση ως προς το σημείο αφετηρίας. Από τη μία, ερευνητές προκρίνουν την τυποποίηση του AI Crime με βάση το λειτουργικό κριτήριο, δηλαδή με βάση τη λειτουργία της τεχνητής νοημοσύνης στο έγκλημα: πρόκειται για έγκλημα που διαπράττεται με χρήση της τεχνητής νοημοσύνης (AI as tool), για έγκλημα που διαπράττεται κατά της τεχνητής νοημοσύνης (AI as target) ή για έγκλημα που διαπράττεται από την τεχνητή νοημοσύνη (AI as intermediary)[7]; Από την άλλη, ερευνητές κατηγοριοποιούν τα εγκλήματα τεχνητής νοημοσύνης με βάση την απειλή (threat) και το πληττόμενο έννομο αγαθό (περιουσία, προσωπικότητα, σωματική ακεραιότητα/ζωή κλπ)[8], χωρίς να αποδίδουν καθοριστική σημασία στο ρόλο της ΤΝ σε κάθε τυποποιημένη επιμέρους μορφή εγκλήματος.
Σε κάθε περίπτωση, προκύπτει ότι έγκλημα τεχνητής νοημοσύνης είναι μια αξιόποινη (κατά την ισχύουσα νομοθεσία) πράξη ή παράλειψη, στην τέλεση της οποίας εμπλέκεται με κάποιο τρόπο η τεχνητή νοημοσύνη. Από τον συμπερασματικά συναγόμενο αυτό ορισμό, διαπιστώνεται ότι, καταρχάς, το έγκλημα τεχνητής νοημοσύνης είναι ένα ήδη προβλεπόμενο και τυποποιημένο αδίκημα, η διαφοροποίηση του οποίου έγκειται στη συμμετοχή (όχι με την αυστηρά ποινική έννοια του όρου) της τεχνητής νοημοσύνης σε αυτό. Ωστόσο, δεν μπορεί να αποκλειστεί το ενδεχόμενο να προκύψουν καινοφανείς καταστάσεις, οι οποίες θα αποτελέσουν νέες τυποποιήσεις εγκληματικής συμπεριφοράς, όπως συνέβη, εξάλλου, στο όχι πολύ μακρινό παρελθόν, με την εκρηκτική διάδοση της χρήσης τεχνολογιών πληροφορικής και επικοινωνιών, η οποία οδήγησε σε νέες μορφές εγκλήματος και στην συνακόλουθη αναγκαία συστηματική τυποποίηση αυτών[9].
Χρησιμοποιώντας την πρώτη εκ των ανωτέρω αναφερόμενων κατηγοριοποιήσεων, που, συστημικά, προκρίνεται για τις ανάγκες της παρούσας ως σαφέστερη, παρουσιάζονται συνοπτικά επιμέρους περιπτώσεις εγκλημάτων τεχνητής νοημοσύνης:
AI as tool
Αυτού του τύπου τα εγκλήματα τεχνητής νοημοσύνης είναι τα πιο διαδεδομένα και ευχερώς κατανοήσιμα. Σε αυτά, ο δράστης χρησιμοποιεί τις δυνατότητες της τεχνητής νοημοσύνης, διαστρεβλώνοντας το σκοπό της, προκειμένου να διαπράξει αξιόποινες πράξεις.
Χαρακτηριστικότερο παράδειγμα αυτής της κατηγορίας αποτελούν οι εξελιγμένες επιθέσεις κοινωνικής μηχανικής (social engineering attacks): εργαλεία ΤΝ μπορεί να χρησιμοποιηθούν ώστε να βελτιώσουν προσωποποιημένες επιθέσεις phising (spear phising), τελειοποιώντας τα σχετικά απατηλά μηνύματα που αποστέλλονται στο στόχο, ώστε να μοιάζουν με μηνύματα που θα μπορούσαν να έχουν συνταχθεί από άνθρωπο – τον φερόμενο αποστολέα, και διαφεύγοντας των υπαρχόντων φίλτρων προστασίας[10].
Αντίστοιχα, οι εφαρμογές ΤΝ τύπου «DeepFakes», που μπορούν να παραποιήσουν οποιοδήποτε τύπο μέσων, συμπεριλαμβανομένων φωτογραφιών, προσώπων, βίντεο, φωνών από δείγματα ομιλίας ενός λεπτού κοκ, μπορούν να αποτελέσουν χρήσιμο εργαλείο στα χέρια εγκληματιών για τη διάπραξη εγκλημάτων όπως απάτη (πχ με τη «μίμηση» φωνής[11] οικείων σε ηλικιωμένους για απόσπαση χρημάτων ή προϊσταμένων σε υφισταμένους για διενέργεια συναλλαγών), εκβίαση ή παρενόχληση (πχ με την κατασκευή γυμνών φωτογραφιών ή βίντεο που δήθεν αναπαριστούν το στόχο σε προσωπικές στιγμές)[12].
Η ΤΝ χρησιμοποιείται ήδη για την αθέμιτη απόκτηση κωδικών πρόσβασης (password guessing). Μέσω της χρήσης αναγεννητικών ανταγωνιστικών δικτύων (Generative Adversarial Networks-GANs), είναι δυνατή η ανάλυση μεγάλου συνόλου δεδομένων από κωδικούς πρόσβασης και η δημιουργία παραλλαγών, κάτι που οδηγεί σε πιο στοχευμένες και αποτελεσματικές «προβλέψεις» κωδικών πρόσβασης, σε σχέση με τα έως τώρα υπάρχοντα εργαλεία (πχ HashCat29, John the Ripper)[13].
Τέλος, ακόμα και σε τομείς του ποινικού δικαίου που δύσκολα μπορεί κανείς εν πρώτοις να συνδέσει με την ΤΝ, όπως το εμπόριο ναρκωτικών, η εγκληματική εφευρετικότητα ξεπέρασε τα στεγανά: οργανώσεις εμπορίου ναρκωτικών έχουν προσφύγει σε υποβρύχια ή άλλα μη επανδρωμένα οχήματα, προκειμένου να μετακινούν για σημαντικές αποστάσεις και με ασφάλεια μεγάλα φορτία ναρκωτικών, δεδομένης της ικανότητας των μη επανδρωμένων οχημάτων να πλοηγούνται μόνα τους, επιλέγοντας την ασφαλέστερη δυνατή διαδρομή, με βάση τα στοιχεία που προκύπτουν από τις συλλεγόμενες πληροφορίες, ώστε να αποφεύγεται ο εντοπισμός από τις διωκτικές αρχές[14].
AI as target
Σε αυτή την κατηγορία εγκλημάτων, η τεχνητή νοημοσύνη είναι ο στόχος. Περιλαμβάνονται επιθέσεις κατά του συστήματος τεχνητής νοημοσύνης, είτε στο επίπεδο της εκπαίδευσης (learning system attacks), είτε στο επίπεδο της εκτέλεσης/συμπερασμού (inference system attacks). Το παράδειγμα του chatbot «Τay», που αναφέρθηκε στην εισαγωγή, είναι χαρακτηριστικό δείγμα αθέμιτης επέμβασης στο επίπεδο της εκπαίδευσης του συστήματος τεχνητής νοημοσύνης. Ο δράστης, αποκτώντας πρόσβαση, μπορεί είτε να επέμβει στον αλγόριθμο που εκπαιδεύει το σύστημα, με αποτέλεσμα τη στρέβλωση του τρόπου διάρθρωσης του συλλογισμού (logic corruption), είτε να μεταβάλει τα δεδομένα εκπαίδευσης, με αποτέλεσμα τη μείωση της απόδοσης του συστήματος (data modification). Στο επίπεδο της εκτέλεσης/συμπερασμού, ο δράστης μπορεί να εκμεταλλευτεί ή να παραπλανήσει το σύστημα ΤΝ, έχοντας αποκτήσει πρόσβαση στο μοντέλο εκπαίδευσής του (inference system cracking, inference system abuse)[15].
Το «TextFooler» είναι ένα εργαλείο ανάλυσης και επεξεργασίας κειμένου, ικανό να μεταβάλει τις αποφάσεις συστημάτων ΤΝ σε τομείς όπως η αγορά εργασίας μέχρι η διακρίβωση ψευδών ειδήσεων[16], ενώ ήδη έχει διαπιστωθεί ότι συστήματα ΤΝ που λειτουργούν με βάση τη φωνητική αναγνώριση (πχ οι προσωπικοί βοηθοί Siri, Alexa, Google Assistant) μπορεί να «εξαπατηθούν» και να εκτελέσουν εντολές, με παρεμβολές από ακουστικά κύματα μη αντιληπτά από τον άνθρωπο[17].
AI as intermediary
Ίσως η δυσκολότερη, ως προς την αντίληψη και αντιμετώπιση, κατηγορία εγκλημάτων τεχνητής νοημοσύνης είναι αυτά που, φαινομενικά, διαπράττονται από το ίδιο το σύστημα, καθώς δεν υπάρχει φυσικό πρόσωπο, στο οποίο να μπορεί ευχερώς να αποδοθεί η εγκληματική συμπεριφορά.
Χαρακτηριστικό παράδειγμα αυτής της κατηγορίας αποτελούν τα αδικήματα (συνηθέστερα κατά της ζωής ή της σωματικής ακεραιότητας) που διαπράττονται από αυτόνομα οχήματα σε λειτουργία αυτόματου πιλότου, όπως οι περιπτώσεις που αναφέρθηκαν στην εισαγωγή. Αντίστοιχη περίπτωση είναι και τα εγκλήματα που διαπράττονται από στρατιωτικά συστήματα τεχνητής νοημοσύνης, που, ωστόσο, αποτελούν ξεχωριστή κατηγορία προβληματικής και δεν θα εξεταστούν στο πλαίσιο του παρόντος.
Μία άλλη περίπτωση αυτής της κατηγορίας είναι τα αδικήματα που σχετίζονται με την αλγοριθμική χειραγώγηση της αγοράς, τον καθορισμό των τιμών και τις πιθανές συμπράξεις. Επιστήμονες απέδειξαν ότι συστήματα ΤΝ (AI trading agents) μπορούν να ανακαλύψουν και να μάθουν να εκτελούν κερδοφόρες στρατηγικές που ισοδυναμούν με χειραγώγηση της αγοράς. Χρησιμοποιώντας ενισχυμένη μάθηση (reinforcement learning), ένας ΑΙ agent εξερεύνησε τις πιθανές ενέργειες στην αγορά και διαπίστωσε ότι οι δόλιες ψευδείς εντολές αγοράς ήταν μια κερδοφόρα στρατηγική. Ομοίως, η σχεδόν στιγμιαία πληροφόρηση για τις τιμές μεταξύ των αλγορίθμων εξασφαλίζει ότι οι αλγόριθμοι διαφορετικών εταιρειών μπορούν μερικές φορές τεχνητά, ακούσια και σιωπηρά να συμφωνήσουν σε υψηλότερες τιμές (price fixing), με ουσιαστικό αποτέλεσμα λειτουργία που ισοδυναμεί με σύμπραξη (collusion). Τέτοιες «συμπεριφορές» ενδέχεται να προκύψουν ταχύτατα, ενδεχομένως ως αποτέλεσμα απρόβλεπτων αλληλεπιδράσεων με άλλους αλγορίθμους, και είναι ιδιαίτερα δύσκολο να ανιχνευθούν[18].
Εγκλήματα χωρίς δράστη;
Ενώ στις πρώτες δύο εκ των ανωτέρω κατηγοριών AI Crime (AI as tool και as target), το ζήτημα του αυτουργού του εκάστοτε αδικήματος δεν φαίνεται να παρουσιάζει ιδιαίτερες δυσκολίες, υπό την έννοια ότι ένα φυσικό πρόσωπο είτε χρησιμοποίησε την ΤΝ για να διαπράξει μία αξιόποινη πράξη, είτε διέπραξε ένα έγκλημα κατά ενός συστήματος ΤΝ, η τελευταία κατηγορία δημιουργεί έντονο προβληματισμό, και φαίνεται να έχει οδηγήσει την επιστημονική κοινότητα σε αδιέξοδο.
Όπως διαπίστωσε η ομάδα εργασίας, που συστήθηκε από την Ευρωπαϊκή Επιτροπή για το Έγκλημα του Συμβουλίου της Ευρώπης (European Committee on Crime Problems - CDPC) για τη μελέτη της σχέσης ΤΝ και υπαιτιότητας κατά το ποινικό δίκαιο των κρατών – μελών του Συμβουλίου της Ευρώπης, ειδικότερα στο ζήτημα των αυτόνομων οχημάτων[19], η μάλλον απλή ερώτηση ποιος είναι ποινικά υπεύθυνος για τις βλάβες που προκαλούνται κατά τη διαδικασία λήψης αυτόνομων αποφάσεων από ένα σύστημα ΤΝ, δεν είναι τόσο εύκολο να απαντηθεί.
Παίρνοντας ως αφετηρία το παράδειγμα του «Random Darknet Shopper» και των παράνομων δοσοληψιών του στο dark web, όπως αναφέρθηκε στην εισαγωγή, θα μπορούσε να αναρωτηθεί κανείς, σε ένα υποθετικό σενάριο (πχ εκτός dark web), ποιος θα ήταν ο δράστης της προμήθειας και αγοράς ναρκωτικών ουσιών, εάν οι προγραμματιστές του δεν ήταν σε θέση να κατανοήσουν τη διαδικασία που ακολούθησε ώστε να λάβει την απόφαση και να αγοράσει τα χάπια ecstasy; Πιο γενικευμένα, μπορεί να αποδοθεί σε φυσικό πρόσωπο (τον κατασκευαστή, τον προγραμματιστή ή τον χρήστη) μία συμπεριφορά συστήματος ΤΝ, η οποία έχει αξιόποινο χαρακτήρα, όταν ο ίδιος δεν είναι σε θέση όχι μόνο να γνωρίζει τη διαδικασία που ακολουθήθηκε και οδήγησε σε αυτή, αλλά ούτε καν να προβλέψει ως πιθανή μια τέτοια συμπεριφορά (με όρους ενδεχόμενου δόλου ή ενσυνείδητης αμέλειας) διότι το σύστημα ενήργησε αυτόνομα, απρόβλεπτα και ανεξήγητα;
Η θεωρία προς το παρόν διχάζεται, ανάμεσα σε όσους υποστηρίζουν ότι θα πρέπει να αναγνωριστεί ποινική ευθύνη, ικανότητα προς καταλογισμό, στα συστήματα ΤΝ, με τροποποίηση της σχετικής νομοθεσίας, όπως συνέβη σταδιακά για τα νομικά πρόσωπα[20], και όσους θεωρούν ότι μια τέτοια ριζική αλλαγή της θεωρίας του ποινικού δικαίου είναι αδικαιολόγητη και εν τέλει αναποτελεσματική[21], τουλάχιστον με τα σημερινά δεδομένα.
Είναι γεγονός πως, εν πρώτοις, η ιδέα να αποδοθεί ικανότητα προς καταλογισμό σε μη ανθρώπινο δράστη ξενίζει λογικά και αντιτίθεται νομικά σε δομικές και βαθιά εμπεδωμένες αρχές του ποινικού δικαίου: το έγκλημα ορίζεται[22] ως πράξη (ή/και παράλειψη) άδικη και καταλογιστή στο δράστη της, η οποία τιμωρείται από το νόμο. Με τον όρο «πράξη» νοείται η ανθρώπινη συμπεριφορά, αποκλειομένων από το ρυθμιστικό πεδίο του ποινικού δικαίου συμπεριφορών δρώντων μη ανθρώπων[23]. Μία πρώτη τομή σε αυτό το αξίωμα έγινε με την αναγνώριση ποινικής ευθύνης στα νομικά πρόσωπα, για συγκεκριμένες πράξεις. Ωστόσο, η διαφορά μεταξύ νομικών προσώπων και συστημάτων ΤΝ είναι ότι τα πρώτα έχουν νομική προσωπικότητα, δηλαδή είναι κατά το δίκαιο υποκείμενα δικαιωμάτων και υποχρεώσεων. Τα συστήματα ΤΝ δεν έχουν, και θεωρητικά είναι προβληματικό να αποκτήσουν, νομική προσωπικότητα, επί τω τέλει όπως μπορούν να καταλογιστούν ποινικά, καθώς αυτό θα οδηγούσε σε αυξημένο ανθρωπομορφισμό της ΤΝ[24] και εκ βάθρων αναδιαμόρφωση του δικαιϊκού συστήματος, με απρόβλεπτες συνέπειες (νομική προσωπικότητα σημαίνει ότι, κατά νόμο, δεν υπάρχουν μόνο υποχρεώσεις, αλλά και δικαιώματα)[25], αλλά ενδεχομένως και σε απομείωση της ευθύνης (de-responsibilisation) των φυσικών προσώπων και συνακόλουθα, της αποτρεπτικής λειτουργίας του ποινικού δικαίου[26].
Η ρεαλιστικότερη προσέγγιση, τη δεδομένη χρονική στιγμή, κρίνουμε ότι είναι αυτή που υιοθέτησε η ομάδα εργασίας της CDPC, η οποία κατέληξε πως το ζήτημα πρέπει να τεθεί προς συζήτηση. Ειδικότερα, τα κράτη – μέλη πρέπει να συμφωνήσουν σε ζητήματα πιθανής διεύρυνσης της ποινικής ευθύνης κατασκευαστών/προμηθευτών και λοιπών εμπλεκομένων (ανθρώπινων) παραγόντων σε περιπτώσεις εγκληματικών πράξεων με εμπλοκή συστημάτων τεχνητής νοημοσύνης. Αντίστοιχη συμφωνία θα πρέπει να υπάρξει και αναφορικά με τον έλεγχο και τη συντήρηση των συστημάτων ΤΝ, με δεδομένη, σε κάθε περίπτωση, την ανάγκη συνέπειας και ομοιομορφίας του νομοθετικού πλαισίου σε ευρωπαϊκό επίπεδο[27].
Επίλογος – Μια διαφορετική «συζήτηση»
Αντί επιλόγου, θα παραθέσουμε τις «απόψεις» για το εξεταζόμενο θέμα της εν θέματι τεχνολογίας, και ειδικότερα του μοντέλου ΤΝ γλωσσικής επεξεργασίας φυσικής γλώσσας, ChatGPT, που εκπαιδεύτηκε από την OpenAI[28].
Το ChatGPT δήλωσε ότι η ΤΝ εκπαιδεύεται να λαμβάνει αποφάσεις βάσει κριτηρίων και κανόνων, αλλά η διάκριση σωστού – λάθους, υπό τη νομική έννοια των όρων, είναι μια περίπλοκη και αμφίσημη διαδικασία, που απαιτεί βαθιά κατανόηση των νόμων, της ηθικής και των κοινωνικών κανόνων. Έτσι, ενώ μπορεί να προγραμματιστεί, ώστε να ακολουθεί το γράμμα του νόμου και να λαμβάνει αποφάσεις βάσει νομικών κανόνων, μπορεί να μην είναι πάντα σε θέση να λαμβάνει υπόψη το πλαίσιο, την πρόθεση ή τις ειδικές περιστάσεις. Σε τελική ανάλυση, η ορθότητα της απόφασης εξαρτάται από την ακρίβεια των δεδομένων που θα λάβει και από το πώς οι ανθρώπινοι δημιουργοί του έχουν προγραμματίσει το σύστημα του να αντιμετωπίζει τις διαφορετικές καταστάσεις.
Αναγνώρισε ότι η ΤΝ μπορεί να χρησιμοποιηθεί για τη διάπραξη εγκλημάτων, παραθέτοντας παραδείγματα, ωστόσο επισήμανε ότι δεν μπορεί να διαπράξει έγκλημα καθαυτό, καθώς δεν έχει την ικανότητα να λαμβάνει αποφάσεις ή να δρα χωρίς την εντολή ή την προγραμματισμένη λειτουργία από τους δημιουργούς και τους χρήστες. Τόνισε ότι ως σύστημα ΤΝ δεν έχει προσωπικές εμπειρίες, συναισθήματα ή προθέσεις, δεν έχει την ικανότητα να διακρίνει ή να καταγγείλει παράνομες συμπεριφορές, αλλά αν τυχόν εμπλεκόταν με κάποιον τρόπο σε εγκληματικές πράξεις, η ευθύνη θα άνηκε εξ ολοκλήρου στους ανθρώπους που δημιούργησαν, προγραμμάτισαν και χειρίστηκαν το σύστημά του.
Tέλος, απαντώντας σε ερώτηση για τους τρόπους πρόληψης του AI Crime, το ChatGPT φαίνεται να συμφωνεί με τα γενικώς κρατούντα στον περιορισμένο σχετικά – μέχρι στιγμής – επιστημονικό διάλογο: σχεδιασμός (by design) με διαφάνεια και προβλεψιμότητα των συστημάτων ΤΝ, ώστε να είναι κατανοητός και εξηγήσιμος ο τρόπος λήψης αποφάσεων από το σύστημα, υιοθέτηση ηθικών κανόνων τόσο για τον σχεδιασμό και προγραμματισμό όσο και για τη χρήση της ΤΝ, στενή παρακολούθηση (monitoring), προσαρμογή και εξέλιξη της νομοθεσίας σχετικά με τη χρήση ΤΝ για τη διάπραξη εγκλημάτων και διεθνής συνεργασία.
Σε κάθε περίπτωση, όπως προκύπτει από τα όσα συνοπτικά αναφέρθηκαν ανωτέρω, το έγκλημα τεχνητής νοημοσύνης φαίνεται ότι θα αποτελέσει ένα από τα σημαντικότερα ζητήματα που θα απασχολήσουν μελλοντικά τις σύγχρονες κοινωνίες. Η απάντηση σε αυτό, είτε αξιοποιώντας τα ήδη υπάρχοντα εργαλεία (νομοθεσία και μη δεσμευτικούς ηθικούς κανόνες – soft law), είτε δημιουργώντας νέα, ad hoc μέσα αντιμετώπισης, θα πρέπει να τηρήσει μια λεπτή ισορροπία: χωρίς να πέσει στην παγίδα της (αφελούς;) υπεραισιοδοξίας για την τεχνολογική πρόοδο, δεν πρέπει να φτάσει στο άλλο άκρο, του (φοβικού;) υπερ-σκεπτικισμού. Είναι προφανές ότι η ΤΝ, και ειδικότερα η σύνδεσή της με το έγκλημα, θα πρέπει να τύχει ρυθμίσεως και περιχαράκωσης, με τρόπο, όμως, που δε θα αποτραπεί, υπό το φόβο πιθανών κυρώσεων, η περαιτέρω εξέλιξη και καινοτομία.
Γρηγορία Πανταζοπούλου, Δικηγόρος, ΜΔ Ποινικού Δικαίου και Αντεγκληματικής Πολιτικής στην Ευρώπη, Πανεπιστήμιο Paris 1 Panthéon-Sorbonne
* Φωτογραφία από Brett Jordan στο Unsplash
[1] Kasperkevic, Jana, Swiss police release robot that bought ecstasy online, The Guardian, 22.4.2015, διαθέσιμο στον σύνδεσμο https://www.theguardian.com/world/2015/apr/22/swiss-police-release-robot-random-darknet-shopper-ecstasy-deep-web επίσκεψη 01.03.2023
[2] Boudette, Neal, Tesla’s Self-Driving System Cleared in Deadly Crash, The New York Times, 19.1.2017, διαθέσιμο στον σύνδεσμο https://www.nytimes.com/2017/01/19/business/tesla-model-s-autopilot-fatal-crash.html επίσκεψη 01.03.2023
[3] Marshall,A., Davies, A., Uber's Self-Driving Car Saw the Woman It Killed, Report Says, Wired, 24.5.2018, διαθέσιμο στον σύνδεσμο https://www.wired.com/story/uber-self-driving-crash-arizona-ntsb-report/ επίσκεψη 01.03.2023
[4] Lee, Dave, Tay: Microsoft issues apology over racist chatbot fiasco, bbc.com, 25.3.2016, διαθέσιμο στον σύνδεσμο https://www.bbc.com/news/technology-35902104 επίσκεψη 01.03.2023
[5] Η επιστημονική κοινότητα δεν έχει καταλήξει, ακόμη, σε έναν κοινώς αποδεκτό ορισμό για την τεχνητή νοημοσύνη. Η Ευρωπαϊκή Επιτροπή, στην Πρόταση Κανονισμού για τη θέσπιση εναρμονισμένων κανόνων για την τεχνητή νοημοσύνη (Πράξη για την τεχνητή νοημοσύνη – AI Act, Βρυξέλλες, 22.04.2021, COM(2021) 206 final) , ορίζει το σύστημα τεχνητής νοημοσύνης ως «λογισμικό που αναπτύσσεται με μία ή περισσότερες από τις τεχνικές και προσεγγίσεις που παρατίθενται στο Παράρτημα I και μπορεί, για ένα δεδομένο σύνολο στόχων που έχουν καθοριστεί από τον άνθρωπο, να παράγει στοιχεία εξόδου όπως περιεχόμενο, προβλέψεις, συστάσεις ή αποφάσεις που επηρεάζουν τα περιβάλλοντα με τα οποία αλληλεπιδρά» (άρθρο 3 στ.1 Πράξης).
[6] Abbott et al.,, Punishing Artificial Intelligence: Legal Fiction or Science Fiction, 1.2.2019, 53 UC Davis Law Review 1, 2019, https://ssrn.com/abstract=3327485 ή http://dx.doi.org/10.2139/ssrn.3327485 , σελ. 330-331
[7] Έτσι οι Hayward και Maas στο άρθρο τους Artificial Intelligence and crime: A primer for criminologists, Crime Media Culture, 2021, vol.17(2) 209-233, οι Broadhurst et al. στην ερευνητή εργασία τους Artificial Intelligence and crime, Korean Institute of Criminology and Australian National University Cybercrime Observatory, College of Asia and the Pacific, Canberra, June 2019, και ο Jeong στο άρθρο του Artificial Intelligence security threat, crime and forensics: taxonomy and open issues, IEEE Access, vol. 8, pp. 184560-184574, 2020, doi:10.1109/ACCESS.2020.3029280 (με τη διαφορά ότι ο τελευταίος δεν περιλαμβάνει στην τυποποίησή του την κατηγορία «AI as intermediary»).
[8] Βλ. King et al. στην ερευνητική εργασία Artificial Intelligence Crime: an interdisciplinary analysis of foreseeable threats and solutions, Science and engineering ethics, 2020, 26, 89-120, https://doi.org/10.1007/s11948-018-00081-0, και Caldwell et al., ΑΙ-enabled future crime, Crime Science, 2020, 9, https://doi.org/10.1186/s40163-020-00123-8 , όπου, γίνεται επιπλέον κατηγοριοποίηση σε αυξημένης, μέσης και χαμηλής επικινδυνότητας (high, medium and low concern) εγκλήματα τεχνητής νοημοσύνης.
[9] Βλ. Jeong, D., οπ.π., 184560, 184571
[10] Επιστήμονες δημιούργησαν το DeepPhish, έναν αλγόριθμο που μαθαίνει να δημιουργεί καλύτερες επιθέσεις phishing, ο οποίος, ύστερα από κατάλληλη «εκπαίδευση» σε δύο είδη απειλών, αύξησε την αποτελεσματικότητά τους από 0,69% σε 20,9% και από 4,91% σε 36,28%, αντίστοιχα, βλ. Bahnsen et al. DeepPhish: Simulating Malicious AI, 2018, https://pdfs.semanticscholar.org/ae99/765d48ab80fe3e221f2eedec719af80b93f9.pdf
[11] Βλ. εφαρμογές όπως αυτή https://www.resemble.ai/ επίσκεψη 01.03.2023
[12] Βλ. Hayward και Maas, οπ.π., σελ.215, όπου αναφέρεται πως το 96% των online deep fake videos (14.600) αφορούσε την παραποίηση μη συναινετικού πορνογραφικού υλικού, σύμφωνα με έρευνα του 2019.
[13] Σύμφωνα με την έρευνα της Europol, του INICRI και του Trend Micro, ήδη από το Φεβρουάριο του 2020 ήταν διαθέσιμο σε forum και στο Github ένα εργαλείο με αυτές τις δυνατότητες, βλ. Trend Micro Research, United Nations Interregional Crime and Justice Research Institute (UNICRI), Europol’s European Cybercrime Centre (EC3), Malicious Uses and Abuses of Artificial Intelligence, 6.12.2021, https://www.europol.europa.eu/cms/sites/default/files/documents/malicious_uses_and_abuses_of_artificial_intelligence_europol.pdf
[14] Βλ. King et al, οπ.π., σελ.100
[15] Jeong, οπ.π., σελ.184565-184567
[16] Βλ. Jin, Di, TextFooler A Model for Natural Language Attack on Text Classification and Inference, github.com, 4.9.2019, διαθέσιμο στον σύνδεσμο https://github.com/jind11/TextFooler επίσκεψη 01.03.2023
[17] Βλ. Hayward and Mass, οπ.π., σελ.216-217, καθώς και το εργαλείο «SurfingAttack» που ανέπτυξαν ερευνητές (https://surfingattack.github.io/), και λειτουργεί με τον προαναφερόμενο τρόπο https://www.youtube.com/watch?v=pQw2zRAqVnI&t=229s επίσκεψη 01.03.2023
[18] Βλ. Hayward and Mass, οπ.π., σελ.217-218
[19] Council of Europe, European Committee on Crime Problems, Artificial Intelligence and Criminal Law Responsibility in Council of Europe Member States – The case of automated vehicles, Concept Paper, Strasbourg, 16.10.2018, διαθέσιμο σε https://rm.coe.int/cdpc-2018-14rev-artificial-intelligence-and-criminal-law-project-2018-/16808e64ad επίσκεψη 01.03.2023
[20] Ο Gabriel Hallevy θεωρείται ο θιασώτης της ιδέας για τη δυνατότητα καταλογισμού εγκλημάτων στην ΤΝ, ήδη από το 2010 με το άρθρο του The Criminal Liability of Artificial Intelligence Entities — From Science Fiction to Legal Social Control (Akron Intellectual Property Journal, vo.4, 2010, pp171-191), βλ. αναλυτικότερα Abbot et al, οπ.π., σελ.326-327
[21] Έτσι οι King et al, οπ.π., σελ.108-110, Broadhurst et al., οπ.π., σελ.39, Abbot et al., οπ.π., σελ.368 - 383
[22] Χρησιμοποιούμε τον ορισμό του άρθρου 14 του ελληνικού Ποινικού Κώδικα
[23] Μαργαρίτης, Μιχαήλ, Μαργαρίτη, Άντα, Ποινικός Κώδικας, Ερμηνεία – Εφαρμογή, Δίκαιο & Οικονομία, Π.Ν. Σάκκουλας, 3η έκδοση, Αθήνα, 2014, άρθρο 14, σελ.43
[24] Η απόδοση ανθρωπίνων χαρακτηριστικών στην ΤΝ μπορεί να οδηγήσει, ειδικά τους ευάλωτους χρήστες, σε γνωσιακά ή ψυχολογικά προβλήματα, καθώς και να τους καταστήσει επιρρεπείς σε χειραγώγηση ή εκμετάλλευση, βλ. Abbot et al., οπ.π., σελ.377 και τις εκεί παραπομπές
[25] Βλ. Abbot et al., οπ.π., σελ.375-378
[26] Βλ. King et al, οπ.π., σελ.109
[27] Council of Europe, European Committee on Crime Problems (CDPC), Feasibility study on a future Council of Europe instrument on artificial intelligence and criminal law, Strasbourg, 04.09.2020, σελ.13
[28] https://chat.openai.com/chat, ChatGPT Feb 13 Version, η «συνέντευξη» διεξήχθη την 20.2.2023