ΤΕΥΧΟΣ #17 ΟΚΤΩΒΡΙΟΣ 2021

Η τεχνητή νοημοσύνη στην πρόληψη και την καταπολέμηση του εγκλήματος

Σοφία Ακρίβου, ΜΔΕ

“Η τεχνητή νοημοσύνη είναι μέσο, όχι αυτοσκοπός. (…)
Στόχος των σημερινών προτάσεων είναι να ενισχυθεί η θέση της Ευρώπης ως παγκόσμιου κόμβου αριστείας στον τομέα της τεχνητής νοημοσύνης από το εργαστήριο στην αγορά, να διασφαλιστεί ότι η τεχνητή νοημοσύνη στην Ευρώπη σέβεται τις αξίες και τους κανόνες μας και να αξιοποιηθεί το δυναμικό της για βιομηχανική χρήση.”
                                                                                             
Thierry Breton, Ευρωπαίος Eπίτροπος Εσωτερικής Αγοράς

 

Η τεχνητή νοημοσύνη (TN) αναμένεται να παίξει καθοριστικό ρόλο ως τεχνολογία του μέλλοντος. Η τεχνητή νοημοσύνη αναφέρεται στην ικανότητα μιας μηχανής να αναπαράγει τις γνωστικές λειτουργίες ενός ανθρώπου, όπως είναι η μάθηση, ο σχεδιασμός και η δημιουργικότητα.

Η τεχνητή νοημοσύνη καθιστά τις μηχανές ικανές να ‘‘κατανοούν’’ το περιβάλλον τους, να επιλύουν προβλήματα και να δρουν προς την επίτευξη ενός συγκεκριμένου στόχου. Ο υπολογιστής λαμβάνει δεδομένα (ήδη έτοιμα ή συλλεγμένα μέσω αισθητήρων, π.χ. κάμερας), τα επεξεργάζεται και ανταποκρίνεται βάσει αυτών.

Τα συστήματα τεχνητής νοημοσύνης είναι ικανά να προσαρμόζουν τη συμπεριφορά τους, σε ένα ορισμένα βαθμό, αναλύοντας τις συνέπειες προηγούμενων δράσεων και επιλύοντας προβλήματα με αυτονομία.[1]

Ένα σύστημα τεχνητής νοημοσύνης το οποίο χρησιμοποιείται για την πρόληψη εγκληματικών πράξεων είναι το FER[2] (Facial Emotion Recognition – αναγνώριση συναισθημάτων προσώπου), και αναφέρεται στην τεχνολογία που αναλύει τις εκφράσεις του προσώπου τόσο από στατικές εικόνες όσο και από βίντεο προκειμένου να συλλεχθούν πληροφορίες σχετικά με την συναισθηματική κατάσταση κάποιου προσώπου. Τόσο η πολυπλοκότητα των εκφράσεων του προσώπου, η πιθανή χρήση της τεχνολογίας σε οποιοδήποτε πλαίσιο, όσο και η εμπλοκή νέων τεχνολογιών όπως η τεχνητή νοημοσύνη ενέχουν σημαντικούς κινδύνους απορρήτου.[3]

Η τεχνολογία αυτού του είδους, έχει ως στόχο να τακτοποιήσει τα φυσικά πρόσωπα μέσω της επεξεργασίας βιομετρικών δεδομένων και βασίζεται σε συστήματα, εφαρμογές και λογισμικά τεχνητής νοημοσύνης τα οποία με βάση συγκεκριμένα πρότυπα εκπαιδεύονται να παρέχουν τις σχετικές πληροφορίες ταυτοποίησης. Τα συστήματα αυτά εξάγουν σε πραγματικό χρόνο επιπλέον αυτοματοποιημένα συμπεράσματα με βάση την στάση του σώματος, τις κινήσεις, τις μικροεκφράσεις του προσώπου, ακόμη και την χροιά ή τον τόνο της φωνής ενός φυσικού προσώπου ανάλογα με τον επιδιωκόμενο σκοπό της επεξεργασίας, για παράδειγμα σε σχέση με τις πιθανότητες να εγκληματήσει ένα άτομο που στέκεται έξω από μια Τράπεζα.[4]

Ακρίβεια δεδομένων

Τα εν λόγω λογισμικά σε αρκετές περιπτώσεις αποδίδουν εσφαλμένα αποτελέσματα ταυτοποίησης προσώπων αλλά και συμπερασμάτων πρόβλεψης συμπεριφορών λόγω της τροφοδοσίας και μετέπειτα επεξεργασίας, χαμηλής ποιότητας δεδομένων. Επιπλέον, οι τρόποι κωδικοποίησης των αλγορίθμων παραβιάζουν μια εκ των βασικών αρχών επεξεργασίας των προσωπικών δεδομένων, για παράδειγμα της ακρίβειας. Επιπροσθέτως, επέρχονται διακρίσεις και προκαταλήψεις, ιδίως σε σχέση με το χρώμα και την φυλετική ή εθνοτική καταγωγή. [5]

Νομικό πλαίσιο σχετικά με την χρήση συστημάτων επιτήρησης με τη λήψη ή καταγραφή ήχου ή εικόνας σε δημόσιους χώρους

  Σύμφωνα με το Π.Δ. υπ’ αρ 75/2020[6] (ΦΕΚ Α’173/10.09.2020) «Χρήση συστημάτων επιτήρησης με λήψη ή καταγραφή ήχου ή εικόνας σε δημόσιους χώρους» κατ’ εφαρμογή της εξουσιοδοτικής διάταξης του άρθρου 14 παρ. 4 ν. 3917/2011 ορίζονται οι ειδικότεροι κανόνες για την εγκατάσταση και λειτουργία, σε δημόσιους χώρους, συστημάτων λήψης ή καταγραφής ήχου ή εικόνας, στο μέτρο που διενεργείται επεξεργασία προσωπικών δεδομένων κατά τρόπο ώστε να επιτυγχάνονται αποτελεσματικά οι σκοποί του νόμου, με ταυτόχρονη διασφάλιση των δικαιωμάτων των προσώπων που θίγονται από τη χρήση των συστημάτων αυτών.[7] Στο άρθρο 2 του Π.Δ. ορίζεται ότι οι εφαρμοζόμενες διατάξεις που αφορούν τα εν λόγω συστήματα, στα οποία ανήκουν ιδίως τα κλειστά κυκλώματα τηλεόρασης, περιλαμβάνονται όσα διαθέτουν «πρόσθετο εξοπλισμό για τη μετάδοση, αποθήκευση και κάθε είδους περαιτέρω επεξεργασία της εικόνας και του ήχου». Από την διατύπωση αυτή δεν προκύπτει εναργώς εάν στην τελευταία έννοια είναι δυνατό να περιληφθούν και συστήματα επεξεργασίας βιομετρικών δεδομένων για την αναγνώριση και ταυτοποίηση φυσικών προσώπων, όπως επεσήμανε και η Αρχή Προστασίας Δεδομένων (ΑΠΔ) με την υπ’ αρ. 3/2020 Γνωμοδότηση της.[8]

Κανονισμός Ευρωπαϊκής Επιτροπής για την Τεχνητή Νοημοσύνη

Στις 21 Απριλίου 2021, η Ευρωπαϊκή Επιτροπή παρουσίασε πρόταση Κανονισμού για την Τεχνητή Νοημοσύνη (ΤΝ) και το αντίστοιχο σχέδιο συντονισμού μεταξύ των κρατών μελών. Αυτή είναι η πρώτη πρόταση δημιουργίας εξειδικευμένου Κανονισμού που υποβάλλεται σε ευρωπαϊκό επίπεδο για την Τεχνητή Νοημοσύνη και που αποκτά μία συνολική μορφή.[9] Η αρμόδια Επίτροπος, Margrethe Vestager, ατύπως, τόνισε ότι η «εμπιστοσύνη» είναι το κεντρικό θέμα της πρότασης και του νέου ρυθμιστικού σχεδίου.[10]

Σύμφωνα με επίσημες δηλώσεις της Ευρωπαϊκής Επιτροπής, ο νέος Κανονισμός αποσκοπεί στην απαγόρευση της απομακρυσμένης συλλογής βιομετρικών δεδομένων (για παράδειγμα, μέσω κάμερας παρακολούθησης βίντεο αναγνώρισης προσώπου), επιτρέποντας μόνο καλά τεκμηριωμένες εξαιρέσεις και για λόγους δημόσιας ασφάλειας.[11]

Συγκεκριμένα, το σχέδιο επιβάλλει αυστηρή και καθολική απαγόρευση των συστημάτων που κρίνονται ως σαφή απειλή για την ασφάλεια, τον βιοπορισμό και τα δικαιώματα των ατόμων. Σε αυτά συμπεριλαμβάνονται συστήματα ή εφαρμογές τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών (παραδείγματος χάριν, παιχνίδια με φωνητικό βοήθημα που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά) και συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από τις κυβερνήσεις. Υπό αυστηρούς περιορισμούς θα επιτρέπεται η χρήση συστημάτων τεχνητής νοημοσύνης που θεωρούνται ‘υψηλού κινδύνου’, στα οποία εντάσσονται τα συστήματα που χρησιμοποιούνται:

  • Α) στις μεταφορές,
  • Β) στην εκπαίδευση,
  • Γ) στην απασχόληση και στη διαχείριση εργαζομένων (π.χ. λογισμικό διαλογής βιογραφικών σημειωμάτων για διαδικασίες πρόσληψης),
  • Δ)στις βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. αξιολόγηση πιστοληπτικής ικανότητας που στερεί από τους πολίτες τη δυνατότητα να λαμβάνουν δάνεια)
  • Ε)στην επιβολή του νόμου(π.χ. αξιολόγηση της αξιοπιστίας των αποδεικτικών στοιχείων),
  • Ζ) στη διαχείριση της μετανάστευσης, του ασύλου και των συνοριακών ελέγχων (π.χ. εξακρίβωση της γνησιότητας ταξιδιωτικών εγγράφων) και
  • Η) στην απονομή δικαιοσύνης και στις δημοκρατικές διαδικασίες.

Επιπλέον, στοχεύει στην ενίσχυση της υποχρέωσης παροχής πληροφοριών σχετικά με τη σωστή χρήση (και τους πιθανούς κινδύνους) προϊόντων και υπηρεσιών ΤΝ. Μια ιδιαίτερα σημαντική πτυχή, υπό το φως των προηγούμενων παραγράφων, είναι η συμπερίληψη της ανθρώπινης εποπτείας για την ελαχιστοποίηση του κινδύνου. Όλες αυτές οι πλευρές του ζητήματος ενδέχεται να υπόκεινται σε αλλαγές κατά τη νομοθετική διαδικασία, στις οποίες θα συμμετέχουν το Συμβούλιο των Υπουργών της ΕΕ και το Ευρωπαϊκό Κοινοβούλιο.

Συστήματα Απομακρυσμένης Βιομετρικής Αναγνώρισης και Ταυτοποίησης φυσικών προσώπων για σκοπούς δίωξης του εγκλήματος

Σύμφωνα με το σχ. Καν. ΤΝ ως σύστημα απομακρυσμένης βιομετρικής αναγνώρισης/ταυτοποίησης (Remote Biometric Identification-RBI)[12] ορίζεται το σύστημα ΤΝ που αποσκοπεί στην εξ’ αποστάσεως αναγνώριση φυσικών προσώπων μέσω της σύγκρισης των βιομετρικών δεδομένων ενός προσώπου σε σχέση προς τα βιομετρικά δεδομένα τα οποία περιλαμβάνονται σε μια βάση δεδομένων αναφοράς, χωρίς όμως να γνωρίζει εκ προοιμίου ο χειριστής του συστήματος (π.χ. η Αστυνομία) εάν το υπό διερεύνηση πρόσωπο θα είναι παρόν και δύναται να ταυτοποιηθεί κατά τη λειτουργία του συστήματος (αρ. 3 περ. 36). Περαιτέρω, το σχ. Καν. ΤΝ διακρίνει μεταξύ συστήματος απομακρυσμένης βιομετρικής αναγνώρισης/ταυτοποίησης που λειτουργεί σε πραγματικό χρόνο (real-time RBI) και προβαίνει σε άμεση ή με ελάχιστη καθυστέρηση, ταυτοποίηση και συστήματος που λειτουργεί ετεροχρονισμένα (post RBI) και προβαίνει σε ταυτοποίηση όχι σε πραγματικό χρόνο αλλά μεταγενέστερα (αρ. 3 περ. 38). Τέλος, το σχ. Καν. ΤΝ διακρίνει μεταξύ συστημάτων απομακρυσμένης βιομετρικής αναγνώρισης/ταυτοποίησης σε δημόσια προσβάσιμους χώρους (αρ. 3 περ. 39) και μη.

Από τις εν λόγω διατάξεις του άρθρου 6, προκύπτει ότι τα συστήματα απομακρυσμένης βιομετρικής αναγνώρισης/ταυτοποίησης (και κατηγοριοποίησης) που λειτουργούν είτε σε πραγματικό χρόνο (real-time RBI) είτε ετεροχρονισμένα (post RBI) εμπίπτουν στην κατηγορία συστημάτων ΤΝ υψηλού κινδύνου, είτε χρησιμοποιούνται από ιδιώτες, είτε από αρμόδιες δημόσιες αρχές για τους σκοπούς της πρόληψης, διερεύνησης, ανίχνευσης και δίωξης ποινικών αδικημάτων.

Όταν όμως τα ανωτέρω συστήματα ΤΝ λειτουργούν σε πραγματικό χρόνο (real time RBI) σε δημόσια προσβάσιμους χώρους για σκοπούς επιβολής του νόμου, τότε εμπίπτουν κατά το άρθρο 5 παρ. 1 περ. δ’ στην κατηγορία των συστημάτων «μη αποδεκτού κινδύνου» και η χρήση τους απαγορεύεται, εκτός αν είναι αυστηρά αναγκαία για έναν από τους ακόλουθους σκοπούς:

  • την στοχευμένη αναζήτηση πιθανών θυμάτων εγκλημάτων, περιλαμβανομένων εξαφανισμένων παιδιών
  • την πρόληψη επέλευσης συγκεκριμένης, σοβαρής και άμεσης απειλής για τη ζωή ή τη φυσική ασφάλεια φυσικών προσώπων ή τρομοκρατικών επιθέσεων
  • την ανίχνευση, εντοπισμό, αναγνώριση και δίωξη δράστη εγκλήματος ή υπόπτου ενός εκ των 32 ποινικών αδικημάτων που περιλαμβάνονται στον κατάλογο της Απόφασης Πλαίσιο για το ευρωπαϊκό ένταλμα σύλληψης και εφόσον τιμωρείται και κατά το δίκαιο του κράτους-μέλους που αφορά με ποινή με ανώτατο όριο τουλάχιστον τα 3 έτη στέρησης της ελευθερίας.

Εν συνεχεία, από τις διατάξεις της παραγράφου 2 του άρθρου 5 προβλέπονται τα κριτήρια λήψης αλλά και μεταγενέστερου ελέγχου της νομιμότητάς της απόφασης για τη χρήση του συστήματος: η φύση της κατάστασης που απαιτεί τη χρήση του συστήματος και ιδίως η σοβαρότητα, η πιθανότητα και το μέγεθος της βλάβης που μπορεί να προκληθεί από την μη χρήση του συστήματος, οι συνέπειες από τη χρήση στα δικαιώματα και τις ελευθερίες των ατόμων και ιδίως η σοβαρότητα, η πιθανότητα και το μέγεθος των συνεπειών. Επιπλέον, από τις ίδιες διατάξεις απαιτείται η χρήση των ανωτέρω συστημάτων να είναι σύμφωνη προς απαραίτητες και αναλογικές εγγυήσεις λαμβάνοντας υπόψη τους αναγκαίους χρονικούς, γεωγραφικούς και προσωπικούς περιορισμούς.

Η σημαντικότερη εγγύηση προβλέπεται από τις διατάξεις της παραγράφου 3 του άρθρου 5 με την οποία εισάγεται η υποχρέωση προηγούμενης αδειοδότησης της σε πραγματικό χρόνο λειτουργίας του συστήματος αναγνώρισης σε δημόσια προσβάσιμους χώρους, η οποία θα πρέπει να παρέχεται από ανεξάρτητη και αμερόληπτη δικαστική ή διοικητική αρχή, κατόπιν αιτιολογημένου αιτήματος της αρμόδιας αρχής που θα συνοδεύεται από αντικειμενικές αποδείξεις ή εναργείς ενδείξεις, εφόσον είναι αναγκαία και αναλογική για την επίτευξη των επιδιωκόμενων σκοπών, λαμβάνοντας υπόψη τα κριτήρια της παρ. 2 και εφόσον προβλέπονται από εναργείς και αναλυτικές ρυθμίσεις που περιλαμβάνονται σε διατάξεις της εθνικής νομοθεσίας («ποιοτικός και προβλέψιμος νόμος»), απηχώντας κατά τον τρόπο αυτό τις απαιτήσεις συμβατότητάς προς τις διατάξεις του ΧΘΔΕΕ και ΕΣΔΑ καθώς και την σχετική νομολογία τόσο του ΕΔΔΑ, όσο κυρίως του Δικαστηρίου της Ε.Ε. όπως διαμορφώθηκε στο πλαίσιο εξέτασης της νομοθεσίας για την υποχρεωτική διατήρηση των δεδομένων από Παρόχους (ήδη ακυρωθείσα Οδηγία 2006/24/ΕΚ) και για την εφαρμογή των διατάξεων του άρ. 15 Οδηγίας 2002/58/ΕΚ, ήτοι από την απόφαση Digital Rights Ireland Ltd (C-293/12&C-594/12)[13] έως την πρόσφατη Η.Κ. Prokuratuur (C-746/18).[14] Κατ’ εξαίρεση, σε περίπτωση επείγοντος, οι σχετικές διασφαλίσεις μπορούν να λαμβάνονται μετά τη θέση σε λειτουργία του συστήματος.

Απολύτως σύμφωνα προς το πεδίο εφαρμογής του δικαίου της Ε.Ε., στην παράγραφο 4 του ίδιου άρθρου προβλέπεται ότι εναπόκειται στην διακριτική ευχέρεια του κάθε κράτους μέλους να επιτρέψει ή μη (αιτ. σκ. 22) , την εν όλω ή εν μέρει χρήση συστημάτων απομακρυσμένης βιομετρικής ταυτοποίησης σε δημόσια προσβάσιμους χώρους σε πραγματικό χρόνο (real time RBI), σύμφωνα όμως με τους όρους και εγγυήσεις που αναφέρονται στις προηγούμενες παραγράφους που θα περιληφθούν στον εθνικό νόμο και επιπλέον θα προσδιορίζεται η αρμόδια αρχή που θα παρέχει την άδεια για τη χρήση των συστημάτων αυτών για λόγους επιβολής του νόμου. Τα ανωτέρω φαίνεται ότι δεν καλύπτουν τις περιπτώσεις χρήσης συστημάτων ΤΝ ετεροχρονισμένης λειτουργίας (post RBI).[15]

Κίνδυνοι και οφέλη από την χρήση της τεχνητής νοημοσύνης στην καταπολέμηση του εγκλήματος

Ο προσδιορισμός του εάν οι λύσεις καταπολέμησης της εγκληματικότητας της τεχνητής νοημοσύνης είναι μια καλή στρατηγική λύση, εξαρτάται από το αν τα οφέλη υπερτερούν των κινδύνων που τις συνοδεύουν. Ένας τέτοιος κίνδυνος είναι ότι μπορούν να εξαχθούν προκατειλημμένα συμπεράσματα από την τεχνητή νοημοσύνη με βάση παράγοντες όπως η εθνικότητα, το φύλο και η ηλικία.[16] Οι εταιρείες μπορούν επίσης να αντιμετωπίσουν αντιδράσεις από πελάτες που ανησυχούν ότι τα δεδομένα τους θα χρησιμοποιηθούν κατάχρηση ή εκμετάλλευση από ακόμη πιο εντατική παρακολούθηση των αρχείων, των συναλλαγών και των επικοινωνιών τους-ειδικά εάν αυτές οι πληροφορίες κοινοποιούνται στην κυβέρνηση.  Για παράδειγμα, μια ευρωπαϊκή τράπεζα αναγκάστηκε να υποχωρήσει στο σχέδιό της να ζητήσει από τους πελάτες την άδεια να παρακολουθούν τους λογαριασμούς τους στα μέσα κοινωνικής δικτύωσης ως μέρος της διαδικασίας υποβολής υποθηκών.

Οι εταιρείες και οι υπηρεσίες επιβολής του νόμου πειραματίζονται χωριστά με τη χρήση τεχνητής νοημοσύνης για να βελτιώσουν την ικανότητά τους να εντοπίζουν και να αποτρέπουν το έγκλημα. Τώρα, συνεργάζονται όλο και περισσότερο - αναπτύσσουν κοινές πλατφόρμες δεδομένων, πρωτόκολλα αναφοράς και βρόχους ανατροφοδότησης. Οι συμπράξεις δημόσιου-ιδιωτικού τομέα για την καταπολέμηση του εγκλήματος θα γίνονται όλο και πιο συχνές.[17]  Για παράδειγμα, στο Ηνωμένο Βασίλειο, η Εθνική Υπηρεσία Εγκλήματος συνεργάζεται στενά με το UK Finance για να χρησιμοποιήσει την τεχνητή νοημοσύνη προκειμένου να εντοπίσει καλύτερα όχι μόνο το οικονομικό αλλά και να βελτιώσει την ικανότητά τους να χρησιμοποιούν οικονομικές πληροφορίες για τον εντοπισμό άλλων τύπων εγκλημάτων όπως η εμπορία ανθρώπων και η παραχάραξη. Οι αρχές διερευνούν επίσης όλο και περισσότερο τρόπους για την αύξηση της ανταλλαγής πληροφοριών και πληροφοριών μεταξύ του δημόσιου και του ιδιωτικού τομέα.[18]

Καθώς το οργανωμένο έγκλημα και οι εγκληματίες γίνονται πιο εξελιγμένοι και ο όγκος των διαθέσιμων δεδομένων στον ιδιωτικό τομέα συνεχίζει να αυξάνεται με γεωμετρική πρόοδο, οι εταιρείες και οι αρχές επιβολής του νόμου θα συνάψουν ακόμη περισσότερες συνεργασίες δημόσιου-ιδιωτικού τομέα για να αξιοποιήσουν τον πλούτο των δεδομένων τους και να εντοπίσουν πιθανές εγκληματικές δραστηριότητες ακόμη πιο αποτελεσματικά.[19]

Η χρήση της τεχνητής νοημοσύνης για τον εντοπισμό εγκλημάτων στο μέλλον

Σήμερα, η τεχνητή νοημοσύνη χρησιμοποιείται συχνότερα για τον εντοπισμό εγκλημάτων όπως η απάτη και το ξέπλυμα χρήματος. Αλλά στο μέλλον, πιθανότατα να χρησιμοποιηθεί και σε άλλες κατηγορίες εγκλημάτων. Παρακάτω παρατίθενται τρεις τομείς όπου η τεχνητή νοημοσύνη χρησιμοποιείται για την πρόληψη:

  1. Μεταφορά παράνομων εμπορευμάτων. Με την τεχνητή νοημοσύνη, οι εταιρείες γρήγορης παράδοσης (courier) μπορούν να εκτιμήσουν την πιθανότητα τα δέματα να περιέχουν παράνομα αγαθά, όπως ναρκωτικά, και να τα αναφέρουν στις αρμόδιες αρχές.
  2. Τρομοκρατικές δραστηριότητες. Οι λιανοπωλητές και τα φαρμακεία θα μπορούσαν να χρησιμοποιήσουν εξελιγμένα εργαλεία τεχνητής νοημοσύνης για να εντοπίσουν πελάτες που αγοράζουν ασυνήθιστες ποσότητες χημικών που θα μπορούσαν να χρησιμοποιηθούν ως πρόδρομοι τρομοκρατικών δραστηριοτήτων.
  3. Εμπόριο λευκής σαρκός. Οι ναυτιλιακές εταιρείες μπορούν να χρησιμοποιήσουν τα δεδομένα και τις δυνατότητες της τεχνητής νοημοσύνης (Al) για να εντοπίσουν τα εμπορευματοκιβώτια που είναι πιο πιθανό να χρησιμοποιηθούν για εμπορία ανθρώπων και έτσι να σώσουν ζωές.[20]

Οι εγκληματίες θα μπορούσαν να καταφύγουν σε πιο ακραία και δυνητικά βίαια μέτρα για να ξεπεράσουν τις δικλείδες της τεχνητής νοημοσύνης.  Ένας ηθικός κίνδυνος θα μπορούσε ακόμη και να αναπτυχθεί σε περίπτωση που οι εργαζόμενοι εξαρτηθούν πολύ από τα εργαλεία καταπολέμησης του εγκλήματος της τεχνητής νοημοσύνης για να πιάσουν εγκληματίες για αυτούς. Οι χρήστες θα μπορούσαν πιθανώς να αναπτύξουν μια ψευδή αίσθηση άνεσης και στη συνέχεια να σταματήσουν να ελέγχουν τακτικά τις εξόδους και να χάνουν εμφανείς περιπτώσεις.[21]

Για να αποφευχθεί αυτό, οι αρχές θα  πρέπει να δημιουργήσουν και να δοκιμάσουν μια ποικιλία σεναρίων σε σειρά γεγονότων που προκύπτουν από εργαλεία που βασίζονται στην τεχνητή νοημοσύνη και χρησιμοποιούνται για την παρακολούθηση εγκληματικών δραστηριοτήτων.

Χρησιμοποιώντας την τεχνητή νοημοσύνη, οι εταιρείες μπορούν να εντοπίσουν τομείς πιθανών εγκλημάτων όπως απάτη, νομιμοποίηση εσόδων από παράνομες δραστηριότητες και χρηματοδότηση της τρομοκρατίας - εκτός από άλλου είδους εγκλήματα όπως κλοπή εργαζομένων, απάτη στον κυβερνοχώρο και πλαστά τιμολόγια - για να βοηθήσουν τις δημόσιες υπηρεσίες να καταπολεμήσουν αυτά τα αδικήματα αποτελεσματικά και αποδοτικά. Αλλά με αυτά τα οφέλη προκύπτουν επιπλέον και κίνδυνοι που πρέπει να αξιολογηθούν ανοιχτά, για να διαπιστωθεί εάν η χρήση τεχνητής νοημοσύνης με αυτόν τον τρόπο είναι βιώσιμη.  Η τεχνητή νοημοσύνη ενδεχομένως να έχει τελικά εξαιρετικά θετικό αντίκτυπο στη μείωση του εγκλήματος, αρκεί να διαχειρίζεται καλά.[22]

Σοφία Ακρίβου, Κοινωνιολόγος, Εργασιακή Σύμβουλος, ΜΔΕ Διοίκηση ανθρωπίνων πόρων

[1] Τι είναι η τεχνητή νοημοσύνη και πως χρησιμοποιείται, Επικαιρότητα – Ευρωπαϊκό Κοινοβούλιο, 23/03/2021, https://www.europarl.europa.eu/news/el/headlines/society/20200827STO85804/ti-einai-i-techniti-noimosuni-kai-pos-chrisimopoieitai, ανακτήθηκε 05/09/2021

[2] Chinoy S (2019) We built an ‘unbelievable’ (but legal) facial recognition machine. The New York Times, 16 April. Available at: https://www.nytimes.com/interactive/2019/04/16/opinion/facial-recognition-newyork-city.html

[3] Techdispatch, Issue 1, Facial Emotion Recognition, 2021, https://edps.europa.eu/system/files/2021-05/21-05-26_techdispatch-facial-emotion-recognition_ref_en.pdf?fbclid=IwAR0a7my1Wq-wu5jg44rBS4XLiM7INX0lHn88l5YWZTVOXOK6rsgYx9jYNYA, (ανακτήθηκε 07/09/2021)

[4] Ekman, Paul and Wallace V Friesen (2003). Unmasking the face: A guide to recognizing emotions from facial clues. Ishk

[5] Rhue, Lauren (2018). Racial Influence on Automated Perceptions of Emotions. In: SSRN Electronic Journal. doi: 10.2139/ssrn.3281765

[6] E-nomothesia, Προεδρικό Διάταγμα 75/2020 - ΦΕΚ 173/Α/10-9-2020, Χρήση συστημάτων επιτήρησης με τη λήψη ή καταγραφή ήχου ή εικόνας σε δημόσιους χώρους, https://www.e-nomothesia.gr/kat-dedomena-prosopikou-kharaktera/proedriko-diatagma-75-2020-phek-173a-10-9-2020.html, ανακτήθηκε (08/09/2021)

[7] Άρθρο 14 - Νόμος 3917/2011 - Χρήση συστημάτων επιτήρησης με τη λήψη ή καταγραφή ήχου ή εικόνας σε δημόσιους χώρους at: https://www.lawspot.gr/nomikes-plirofories/nomothesia/n-3917-2011/arthro-14-nomos-3917-2011-hrisi-systimaton-epitirisis-me, 25.07.2021 (ανακτήθηκε 01/09/2021)

[8] Αρχή Προστασίας Δεδομένων, Γνωμοδότηση 3/2020 της Αρχής επί του σχεδίου Προεδρικού Διατάγματος σχετικά με τη χρήση συστημάτων επιτήρησης με τη λήψη ή καταγραφή ήχου ή εικόνας σε δημόσιους χώρους, Γνωμοδότηση, 30-06-2020, https://www.dpa.gr/el/enimerwtiko/prakseisArxis/gnomodotisi-32020-tis-arhis-epi-toy-shedioy-proedrikoy-diatagmatos, (ανακτήθηκε 27/09/2021)

[9] Lawspot.gt, Τεχνητή Νοημοσύνη: Δημοσιεύθηκε η πρόταση Κανονισμού της Ευρωπαϊκής Επιτροπής, 15.06.2021, (ανακτήθηκε 27.09.2021)

[10] The parliament magazine, Andreas Roga, MEPs quiz Margrethe Vestager over EU’s response to digital disinformation,https://www.theparliamentmagazine.eu/news/article/meps-quiz-margrethe-vestager-over-eus-response-to-digital-disinformation, (ανακτήθηκε 27.09.2021)

[11] European Comission, Proposal for a Regulation laying down harmonised rules on artificial intelligence, 21.04.2021, (ανακτήθηκε 01/09/2021)

[12] Team AI Regulation, Facial regognition in the draft al Regulation: Useful materials, 04.05.2021, (ανακτήθηκε 07/09/2021)

[13] EUR-Lex, Access to European Union Law, Document 62012CJ0293, JUDGMENT OF THE COURT (Grand Chamber), 08.04.2014, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A62012CJ0293, (ανακτήθηκε 31/08/2021)

[14] Taxheaven, Yπόθεση C-746/18 Επεξεργασία των δεδομένων προσωπικού χαρακτήρα στον τομέα των ηλεκτρονικών επικοινωνιών, ΑΠΟΦΑΣΗ ΤΟΥ ΔΙΚΑΣΤΗΡΙΟΥ (τμήμα μείζονος συνθέσεως) της 2ας Μαρτίου 2021, 05.03.2021, https://www.taxheaven.gr/circulars/35850/ypooesh-c-746-18, (ανακτήθηκε 01.09.2021)

[15] Lawspot, Η αναγνώριση και ταυτοποίηση προσώπων για σκοπούς δίωξης του εγκλήματος σύμφωνα με το σχέδιο Κανονισμού Ε.Ε. για την Τεχνητή Νοημοσύνη, Γρηγόρης Τσόλια, Δικηγόρος-ΜΔ Ποινικών Επιστημών, Μέλος (αν.) Αρχής Προστασίας Δεδομένων, Εθνικού Εμπειρογνώμονα Working Group CDPC του Συμβουλίου της Ευρώπης “Artificial Intelligence & Criminal Law”, 14.05.2021, https://www.lawspot.gr/nomika-nea/i-anagnorisi-kai-taytopoiisi-prosopon-gia-skopoys-dioxis-toy-egklimatos-symfona-me-shedio , (ανακτήθηκε 12/09/2021)

[16] Επικαιρότητα – Ευρωπαϊκό Κοινοβούλιο, Τεχνητή νοημοσύνη: Ευκαιρίες και Απειλές, 26.03.2021, https://www.europarl.europa.eu/news/el/headlines/society/20200918STO87404/techniti-noimosuni-eukairies-kai-apeiles,  (ανακτήθηκε 27.09.2021)

[17] Broadhurst R, Maxim D, Brown P et al. (2018) Artificial Intelligence and Crime: A Report for the Korean Institute of Criminology. Canberra, ACT, Australia: ANU Cybercrime Observatory

[18] Artificial intelligence and crime: A primer for criminologists, Keith J Hayward and Matthijs M Maas, University of Copenhagen, Denmark, page. 6, (ανακτήθηκε 21.09.2021)

[19]Επικαιρότητα-Ευρωπαϊκό Κοινοβούλιο, Τεχνητή νοημοσύνη: Ευκαιρίες και απειλές, 26.03.2021, https://www.europarl.europa.eu/news/el/headlines/society/20200918STO87404/techniti-noimosuni-eukairies-kai-apeiles, (ανακτήθηκε 10/09/2021)

[20] Els AS (2017) Artificial intelligence as a digital privacy protector. Harvard Journal of Law & Technology 31: 217–235

[21] Grace K, Salvatier J, Dafoe A et  al. (2018) When will AI exceed human performance? Evidence from AI experts. Journal of Artificial Intelligence Research 62: 729–754. DOI: 10.1613/jair.1.11222

[22] Piper K (2018) The case for taking AI seriously as a threat to humanity. Vox. Available at: https://www.vox. com/future-perfect/2018/12/21/18126576/ai-artificial-intelligence-machine-learning-safety-alignment