ΤΕΥΧΟΣ #9 ΜΑΙΟΣ 2019

Τεχνητή Νοημοσύνη & Αντεγκληματική Πολιτική

Μάνος Τεχνίτης
Όλο και περισσότερο γίνεται λόγος στις ποινικές – εγκληματολογικές επιστήμες για το πώς οι εφαρμογές της τεχνητής νοημοσύνης θα επηρεάσουν την απονομή δικαιοσύνης, την αστυνόμευση, την ποινική καταστολή, ακόμα και το δικηγορικό λειτούργημα. Το παρόν άρθρο επιχειρεί έστω και επιδερμικά να αγγίξει το ζήτημα της εφαρμογής της τεχνητής νοημοσύνης σε σχέση με την αντεγκληματική πολιτική.

Ο κόσμος βρίσκεται στο κατώφλι μιας τεχνολογικής επανάστασης (το «Τρίτο Κύμα» όπως το αποκαλεί ο Στιβ Κέης, συνιδριτής της αμερικάνικης AOL[1]). Δύο έννοιες βρίσκονται στο επίκεντρο αυτής. Αφενός το «Διαδίκτυο των Πάντων» (InternetofEverything) και αφετέρου η Τεχνητή Νοημοσύνη (ArtificialIntelligence) μέσω της «μηχανικής μάθησης» (machinelearning)[2].

Ως «Διαδίκτυο των Πάντων» (InternetofEverything) εννοούμε την τεχνολογική τάση στην οποία κάθε συσκευή διαθέτει πρόσβαση στο διαδίκτυο (έξυπνη λάμπα, έξυπνο θερμόμετρο κ.λπ.) και κατ’ επέκταση όλες μαζί ανταλλάσσουν πληροφορίες στο υπολογιστικό σύννεφο («computingcloud») (επί παραδείγματι, η έξυπνη λάμπα αλλάζει χρώμα ανάλογα με το αν ο χώρος είναι ζεστός ή κρύος). Παρόλο που για την Τεχνητή Νοημοσύνη δεν υπάρχει ακόμα κοινώς παραδεδεγμένος ορισμός, θα μπορούσαμε να την ορίσουμε απλοϊκά ως την τεχνολογία η οποία επιτρέπει σε μια υπολογιστική μηχανή να προσομοιώνει την ανθρώπινη νοημοσύνη, ιδίως μιμούμενη ανθρώπινες γνωστικές λειτουργίες. Ως μέσο για την επίτευξη τούτου είναι η τεχνολογία της μηχανικής μάθησης η οποία ορίζεται ως «η δημιουργία μοντέλων ή προτύπων (patterns) από ένα σύνολο δεδομένων, από ένα υπολογιστικό σύστημα»[3].

Η επιρροή των τεχνολογιών αυτών στο πεδίο της αντεγκληματικής πολιτικής είναι ήδη εμφανής. Ήδη μελετάται η εφαρμογή των τεχνολογιών αυτών σε πεδία όπως το ποινικό δίκαιο και η ποινική καταστολή. Επί παραδείγματι, ήδη από το έτος 2003 βρίσκεται οι διωκτικές αρχές των Ηνωμένων Πολιτειών χρησιμοποιούν το γνωστό πλέον λογισμικό «COPLINK», το οποίο βασιζόμενο στη μεθοδολογία «datamining» (ανασκαφή δεδομένων) χρησιμοποιείται για την αναζήτηση και σύνδεση πληροφοριών με σκοπό την ταχύτερη επίλυση εγκλημάτων[4]. Προστιθέμενων, τώρα, των τεχνολογιών που αναφέραμε παραπάνω, το όραμα κατευθύνεται σε αυτοματοποιημένη λήψη αποφάσεων βασισμένη σε δεδομένα που ήδη έχουν συλλεχθεί και έχουν διασταυρωθεί μεταξύ τους. Το πρόγραμμα «Algorithms& Justice» που αποτελεί προϊόν συνέργειας των Πανεπιστημίων του Harvardκαι του MITτων ΗΠΑ, έχει αυτόν ακριβώς τον σκοπό. Να γίνει χρήση των τεχνολογίες της τεχνητής νοημοσύνης και της μηχανικής μάθησης από τα κυβερνητικά όργανα με σκοπό την καλύτερη λήψη αποφάσεων στον τομέα της δικαιοσύνης, της επιβολής του νόμου και της εφαρμογής της αντεγκληματικής πολιτικής[5]. Επιπλέον, το Εθνικό Ινστιτούτο Δικαιοσύνης των ΗΠΑ προωθεί και μελετά την εφαρμογή της τεχνητής νοημοσύνης στον τομέα της ποινικής καταστολής όπως στην πρόβλεψη δεικτών εγκληματικότητας, την πρόβλεψη εγκληματικών συμπεριφορών, ανάλυση δεδομένων από τη χρήση των καμερών κυκλοφορίας κ.α.[6].

Στον τομέα της ρομποτικής, όλο και περισσότερες είναι οι ανακοινώσεις που αφορούν τη δοκιμή ρομπότ για την ένταξη τους σε υπηρεσίες αστυνόμευσης. Ενδεικτικές περιπτώσεις είναι η δοκιμαστική χρήση του πρώτου αστυνόμου-ρομπότ στο Ντουμπάι, το οποίο σε ανακοίνωσή του δήλωσε ότι φιλοδοξεί έως το 2030, το 25% της αστυνόμευσης να γίνεται με τη χρήση ρομπότ[7]. Αντίστοιχα, σε δοκιμαστική χρήση βρίσκεται ρομπότ – φύλακας σε σωφρονιστικό ίδρυμα στη Νότια Κορέα[8], ενώ το περιοδικό «Wired» κατέγραψε έντεκα διαφορετικά είδη ρομπότ  ανά τον κόσμο τα οποία βρίσκονται σε χρήση ή δοκιμαστική λειτουργία και χρησιμοποιούνται για αστυνόμευση[9].

Αντίστροφα, εξ ίσου ενδιαφέρον είναι να παρατηρήσουμε πως η αντεγκληματική πολιτική θα επιλέξει να αντιμετωπίσει ζητήματα και να επιλύσει ζητήματα που προκύπτουν από την εμπορική χρήση εφαρμογών τεχνητής νοημοσύνης στην καθημερινή ζωή, ιδίως σε επίπεδο νομοθεσίας.  Η διαδικασία της νομικής ρύθμισης των ζητημάτων που άπτονται της τεχνητής νοημοσύνης είναι ήδη σε εμβρυακό στάδιο, (αυτό της διαμόρφωσης προτάσεων – συστάσεων), ενώ σε επίπεδο κρατών τα ζητήματα που αναφύονται αντιμετωπίζονται αποσπασματικά[10], λόγω έλλειψης κοινών ρυθμίσεων σε υπερεθνικό επίπεδο. Ωστόσο η νομική ρύθμιση αυτού του είδους των τεχνολογιών μονάχα εύκολη δεν είναι. Συνοπτικά, οι προβληματικές που έχουν εντοπιστεί είναι:

  • Το πρόβλημα του ορισμού (δεν υπάρχει ακόμα κοινώς παραδεδεγμένος ορισμός του τι είναι τεχνητή νοημοσύνη).
  • Το πρόβλημα της διακριτικότητας (οι τεχνολογίες τεχνητής νοημοσύνης σε επίπεδο έρευνας και ανάπτυξης αναπτύσσονται, χωρίς να παίρνουν δημοσιότητα, ώστε οι διάφοροι Θεσμικοί Φορείς να μπορούν να εκφέρουν έγκαιρα την άποψη τους).
  • Το πρόβλημα της διασποράς (οι τεχνολογίες τεχνητής νοημοσύνης αναπτύσσονται από ένα διεσπαρμένο δίκτυο εμπλεκομένων προσώπων οι οποίο μπορούν να βρίσκονται σε διαφορετικές τοποθεσίες/έννομες τάξεις).
  • Το πρόβλημα του διαχωρισμού (0ι τεχνολογίες τεχνητής νοημοσύνης εκμεταλλεύονται ή κάνουν χρήση διαφόρων τεχνολογιών, το αποτέλεσμα των οποίων δεν είναι εμφανές παρά μόνο όταν αυτές οι τεχνολογίες ενωθούν).
  • Το πρόβλημα της διαπερατότητας (οι τεχνολογίες αυτές δεν είναι εμφανείς ή τουλάχιστον δεν είναι σαφείς και κατανοητές για τον εκάστοτε νομοθέτη – ρυθμιστικό όργανο).
  • Το πρόβλημα της προβλεψιμότητας (η τεχνητή νοημοσύνη μπορεί να είναι αυτόνομη και να λειτουργεί με τρόπους που δεν μπορούν να προβλέψουν ούτε καν οι αρχικοι προγραμματιστές δημιουργώντας δυσκολία στον εντοπισμό της υπαιτιότητας).
  • Toπρόβλημα του ελέγχου στενή εννοία (H τεχνητή νοημοσύνη μπορεί να λειτουργεί με τρόπους που δεν βρίσκονται πλέον υπό τον έλεγχο αυτούς οι οποίοι είναι νομικά υπεύθυνη για αυτήν)
  • Το πρόβλημα του έλέγχου ευρεία εννοία (Η τεχνητή νοημοσύνη μπορεί να εκφύγει του ελέγχου όλων των ανθρώπων)[11].

Ήδη το Σχέδιο Έκθεσης της Επιτροπής Νομικών Θεμάτων του Ευρωπαϊκού Κοινοβουλίου που περιέχει συστάσεις προς την Επιτροπή για ρυθμίσεις αστικού δικαίου στον τομέα της Ρομποτικής (2015-2103) εγείρει βασικούς προβληματισμούς από τη χρήση των ρομπών και της τεχνητής νοημοσύνης στην καθημερινή ζωή και προτείνει, μεταξύ άλλων, τη λήψη μέτρων όπως είναι η υιοθέτηση της αντικειμενικής ευθύνης για ζημίες που προκαλούνται στους πολίτες από τις συγκεκριμένες τεχνολογίες καθώς και η υποχρέωση υιοθέτησης κωδίκων δεοντολογίας από τους κατασκευαστές.

Ο γράφων θεωρεί ότι, τουλάχιστον σε Ευρωπαϊκό Επίπεδο, η προσέγγιση που θα ακολουθηθεί θα περιέχει χαρακτηριστικά αντίστοιχα του Γενικού Κανονισμού 2016/679 Περί Προστασίας Δεδομένων Προσωπικού Χαρακτήρα ο οποίος συνδυάζει τόσο την Διοικητική, την Ποινική όσο και την Αστική μεταβλητή παράλληλα με τη μεταβλητή της «αυτορρύθμισης»[12].

Από την άλλη πλευρά η διεθνής πρακτική έχει δείξει ότι οι κώδικες δεοντολογίας και το ήπιο δίκαιο εν γένει (softlaw), προηγούνται πλέον κατά πολύ σε σχέση με το δεσμευτικό δίκαιο (hardlaw), και ειδικά στην προκειμένη περίπτωση όπου ο νομοθέτης θα έχει δυσκολία στο να κατανοήσει συγκεκριμένες τεχνολογικές έννοιες. Πράγματι στις 8 Απριλίου 2019 εκδόθηκε το κείμενο «EthicsGuidelinesforTrustworthyAI» από ομάδα ειδικών που συστήθηκε με εντολή της Ευρωπαϊκής Επιτροπής, το οποίο αποτελεί ένα σχέδιο κατευθυντήριων γραμμών δεοντολογίας για την Τεχνητή Νοημοσύνη, την οποία θεωρεί ως μια από τις «πλέον μετασχηματιστικές δυνάμεις της εποχής μας». Το σχέδιο δίνει έμφαση στον «δεοντολογικό σκοπό» ήτοι στην εξασφάλιση της ανθρωποκεντρικότητας τεχνητής νοημόσυνης, ενώ πολύ ενδιαφέρον έχει η εισαγωγή εννοιών που σίγουρα θα συναντήσουμε κατά τη νομική εξέλιξη του ζητήματος όπως αυτές της «λογοδοσίας» και της «ελεγξιμότητας» των συστημάτων τεχνητής νοημοσύνης[13].

Όλα αυτά, δεν είναι βεβαίως απλοί θεωρητικοί προβληματισμοί. Η εξέλιξη των ζητημάτων αυτών στην πράξη σχετίζεται και με την εξέλιξη στην απονομή δικαιοσύνης -η οποία και αποτελεί τον πυρήνα της αντεγκληματικής πολιτικής- με παρονομαστή τις προαναφερθείσες τεχνολογίες. Ο νομικός θα πρέπει να βρίσκεται σε εγρήγορση ώστε να παρατηρεί και να αντιδρά σε αλλαγές που τυχόν θα προκύψουν σε υφιστάμενες δικαιικές εγγυήσεις και θεμελιωμένα δικαιώματα, είτε αυτά αφορούν τον άνθρωπο είτε ακόμα και την τεχνητή νοημοσύνη που αποκτά συνείδηση (ως προς το ζήτημα ενδεχόμενης ποινικής ευθύνης) [14]. Τέλος, λόγω της ταχείας προόδου της τεχνολογίας, δεν είναι άσκοπο να εξετάσουμε τις ανωτέρω προβληματικές και υπό μια ακόμα σκοπιά: Αυτή της τεχνητής νοημοσύνης ως μέρος της ανθρώπινης[15] και ποια είναι τα νομικά ζητήματα που δημιουργούνται στην προκειμένη περίπτωση.

* Του Μάνου Τεχνίτη, Δικηγόρου, LL.M., LL.M, Cert. DPO.

[1]Case, S.,The Third Wave, An Entrepreneur's Vision of the Future, Simon & Schuster, 2018.

[2]Με απλά λόγια, ως μηχανική μάθηση μπορούμε να ορίσουμε τον προγραμματισμό ενός υπολογιστικού συστήματος «να μαθαίνει» από δεδομένα που εισάγονται σε αυτόν. Με τη λέξη να «μαθαίνει» εννοούμε να μετατρέπει την εμπειρία σε γνώση. Salev-Schwartz, S., Ben-David S., Understanding Machine Learning, Cambridge University Press, 2014, σελ. 1-3,

[3].Salev-Schwartz, S., Ben-David S., ό.π.

[4]Chen Ζ., Zeng D., Atabakhsh D., Wyzga W., Schroeder J., Communications of the ACM, Vol. 46, No. 1, Ιανουάριος2003, Σελίδες28-34, Nath S.V.,Crime Data Mining. Σε: Elleithy K. (eds) Advances and Innovations in Systems, Computing Sciences and Software Engineering., Springer, Dordrecht, 2007.

[5]Ethics and Governance of Artificial Intelligence Initiative, Berkman Klein Center for Internet & Society at Harvard University, MIT Media Lab at the Massachusetts Institute of Technology. Έγγραφο παρουσίασης του προγράμματος όπως ανακτήθηκε από το σύνδεσμο: https://cyber.harvard.edu/sites/default/files/2018-07/2018-02-12_AIAlgorithmsJusticeOnePager.pdf

[6]Rigano, C,Using Artificial Intelligence to Address Criminal Justice Needs, NIJ Journal. No 280, 2007, NIJ.ojp.gov.

[7]BBC News, Robot police officer goes on duty in Dubai, 27 Μαΐου2017 https://www.bbc.com/news/technology-40026940,

[8]BBC News, Robotic prison wardens to patrol South Korean prison, 11 Νοεμβρίου2011https://www.bbc.com/news/technology-15893772

[9]Wired Magazine, 11 Police Robots Patrolling Around the World. 27 Iουνίου 2016,  https://www.wired.com/2016/07/11-police-robots-patrolling-around-world/

[10]AtabekovΑ, Yastrebov Ο, Legal Status of Artificial Intelligence Across Countries: Legislation on the Move, European Research Studies Journal Volume XXI, Issue 4, 2018.

[11]Schereres, M,Regulating Artificial Intelligence Systems: Risks, Challenges Competencies and Strategies, Harvard Journal of Law & Technology, Volume 29, Number 2, Spring 2016., Erdelyi, O. Erdelyi, J.,  Goldsmith, J. Regulating Artificial Intelligence: Proposal for a Global Solution, 2018 AAAI/ACM Conference on AI, Ethics, and Society (AIES '18), February 2--3, 2018, New Orleans, LA, USA.February 2018,  http://www.aies-conference.com/wp-content/papers/main/AIES_2018_paper_13.pdf,  Reed, C.,How should we regulate artificial intelligence, Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, Volume 376, Issue 2128, The Royal Society Publishing, August 2018, http://doi.org/10.1098/rsta.2017.0360.

[12]Όπως οι μεταβλητές αυτά παρουσιάζονται σε: DelmasMarty, Μ, Πρότυπα και Τάσεις Αντεγκληματικής Πολιτικής, Νομική Βιβλιοθήκη, Αθήνα, 2002.

[13]«EthicsGuidelinesforTrustworthyAI» από ομάδα ειδικών που συστήθηκε με εντολή της Ευρωπαϊκής Επιτροπής. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top

[14]Εντελως ενδεικτικά, το 2017 η πόλη Ριάντ της Σαουδικής Αραβίας, έδωσε την Σαουδαραβική υπηκοότητα στο ρομπότ «Σοφία», ενώ το ίδιο έτος το κράτος της Ιαπωνίας παραχώρησε με ειδικό νόμο άδεια διαμονής στο «chatbot» με το όνομα «ShibuyaMirai» (AtabekovΑ, YastrebovΟ, LegalStatusofArtificialIntelligenceAcrossCountries:LegislationontheMove,EuropeanResearchStudiesJournalVolumeXXI, Issue4, 2018). Ο γνωστός αμερικανός δημοσιογράφος και καθηγητής στο Πανεπιστήμιο της Κολούμπια Φρανκ Ρόουζ, ήδη από το έτος 1985 εγείρει τον προβληματισμό για το αν τα ρομπότ είναι υποκείμενα πολιτικών δικαιωμάτων και ποιο είναι τελικά το κριτήριο για να αποφασίσουμε ποιος δικαιούται να έχει πολιτικά δικαιώματα και ποιος όχι. (Rose, F.,Into the Heart of the Mind: An American Quest for Artificial  Intelligence. Vintage, USA, 1985, σελ. 121-123)

[15]Ενδεικτικά αναφέρουμε ότι ήδη ο τρόπος που δουλεύει η τεχνητή νοημοσύνη επηρεάζεται από την ανθρώπινη νοημοσύνη και συμπεριφορά, από την οποία η τεχνητή νοημοσύνη «μαθαίνει». Όσο περισσότερο η τεχνητή νοημοσύνη θα συγκεντρώνει και «υιοθετεί» πληροφορίες που προέρχονται από την ανθρώπινη συμπεριφορά, τόσο τα όρια μεταξύ αυτής και της ανθρώπινης νόησης θα γίνονται δυσδιάκριτα. Αντίστροφα, εμφανίζονται όλο και περισσότερες οι εργαστηριακές έρευνες οι οποίες αποσκοπούν στο να «ενώσουν» εφαρμογές τεχνητής νοημοσύνης με τον ανθρώπινο εγκέφαλο, ώστε να μπορούν να αλληλεπιδρούν σε πραγματικό χρόνο. Παράδειγμα τέτοιο, είναι το «βιονικό» τεχνητό χέρι που έχει κατασκευαστεί από ομάδα επιστημόνων τουυ ImperialCollegeLondonκαι του Παν/μιου του Göttingen. Για περισσότερα βλ. https://robotics.sciencemag.org/content/3/19/eaat3630.short