ΤΕΥΧΟΣ #14 ΝΟΕΜΒΡΙΟΣ 2020

Αλγόριθμοι, machine learning και big data στην ποινική δίκη

 Παναγιώτα Βλάχου, υπ. Διδάκτωρ

Ι. Εισαγωγή

Η τεχνολογία εξελίσσεται με ταχύτατους ρυθμούς. Έτσι, ενώ στα παλαιότερα συστήματα αλγορίθμων[1] ο άνθρωπος εισήγαγε στα συστήματα αυτά τόσο τα δεδομένα όσο και τους κανόνες που έπρεπε να ακολουθήσει ο υπολογιστής για να εξαγάγει τα ζητούμενα αποτελέσματα, τα νέα συστήματα αλγορίθμων δέχονται τα δεδομένα και τα αποτελέσματα που αυτά συνεπάγονται και δημιουργούν (μαθαίνουν) μόνα τους τους κανόνες και τα μοτίβα με βάση τα οποία θα οδηγηθούν σε αποτελέσματα[2]. Παράλληλα, ελέγχουν εάν τα αποτελέσματά τους είναι σωστά, άλλως κάνουν τις απαραίτητες διορθώσεις, πράγμα που σημαίνει ότι με τον καιρό βελτιώνεται η ακρίβειά τους[3]. Η διαδικασία αυτή είναι δυνατή μέσα από την εκμάθηση μηχανής[4] και τη χρήση των λεγόμενων μεγάλων δεδομένων[5] και είναι μέρος της τεχνητής νοημοσύνης[6].

Όπως γίνεται βέβαια κατανοητό, τα συστήματα αυτά μπορούν να οδηγηθούν σε λάθη κατά τη διαδικασία ανάλυσης των υπαρχόντων μοτίβων στα δεδομένα, καθώς λειτουργούν μηχανικά ανακαλύπτοντας συσχετισμούς μεταξύ των εισαχθέντων δεδομένων χωρίς να μπορούν να ερμηνεύσουν ούτε το νόημα των δεδομένων που επεξεργάζονται ούτε των μοτίβων που ανακαλύπτουν. Έτσι, μπορεί να αναγάγουν τυχαία μοτίβα μεταξύ των δεδομένων σε σχέσεις αιτιότητας[7].

Οι αλγόριθμοι, η εκμάθηση μηχανής και τα μεγάλα δεδομένα κυριαρχούν στις καθημερινές μας δραστηριότητες, όπως για παράδειγμα στην εύρεση της βέλτιστης διαδρομής με βάση την υπηρεσία GPS, την εκτίμηση κινδύνου που πραγματοποιούν οι τράπεζες και οι ασφαλιστικές υπηρεσίες πριν τη χορήγηση κάποιου προϊόντος στους πελάτες τους, ακόμα και τις προτάσεις που δεχόμαστε από ορισμένες εφαρμογές για ταινίες, σειρές ή βιβλία και το είδος των διαφημίσεων που μας παρουσιάζονται όταν σερφάρουμε στο διαδίκτυο.

Βεβαίως, δεν λείπουν παρόμοιες εφαρμογές της τεχνολογίας και στην πρόληψη και καταστολή του εγκλήματος. Για παράδειγμα, υπάρχουν εφαρμογές που προβλέπουν τον τόπο και τον χρόνο της εγκληματικότητας, ώστε να κατευθύνουν την αστυνομία να επέμβει[8], εφαρμογές που δημιουργούν λίστες με υπόπτους[9], εφαρμογές οπτικής ή ακουστικής αναγνώρισης για τον εντοπισμό υπόπτων ή θυμάτων[10], εφαρμογές αυτόματης παρεμπόδισης εισαγωγής παράνομου υλικού (π.χ. προϊόντα πνευματικής ιδιοκτησίας) σε μέσα κοινωνικής δικτύωσης και πλατφόρμες, όπως το YouTube και το Facebook[11], κ.λπ. Βεβαίως, η τεχνολογία έχει οδηγήσει και σε ορισμένες αρνητικές πρακτικές, όπως είναι για παράδειγμα η σύνδεση ορισμένων χαρακτηριστικών του προσώπου με ενδεχόμενη εγκληματική συμπεριφορά[12], φέρνοντας στο φως εκ νέου θεωρίες προηγούμενων εποχών, οι οποίες έχουν δεχτεί πληθώρα κριτικών και έχουν σήμερα εγκαταλειφθεί.

Στο παρόν άρθρο θα ασχοληθούμε κυρίως με τη χρήση τέτοιων τεχνολογικών εφαρμογών στην ποινική δίκη και συγκεκριμένα με τα εργαλεία εκτίμησης κινδύνου υποτροπής και αναγκών του κατηγορουμένου.

ΙΙ. Τα εργαλεία εκτίμησης κινδύνου και αναγκών του κατηγορουμένου

Ας δούμε όμως πρώτα τι είναι αυτά τα εργαλεία, τα οποία είναι γνωστά ως Risk-Need Assessment (RNA) Tools. Πρόκειται για λογισμικό που αξιολογεί τον κίνδυνο υποτροπής ή μη εμφάνισης του κατηγορουμένου στο ακροατήριο, καθώς επίσης προτείνει τη βέλτιστη αντιμετώπιση ενός κατηγορουμένου ή καταδικασθέντα, ώστε να μειωθεί ο κίνδυνος υποτροπής του. Τα εργαλεία αυτά χρησιμοποιούνται από τους Δικαστές και τους δικαστικούς υπαλλήλους κατά το στάδιο της έκδοσης απόφασης για την προφυλάκιση, την επιμέτρηση και το είδος της ποινής σε περίπτωση καταδίκης, καθώς και την υφ’ όρον απόλυση.

Τα εργαλεία αυτά στηρίζονται είτε σε δυναμικούς παράγοντες, οι οποίοι είναι μεταβλητοί, όπως είναι η ηλικία, η εργασιακή απασχόληση, η κατάχρηση ουσιών/αλκοόλ, και οι οποίοι με την κατάλληλη αντιμετώπιση από την Πολιτεία μπορούν να βελτιωθούν μειώνοντας κατά αυτόν τον τρόπο την πιθανότητα μιας ενδεχόμενης υποτροπής, είτε σε στατικούς παράγοντες, όπως είναι η ενδεχόμενη προηγούμενη τέλεση αδικημάτων, η ηλικία της πρώτης σύλληψης για κάποιο έγκλημα, το φύλο, κ.λπ., τα οποία φυσικά είναι αμετάβλητα, είτε και στους δύο τύπους παραγόντων[13].

Τα εργαλεία αυτά χρησιμοποιούνται ευρέως ήδη από τα τέλη του προηγούμενου αιώνα στις Ηνωμένες Πολιτείες Αμερικής[14], στην Αυστραλία και στο Ηνωμένο Βασίλειο. Τα δημοφιλέστερα αυτών είναι το εργαλείο «Correctional Offender Management Profiling for Alternative Sanctions» (COMPAS)[15], το «Public Safety Assessment» (PSA)[16] και το «Level of Service Inventory–Revised» (LSI-R)[17].

 Όπως είναι φυσικό, η χρήση των εργαλείων αυτών έχει γίνει αντικείμενο κριτικής στους ακαδημαϊκούς και όχι μόνο κύκλους. Βεβαίως, σκοπός του παρόντος άρθρου δεν είναι να αναλύσουμε εκτενώς όλη τη συζήτηση γύρω από τα εργαλεία αυτά, αλλά να αναφέρουμε τα βασικά σημεία της.

Αρχικά, αναφέρουμε ότι η συζήτηση γύρω από τη χρήση αυτών των εργαλείων πυροδοτήθηκε από τη διάσημη απόφαση State v. Loomis του Ανώτατου Δικαστηρίου της Πολιτείας Wisconsin[18], κατά την οποία το Δικαστήριο έκρινε ότι η χρήση των εργαλείων εκτίμησης κινδύνου υποτροπής και αναγκών του κατηγορουμένου κατά την επιμέτρηση της ποινής δεν παραβιάζει το δικαίωμα στη δίκαιη δίκη, καθώς στη συγκεκριμένη περίπτωση το Δικαστήριο δεν στηρίχτηκε μόνο στα αποτελέσματα του εν λόγω εργαλείου, αλλά οδηγήθηκε στο συμπέρασμά του λαμβάνοντας υπόψη και άλλους παράγοντες σε σχέση με τη συγκεκριμένη υπόθεση. Στην απόφαση αυτή, παραγνωρίστηκε βεβαίως το γεγονός ότι οι άνθρωποι τείνουν να εμπιστεύονται τα αυτοματοποιημένα συστήματα ακόμη και όταν γνωρίζουν ότι αυτά μπορεί να περιέχουν λάθη[19]. Μάλιστα, είναι πολύ δύσκολο για ένα Δικαστή να αφήσει ελεύθερο τον εκάστοτε κατηγορούμενο, όταν ένα εργαλείο εκτίμησης κινδύνου υποτροπής τον κατατάσσει ως υψηλού κινδύνου[20].

Τα εργαλεία αυτά σχεδιάστηκαν με σκοπό την αύξηση της αποτελεσματικότητας και της ποιότητας της δικαιοσύνης[21], καθώς και της μείωσης των διακρίσεων στις δικαστικές αποφάσεις. Και ενώ ως προς την αποτελεσματικότητά τους ο στόχος φαίνεται να έχει επιτευχθεί[22], καθώς είναι δυνατό με τη χρήση τους να μειωθεί τόσο ο πληθυσμός των φυλακών όσο και τα ποσοστά εγκληματικότητας[23], το θέμα της εξάλειψης των διακρίσεων έχει συζητηθεί εκτενώς.

Το 2016 η Μη Κυβερνητική Οργάνωση ProPublica δημοσίευσε την έρευνά της πάνω στο εργαλείο COMPAS, σύμφωνα με την οποία το ποσοστό των ατόμων αφρικανικής καταγωγής που αξιολογούνταν ως υψηλού κινδύνου σε σχέση με των λοιπών πολιτών ήταν μεγαλύτερο, ενώ τα ποσοστά υποτροπής των ως άνω ατόμων που είχαν αξιολογηθεί ως υψηλού κινδύνου ήταν μικρότερα (false posistives) και τα ποσοστά υποτροπής των λοιπών πολιτών που είχαν αξιολογηθεί ως χαμηλού κινδύνου ήταν μεγαλύτερα (false negatives)[24].

Όπως είναι φυσικό κατά την κατασκευή του αλγορίθμου οι προκαταλήψεις του κατασκευαστή εισχωρούν στον κώδικα του λογισμικού[25]. Ωστόσο, ακόμα και εάν δεν συμβεί αυτό, ορισμένοι παράγοντες όπως το επίπεδο εκπαίδευσης, η οικονομική κατάσταση και ο τόπος κατοικίας του αναλυόμενου μπορεί να οδηγήσουν έμμεσα σε διακρίσεις[26]. Μάλιστα, υποστηρίζεται ότι τα δεδομένα που επεξεργάζονται αυτά τα εργαλεία θα συμπεριλαμβάνουν πάντοτε ρατσιστικούς παράγοντες, καθώς στηρίζονται στα στατιστικά στοιχεία της εγκληματικότητας και δεν μπορούμε ποτέ να γνωρίζουμε το σύνολο της εγκληματικότητας, αλλά μόνο τα εγκλήματα που γίνονται αντιληπτά, τα οποία στην πλειοψηφία τους είναι από μειονοτικές ομάδες[27].

Σαφώς, ακόμη και οι Δικαστές μπορεί να είναι προκατειλημμένοι, γεγονός που δεν μπορεί να εξακριβωθεί, καθώς μπορεί ούτε οι ίδιοι να το αναγνωρίζουν[28]. Βέβαια, οι Δικαστές στηρίζονται σε περισσότερους παράγοντες από όσους μπορεί να λάβει υπόψη του ένας αλγόριθμος, όπως για παράδειγμα η συμπεριφορά του κατηγορουμένου στο ακροατήριο[29], και έτσι μέσω του ανθρώπινου παράγοντα οι κανόνες καθίστανται πιο ευέλικτοι σε σχέση με τα αποτελέσματα των αλγορίθμων, οι οποίοι δεν μπορούν να επεξεργαστούν τόσο περίπλοκα δεδομένα[30].

Επίσης, τα εργαλεία αυτά έχουν δεχτεί κριτική για την  έλλειψη διαφάνειάς τους, διότι ο αλγόριθμός τους δεν είναι γνωστός δημόσια, καθώς πρόκειται για ιδιοκτησία ιδιωτικών εταιρειών και εάν δημοσιευτεί ο αλγόριθμος θα χάσουν το πλεονέκτημά τους στην αγορά[31]. Από την άλλη, το πώς οδηγήθηκε ο αλγόριθμος στα εκάστοτε αποτελέσματα δεν είναι πάντοτε γνωστό ακόμα και στους ίδιους τους προγραμματιστές, καθώς τα προγράμματα αυτά μέσω της εκμάθησης μηχανής χρησιμοποιώντας μεγάλο όγκο δεδομένων μαθαίνουν μόνα τους τους συσχετισμούς τους οποίους εφαρμόζουν στα δεδομένα του εκάστοτε κατηγορουμένου[32].

Όσον αφορά στον χώρο της Ευρωπαϊκής Ένωσης, προς το παρόν δεν φαίνεται να γίνεται χρήση τέτοιων εργαλείων, ωστόσο ενδεχόμενη μελλοντική χρήση τους πρέπει να γίνει με μεγάλη προσοχή ώστε να μην παραβιάζονται τα ανθρώπινα δικαιώματα, μεταξύ των οποίων είναι το δικαίωμα στη δίκαιη δίκη (άρ. 6 της ΕΣΔΑ), το οποίο περιλαμβάνει το δικαίωμα στην ισότητα των όπλων, το δικαίωμα στο φυσικό Δικαστή, το δικαίωμα σε ένα ανεξάρτητο και αμερόληπτο Δικαστήριο, το τεκμήριο αθωότητας, καθώς και το δικαίωμα στην ιδιωτική ζωή και οικογένεια, τα δικαιώματα για τα προσωπικά δεδομένα[33], η αρχή των μη διακρίσεων[34].

Στην Ελλάδα τα εργαλεία αυτά θα μπορούσαν αν ενταχθούν στην ποινική δίκη ως έγγραφα, ως ψυχολογικές πραγματογνωμοσύνες ή ως sui generis αποδεικτικά μέσα, τα οποία εκτιμώνται ελεύθερα από τον Δικαστή κατά την επιβολή και επιμέτρηση της ποινής και την επιβολή προφυλάκισης, ενώ θα μπορούσαν να χρησιμοποιηθούν και στο πλαίσιο της υφ’ όρον απόλυσης. Μην ξεχνάμε ότι ο Δικαστής ήδη σε όλες αυτές τις περιπτώσεις κάνει μια προσωπική εκτίμηση για τον τρόπο αντιμετώπισης του εκάστοτε κατηγορουμένου, έχοντας ως βάση την προσωπική του εμπειρία. Ανάγκη, βέβαια, εισαγωγής παρόμοιων εργαλείων στην ελληνική δικαιοσύνη δεν φαίνεται να υπάρχει και, ως εκ τούτου, παρέλκει η περαιτέρω συζήτηση του θέματος.

ΙΙΙ. Αντί επιλόγου

Λαμβάνοντας, ωστόσο, υπόψη τη ραγδαία εξέλιξη της τεχνολογίας, ίσως θα ήταν σκόπιμο να τεθούν ορισμένοι κανόνες όσον αφορά στην εισαγωγή της στο χώρο της Δικαιοσύνης. Ας μην ξεχνάμε ότι επαφίεται στον τρόπο χρήσης των τεχνολογικών προϊόντων για το αν αυτά θα οδηγήσουν στη βελτίωση του συστήματος απονομής της ποινικής δικαιοσύνης ή στην υποδαύλιση των ανθρωπίνων δικαιωμάτων.

Για το λόγο αυτό, η Ευρωπαϊκή Επιτροπή για την Αποτελεσματικότητα της Δικαιοσύνης του Συμβουλίου της Ευρώπης εξέδωσε τον Ευρωπαϊκό Ηθικό Χάρτη για τη χρήση της τεχνητής νοημοσύνης στα δικαστικά συστήματα και στα περιβάλλοντά τους[35], σύμφωνα με τον οποίο:

1] τα εργαλεία αυτά πρέπει να σέβονται τα θεμελιώδη ανθρώπινα δικαιώματα, όπως αυτά αποτυπώνονται στην Ευρωπαϊκή Σύμβαση Δικαιωμάτων του Ανθρώπου, (αρχή του σεβασμού των θεμελιωδών δικαιωμάτων)

2] πρέπει να εμποδίζεται οποιαδήποτε διάκριση, άμεση ή έμμεση, βάσει ευαίσθητων δεδομένων του ατόμου (αρχή των μη διακρίσεων)

3] οι κατασκευαστές τους πρέπει να συνεργάζονται με τους λειτουργούς της δικαιοσύνης, ενώ τα δεδομένα που εισάγονται στα εργαλεία αυτά πρέπει να είναι από πιστοποιημένες πηγές και τα προγράμματα αυτά να εκτελούνται σε ασφαλή περιβάλλοντα (αρχή ποιότητας και ασφάλειας)

4] πρέπει να υπάρχει τεχνολογική διαφάνεια (ο καθένας να έχει πρόσβαση στον κώδικα και να μπορεί να τον καταλάβει), να μην οδηγούν σε διακρίσεις, να προωθούν τα συμφέροντα της δικαιοσύνης και να τα ελέγχει τακτικά και να τα πιστοποιεί ανεξάρτητη αρχή (αρχή της διαφάνειας, της αμεροληψίας και της δικαιοσύνης)

5] οι χρήστες των εργαλείων αυτών, όπως είναι για παράδειγμα οι Δικαστές, πρέπει να ενημερώνονται για αυτά, να μη δεσμεύονται από αυτά, ενώ τα υποκείμενα της επεξεργασίας πρέπει να ενημερώνονται για την επεξεργασία της υπόθεσής τους από τεχνητή νοημοσύνη και να έχουν το δικαίωμα να την αρνηθούν (αρχή της αυτονομίας του χρήστη)

Πέρα από τις ως άνω υποχρεώσεις που θέτει ο χάρτης θα μπορούσαν να προστεθούν και τα εξής:

6] η τεχνητή νοημοσύνη πρέπει να εισαχθεί στην ποινική δίκη μόνο όπου υπάρχουν κενά ή προς διόρθωση υπαρχόντων ελαττωμάτων της[36]

7] στην αιτιολόγηση των αποφάσεων στις οποίες έχουν χρησιμοποιηθεί εργαλεία εκτίμησης κινδύνου υποτροπής θα πρέπει να αναφέρονται ποια δεδομένα χρησιμοποιήθηκαν και τι βαρύτητα είχε το κάθε ένα από αυτά για την εξαγωγή του εκάστοτε αποτελέσματος

8] θα πρέπει οι Δικαστές να μη στηρίζονται μόνο στα εργαλεία αυτά, αλλά να λαμβάνουν υπόψη και τις ιδιαιτερότητες του εκάστοτε κατηγορουμένου

9] θα πρέπει επίσης να είναι ενημερωμένοι και να έχουν επίγνωση των ελαττωμάτων και σφαλμάτων αυτών των εργαλείων, καθώς και ότι τα αποτελέσματα αυτά αφορούν μια εκτίμηση για την πιθανότητα της υποτροπής εκάστου κατηγορουμένου και όχι την πράγματι υποτροπή του

10] τα αποτελέσματα των εργαλείων αυτών και ο τρόπος που ο αλγόριθμος έχει οδηγηθεί σε αυτά θα πρέπει να είναι γνωστά στον κατηγορούμενο πριν τη δίκη και να είναι σε θέση να τα αντικρούσει (αυτό προϋποθέτει φυσικά διαφάνεια των εργαλείων αυτών)[37]

11] σε κάθε περίπτωση η τεχνολογία δεν πρέπει να αντικαταστήσει τον ανθρώπινο παράγοντα στη λήψη των ποινικών αποφάσεων, ήτοι αυτός που θα παίρνει την τελική απόφαση πρέπει να είναι πάντοτε ο Δικαστής και όχι η τεχνητή νοημοσύνη[38].

 Παναγιώτα Βλάχου, Δικηγόρος, Υποψήφια Διδάκτωρ Νομικής Σχολής ΑΠΘ

* Εικόνα άρθρου: Image by kalhh from Pixabay

[1] Ως αλγόριθμος (algorithm) ορίζεται μια πεπερασμένη ακολουθία κανόνων (λογικών εργασιών και οδηγιών) που καθιστούν δυνατό να εξαχθεί ένα αποτέλεσμα από την αρχική εισαγωγή των πληροφοριών. Βλ. EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and their environment, 2018, https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c

[2] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[3] Ric Simmons, Quantifying Criminal Procedure: How to Unlock the Potential of Big Data in Our Criminal Justice System, Michigan State Law Review, Ohio State Public Law Working Paper No. 362, 2016, pp.  947-1017, https://ssrn.com/abstract=2816006 or http://dx.doi.org/10.2139/ssrn.2816006

[4] Η εκμάθηση μηχανής ή μηχανική μάθηση (machine learning) καθιστά δυνατή τη δημιουργία ενός μαθηματικού μοντέλου από δεδομένα, που περιέχουν ένα μεγάλο αριθμό μεταβλητών που είναι γνωστές εκ των προτέρων. Βλ. EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[5] Ο όρος μεγάλα δεδομένα (big data) αναφέρεται σε μεγάλες σειρές δεδομένων από διαφορετικές πηγές. Βλ. EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[6] Η τεχνητή νοημοσύνη (artificial intelligence) είναι μια σειρά επιστημονικών μεθόδων, θεωριών και τεχνικών που έχουν σκοπό να αναπαράγουν μέσω μιας μηχανής τις νοητικές ικανότητες των ανθρώπων. Βλ. EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[7] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid. · Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, Prepared By The Committee Of Experts On Internet Intermediaries (MSI-NET), Council of Europe, March 2018, DGI(2017)12 · Aleš Završnik, Algorithmic justice: Algorithms and big data in criminal justice settings, European Journal of Criminology, September 2019, pp. 1-20, doi:10.1177/1477370819876762

[8] Μια τέτοια εφαρμογή είναι το PredPol, που χρησιμοποιείται ευρέως από την Αστυνομία στις Ηνωμένες Πολιτείες Αμερικής. Τα εργαλεία αυτά έχουν δεχτεί κριτική για παραβίαση της αρχής της ισότητας, καθώς οδηγούν σε μεγαλύτερο αστυνομικό έλεγχο στις περιοχές που υποδεικνύουν έναντι άλλων περιοχών, καθώς και για παραβίαση της αρχής των μη διακρίσεων, καθώς τα εργαλεία αυτά επεξεργάζονται δεδομένα από προηγούμενες συλλήψεις (και όχι καταδίκες), η πλειονότητα των οποίων έχει πραγματοποιηθεί σε περιοχές όπου ζουν μειονότητες και άτομα με κακή οικονομική κατάσταση και χαμηλό επίπεδο εκπαίδευσης, ενώ άλλα αδικήματα όπως αυτά του λευκού περιλαιμίου δεν τυγχάνουν αυξημένου αστυνομικού ελέγχου. Βλ. Aleš Završnik, ibid.· Aleš Završnik, Criminal justice, artificial intelligence systems, and human rights, ERA Forum 20, 20 February 2020, pp. 567–583, https://doi.org/10.1007/s12027-020-00602-0

[9] Ένα τέτοιο εργαλείο είναι το Gangs Matrix, το οποίο δημιουργεί λίστες με πιθανά μέλη συμμοριών. Επίσης, υπάρχουν εργαλεία που μπορούν να προβλέψουν πιθανά θύματα, κυρίως ενδο-οικογενειακής βίας ή σεξουαλικής παρενόχλησης. Βλ. Algorithms in the Criminal Justice System. A report by The Law Society Commission on the Use of Algorithms in the Justice System, The Law Society of England and Wales, June 2019. Πέρα από αυτά, η λίστα No Fly δημιουργείται από αναζητήσεις σε βάσεις δεδομένων και περιλαμβάνει άτομα που είναι πιθανόν να προβούν σε τρομοκρατικές ενέργειες. Το λογισμικό αυτό έχει κατακριθεί, διότι περιέχει πλήθος λαθών και δεν επιτρέπει την αφαίρεση ατόμων που έχουν ήδη ελεγχθεί ότι δεν είναι τρομοκράτες από τη λίστα, βάζοντάς τους στη διαδικασία να περνάνε από εκτενείς συνεντεύξεις κάθε φορά που επιχειρούν να ταξιδέψουν με αεροπλάνο, χάνοντας με αυτόν τον τρόπο τις πτήσεις τους. Βλ. Danielle Keats Citron, Technological Due Process, Washington University Law Review, Volume 85, Issue 6, 2008, pp. 1249-1313, https://openscholarship.wustl.edu/law_lawreview/vol85/iss6/2

[10] Algorithms in the Criminal Justice System, ibid. · EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[11] Τίθεται, ωστόσο, εν αμφιβολία εάν επιτρέπεται ιδιωτικές επιχειρήσεις να αναλαμβάνουν το ρόλο του Δικαστή και να κρίνουν ποιο περιεχόμενο είναι παράνομο. Βλ. Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, ibid.

[12] Το 2016 οι Xiaolin Wu και Xi Zhang δημοσίευσαν τα αποτελέσματά τους από τη δημιουργία αλγορίθμου, ο οποίος μέσω της μεθόδου εκμάθησης μηχανής, χρησιμοποιώντας δεδομένα προσώπου από 1.856 άτομα, περίπου μισά από τα οποία είχαν καταδικαστεί για ορισμένο έγκλημα, μπορεί να προβλέψει την εγκληματικότητα. Πιο συγκεκριμένα, ισχυρίζονται ότι μέσω του ως άνω αλγορίθμου ανακάλυψαν ότι οι εγκληματίες παρουσιάζουν ορισμένα χαρακτηριστικά προσώπου που δεν εμφανίζονται σε μη εγκληματίες πολίτες, γεγονός που μπορεί να οδηγήσει στην πρόληψη της εγκληματικότητας. Βλ. Xiaolin Wu and Xi Zhang, Automated Inference on Criminality using Face Images, arXiv:1611.04135v1 [cs.CV] 13 Nov 2016. Η συγκεκριμένη έρευνα, η οποία έλαβε χώρα για ακαδημαϊκή και μόνο συζήτηση, όπως αναφέρουν οι εμπνευστές της, δέχθηκε δριμείες κριτικές και δεν έχει τύχει εφαρμογής απ’ όσον είναι γνωστό μέχρι σήμερα στην ποινική δικαιοσύνη. Βλ. Xiaolin Wu and Xi Zhang, Responses to Critiques on Machine Learning of Criminality Perceptions arXiv:1611.04135v3 [cs.CV] 26 May 2017

[13] Danielle Kehl, Priscilla Guo, and Samuel Kessler, Algorithms in the Criminal Justice System: Assessing the Use of Risk Assessments in Sentencing. Responsive Communities Initiative, Berkman Klein Center for Internet & Society, Harvard Law School, 2017, https://dash.harvard.edu/handle/1/33746041

[14] Μάλιστα, σε ορισμένες πολιτείες είναι υποχρεωτική η χρήση τους, ενώ σε άλλες απλά συνίσταται.

[15] Πρόκειται για εργαλείο εκτίμησης του κινδύνου υποτροπής και των αναγκών του κατηγορούμενου με σκοπό την παροχή βοήθειας στους Δικαστές για την τοποθέτηση, επιτήρηση και την αντιμετώπιση του κατηγορουμένου ανάλογα με τις ανάγκες του. Το εργαλείο αυτό χρησιμοποιεί τόσο στατικά δεδομένα, όπως για παράδειγμα προηγούμενες καταδίκες του κατηγορουμένου, όσο και δυναμικά δεδομένα, όπως για παράδειγμα η εργασιακή κατάσταση του κατηγορουμένου και η ενδεχόμενη χρήση ουσιών, και προτείνει μεθόδους θεραπείας. Βλ. https://www.equivant.com · Danielle Kehl, Priscilla Guo, and Samuel Kessler, ibid.

[16] Το εργαλείο αυτό συνδράμει τους Δικαστές για πιο καλά ενημερωμένες προδικαστικές αποφάσεις, δηλαδή για το εάν θα προφυλακίσουν ή όχι τον εκάστοτε κατηγορούμενο. Χρησιμοποιεί εννέα παράγοντες για την εκτίμησή του: την ηλικία του κατηγορουμένου κατά τη στιγμή της σύλληψης, το τρέχον έγκλημα που διέπραξε, τυχόν εκκρεμείς ποινικές κατηγορίες, τυχόν προηγούμενη καταδίκη για πλημμέλημα, τυχόν προηγούμενη καταδίκη για κακούργημα, τυχόν προηγούμενη καταδίκη για έγκλημα βίας, τυχόν προηγούμενη φυγοδικία τα τελευταία 2 έτη και τυχόν προηγούμενη καταδίκη του σε στερητική της ελευθερίας ποινή. Το εργαλείο αυτό εξάγει αποτελέσματα για την πιθανότητα τέλεσης ενός νέου εγκλήματος ή μη εμφάνισης του κατηγορουμένου ενώπιον του ακροατηρίου. Επίσης, μπορεί να υπολογίσει και την πιθανότητα τελέσεως ενός εγκλήματος βίας. Βλ. https://www.psapretrial.org/ · Danielle Kehl, Priscilla Guo, and Samuel Kessler, ibid.

[17] Το εργαλείο αυτό μπορεί να προβλέψει το αποτέλεσμα της αίτησης για υφ’ όρον απόλυση, την επιτυχία τοποθέτησης σε κέντρα επανένταξης για πρώην έγκλειστους, τα τυχόν μελλοντικά παραπτώματα και την ενδεχόμενη υποτροπή του κατηγορουμένου. Επεξεργάζεται τόσο δυναμικά όσο και στατικά δεδομένα, όπως για παράδειγμα δεδομένα ποινικού μητρώου, στέγασης, χόμπι/τρόποι ψυχαγωγίας, εκπαίδευσης/εργασίας, συναισθηματικά/προσωπικά δεδομένα, παρέες, οικονομικά δεδομένα, απόψεις/προσανατολισμός, δεδομένα οικογενειακής κατάστασης, προβλήματα κατανάλωσης αλκοόλ/χρήσης ουσιών. Βλ. https://storefront.mhs.com

[18] Η υπόθεση αυτή αφορούσε την απόρριψη της αίτησης του Loomis για υφ’ όρον απόλυσή του βάσει του εργαλείου COMPAS. Ο Loomis προσέφυγε στο Ανώτερο Δικαστήριο προβάλλοντας την παραβίαση της δίκαιης δίκης λόγω της αδυναμίας ελέγχου των αποτελεσμάτων του εν λόγω εργαλείου και την στήριξη των αποτελεσμάτων αυτών στο φύλο του, το δε Δικαστήριο έκρινε ότι η πρωτόδικη απόφαση έκρινε ορθώς, διότι δεν στηρίχτηκε μόνο στο σύστημα COMPAS, αλλά και σε άλλους ανεξάρτητους παράγοντες. Βλ. State v. Loomis, 881 N.W.2d 749 (2016). Αντίθετα, στην υπόθεση Rhodes v. State κρίθηκε ότι το Δικαστήριο δεν έπρεπε να στηριχτεί στο εργαλείο LSI-R, διότι όφειλε να κρίνει ανεξάρτητα, να στηριχτεί στις συγκεκριμένες αποδείξεις και να επιβάλει εξατομικευμένη ποινή στον κατηγορούμενο. Βλ. Rhodes v. State, 896 N.E.2d 1193 (Ind. Ct. App. 2008). Από την άλλη πλευρά, στην υπόθεση State v. Samsa κρίθηκε ότι είναι στη διακριτική ευχέρεια του Δικαστηρίου να βασιστεί στο εργαλείο εκτίμησης κινδύνου και, ως εκ τούτου, ορθώς έκρινε αυτό ότι ο κατηγορούμενος είναι πιο επικίνδυνος από ό, τι είχε αξιολογηθεί από το εργαλείο COMPAS (ο κατηγορούμενος είχε αξιολογηθεί ως χαμηλού κινδύνου υποτροπής και το Δικαστήριο έκρινε ότι από την αποδεικτική διαδικασία προέκυψε ότι αυτός είναι υψηλού κινδύνου) Βλ. State v. Samsa, 859 N.W.2d 149 (2014). Άλλες δικαστικές αποφάσεις που ασχολήθηκαν με το εν λόγω θέμα είναι οι Cardwell v. State, 895 N.E.2d 1219 (Ind. 2008) και Malenchik v. State, 928 N.E.2d 564 (Ind. 2010).

[19] Danielle Keats Citron, ibid. · Aleš Završnik, ibid.

[20] Danielle Kehl, Priscilla Guo, and Samuel Kessler, ibid.

[21] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[22] Έρευνες που επιβεβαιώνουν την αποτελεσματικότητα των εργαλείων αυτών είναι οι εξής: Ian Watkins, The utility of level of service inventory - revised (LSI-R) assessments within NSW Correctional environments, Corporate Research, Evaluation & Statistics, Corrective Services NSW, Research Bulletin No. 29 January 2011 · Clare Ringland, Improving the Efficiency and Effectiveness of the Risk/Needs Assessment Process for Community-Based Offenders, NSW Bureau of Crime Statistics and Research, Contemporary Issues in Crime and Justice, Bulletin No. 154, December 2011 · Tim Brennan, William Dieterich, and Beate Ehret, Evaluating the predictive validity of the COMPAS Risk and Needs Assessment System. Criminal Justice and Behavior CRIMINAL JUSTICE AND BEHAVIOR, Vol. 36 No. 1, January 2009, pp. 21-40, DOI: 10.1177/0093854808326545 · Anthony Flores, Kristin Bechtel, and Christopher Lowenkamp, False Positives, False Negatives, and False Analyses: A Rejoinder to “Machine Bias: There’s Software Used Across the Country to Predict Future Criminals. And it’s Biased Against Blacks.” Federal Probation Journal, Volume 80 Number 2, September 2016. Υπάρχουν βεβαίως και αντίθετες έρευνες, όπως η έρευνα που πραγματοποιήθηκε από τους Julia Dressel και Hany Farid, οι οποίοι διαπίστωσαν ότι άτομα που δεν έχουν σχέση με τη νομική επιστήμη μπορούν να προβλέψουν το ίδιο καλά την υποτροπή σε σχέση με το εργαλείο COMPAS, ενώ η πρόβλεψη αυτή μπορεί να πραγματοποιηθεί ακόμα και με 2 μόνο βασικούς παράγοντες-δεδομένα σε αντίθεση με τους 137 παράγοντες που χρησιμοποιεί το εργαλείο COMPAS. Βλ. Julia Dressel and Hany Farid, The accuracy, fairness, and limits of predicting recidivism, Science Advances, Vol. 4, no. 1, eaao5580, 17 January 2018, DOI: 10.1126/sciadv.aao5580

[23] Σε σχετική έρευνα που πραγματοποιήθηκε διαπιστώθηκε ότι οι Δικαστές αφήνουν ελεύθερο μεγαλύτερο ποσοστό από αυτούς που θα αξιολογούνταν από τα εργαλεία ως υψηλού κινδύνου και πράγματι υποτροπιάζουν, ενώ επιβάλλουν στερητικές της ελευθερίες ποινές σε μεγαλύτερο ποσοστό αυτών που θα χαρακτηρίζονταν ως χαμηλού κινδύνου. Με τη χρήση δηλαδή αυτών των εργαλείων φυλακίζονται μόνο όσοι όντως θα τελέσουν νέα αδικήματα, μειώνοντας τον πληθυσμό των φυλακών, αλλά και την εγκληματικότητα. Βλ. Jon Kleinberg, Himabindu Lakkaraju, Jure Leskovec, Jens Ludwig, and Sendhil Mullainathan, Human Decisions and Machine Predictions, The Quarterly Journal of Economics, Volume 133, Issue 1, February 2018, Pages 237–293, https://doi.org/10.1093/qje/qjx032

[24] Βλ. σχετικά Julia Angwin, Jeff Larson, Surya Mattu, and Lauren Kirchner, Machine Bias. There’s software used across the country to predict future criminals. And it’ s biased against blacks, May 2016, https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing · Jeff Larson, Surya Mattu, Lauren Kirchner, and Julia Angwin, How We Analyzed the COMPAS Recidivism Algorithm, May 2016, https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm Βλ. και τη σχετική απάντηση της εταιρείας: COMPAS Risk Scales : Demonstrating Accuracy Equity and Predictive Parity Performance of the COMPAS Risk Scales in Broward County, Northpointe Inc. Research Department, July 2016

[25] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[26] Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, ibid. · Aleš Završnik, ibid.

[27] Algorithms in the Criminal Justice System, ibid.

[28] Ric Simmons, ibid.

[29] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[30] Aleš Završnik, ibid.

[31] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ) , ibid. · Stephen E. Henderson, A Few Criminal Justice Big Data Rules, Ohio State Journal of Criminal Law, Vol. 15, pp. 527-541, May 2018, https://ssrn.com/abstract=3040234

[32] Aleš Završnik, ibid.

[33] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[34] Algorithms and human rights - Study on the human rights dimensions of automated data processing techniques and possible regulatory implications, ibid.

[35] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid.

[36] Stephen E. Henderson, ibid.

[37] EUROPEAN COMMISSION FOR THE EFFICIENCY OF JUSTICE (CEPEJ), ibid. · Aleš Završnik, ibid.

[38] Stephen E. Henderson, ibid.· Ric Simmons, Big Data, Machine Judges, and the Legitimacy of the Criminal Justice System, Ohio State Legal Studies Working Paper No. 442, University of California Davis Law Review, Vol. 52, April 2018, pp. 1067-1118, https://ssrn.com/abstract=3156510 or http://dx.doi.org/10.2139/ssrn.3156510