ΤΕΥΧΟΣ #14 ΝΟΕΜΒΡΙΟΣ 2020

Τεχνητή νοημοσύνη και προσωπικά δεδομένα

Ευαγγελία Ανδρουλάκη, υπ. Διδάκτωρ, Πανεπιστήμιο Δυτικής Αττικής

1. Εισαγωγή

Η τεχνητή νοημοσύνη (Artificial Intelligence - AI) τυπικά διατυπώθηκε ως όρος για πρώτη φορά στο Dartmouth College το 1956, σε συνέδριο ερευνητών από τους χώρους των Μαθηματικών, της Ηλεκτρονικής και της Ψυχολογίας για τη μελέτη δυνατοτήτων χρήσης των υπολογιστών ως προς την προσομοίωση της ανθρώπινης νοημοσύνης[1]. Ως έννοια ωστόσο είχε ήδη κάνει την εμφάνισή της το 1950, σε μελέτη του Άλαν Τούρινγκ (1912-1954), στην οποία ο φημισμένος Άγγλος μαθηματικός έθετε το ερώτημα: «Μπορούν οι μηχανές να σκεφτούν;»[2]. Βεβαίως, το ερώτημα του Τούρινγκ, το οποίο ακόμη δεν μπορεί να απαντηθεί με βεβαιότητα, και εν γένει η μελέτη της ανθρώπινης νοημοσύνης, απασχολούν τον άνθρωπο ήδη από τις απαρχές της ιστορίας τόσο στη φιλοσοφία με κυριότερο εκπρόσωπο τον Καρτέσιο (1596–1650) όσο και στη λογοτεχνία, με καλύτερα δείγματα τον Πυγμαλίωνα του Τζωρτζ Μπέρναρντ Σω και τον Δόκτορα Φρανκεστάιν της Μαίρης Σέλλεϋ[3]. Το 1990, η τεχνητή νοημοσύνη ορίστηκε από τον Kurzweilως η τέχνη της δημιουργίας μηχανών που πραγματοποιούν λειτουργίες οι οποίες απαιτούν νοημοσύνη όταν πραγματοποιούνται από ανθρώπους[4]. Λίγο αργότερα, οι Rich και Knight, την όρισαν ως μελέτη του πώς μπορούμε να κάνουμε τους υπολογιστές να κάνουν πράγματα στα οποία, προς το παρόν, οι άνθρωποι είναι καλύτεροι[5]. Πρόκειται για μια έννοια που περιλαμβάνει μεγάλο αριθμό (υπο)τομέων όπως η γνωσιακή υπολογιστική (cognitive computing, δηλαδή αλγόριθμοι που σκέπτονται και μαθαίνουν σε ανώτερο επίπεδο, ήτοι πιο ανθρώπινο), η μηχανική μάθηση (machine learning, δηλαδή αλγόριθμοι που μαθαίνουν αυτόνομα να εκτελούν εργασίες), η επαυξημένη νοημοσύνη (augmented intelligence, δηλαδή η συνεργασία ανθρώπου και μηχανής) και η έξυπνη ρομποτική (τεχνητή νοημοσύνη ενσωματωμένη σε ρομπότ)[6]. Αναμφισβήτητα η τεχνητή νοημοσύνη, άπτεται πλείστων επιστημών‧ η όλο και μεγαλύτερη δε ανάπτυξη της εγείρει ζητήματα φιλοσοφικά, ηθικά, δεοντολογικά, νομικά, τεχνολογικά, οικονομικά, επιστημονικά[7].

Σκοπός του παρόντος άρθρου είναι να προσεγγίσει την έννοια της τεχνητής νοημοσύνης και την επίδραση που αυτή έχει στην νομική επιστήμη[8], ιδίως σε ό,τι αφορά το πεδίο ρύθμισης της σύνδεσης του νέου αυτού -αρρύθμιστου στο μεγαλύτερο βαθμό του- πεδίου με τον τομέα των προσωπικών δεδομένων[9]. Η πρόσφατη μάλιστα υιοθέτηση του νέου ευρωπαϊκού πλαισίου προστασίας προσωπικών δεδομένων, με την ψήφιση του Γενικού Κανονισμού Προσωπικών Δεδομένων, αναδεικνύει ακόμα περισσότερο την ανάγκη να εντοπιστούν τα σημεία σύμπτωσης των δύο αυτών εννοιών, να οριοθετηθούν οι αρχές που τις διέπουν και να ερευνηθεί το εάν και σε ποιο βαθμό μπορεί κανείς σήμερα να υποστηρίξει ότι πράγματι αυτές συμβαδίζουν σε μια κοινωνία ολοένα εξελισσόμενη. Ιδιαίτερη μνεία θα γίνει στην περίπτωση της αυτοματοποιημένης επεξεργασίας δεδομένων -συμπεριλαμβανομένης της κατάρτισης προφίλ- και των αρχών που την διέπουν, καθώς και των προκλήσεων που ανακύπτουν από τον συγκερασμό της με τις εφαρμογές της τεχνητής νοημοσύνης.

2. Η τεχνητή νοημοσύνη σε ενδεικτικά διεθνή και ευρωπαϊκά νομικά κείμενα και πρωτοβουλίες

Η ανάπτυξη της τεχνητής νοημοσύνης και η επίδραση που αυτή φαίνεται να έχει στην κοινωνική εξέλιξη, στην ανθρώπινη επικοινωνία και στην προσωπική ανάπτυξη, στις οικονομικές συναλλαγές, στην βιομηχανία, φαίνεται να δημιουργεί τις συνθήκες για μια διαφορετική προσέγγιση των παραδοσιακών εννοιών του δικαίου και των εν γένει  δικαιικών συστημάτων και κρατικών μηχανισμών. Η ραγδαία ανάπτυξη της και ο τρόπος με τον οποίο κατάφερε να διεισδύσει στους τομείς της οικονομίας, της υγείας,  των εργασιακών σχέσεων, του ιδιωτικού βίου, της ηθικής, καθιστά αναγκαία την θεσμική ενίσχυση του ισχύοντος νομοθετικού πλαισίου που την καλύπτει, προκειμένου η περαιτέρω εξέλιξη της να κάμψει το δυνατόν τους προβληματισμούς που ανακύπτουν από την εφαρμογή της[10].

Σε διεθνές επίπεδο, μια πρώτη προσπάθεια προς την κατεύθυνση αυτή έγινε στις αρχές του 2015 από το Ερευνητικό Ίδρυμα των Ηνωμένων Εθνών για το Διαπεριφερειακό Έγκλημα και τη Δικαιοσύνη (UNICRI), το οποίο δημιούργησε ένα Ινστιτούτο για την τεχνητή νοημοσύνη και την ρομποτική[11]. Το Ινστιτούτο αυτό, γρήγορα ανέπτυξε συνεργασίες με φορείς όπως η Διεθνής Οργάνωση Εγκληματολογικής Αστυνομίας (INTERPOL), η Διεθνής Ένωση Τηλεπικοινωνιών (ITU), το Ινστιτούτο Ηλεκτρολόγων και Ηλεκτρονικών Μηχανικών (IEEE).  Σκοπός του είναι η κατανόηση των ωφελειών αλλά και η αντιμετώπιση των κινδύνων της τεχνητής νοημοσύνης και της ρομποτικής υπό το πρίσμα του εγκλήματος καθώς και η ευαισθητοποίηση, η εκπαίδευση και η ανταλλαγή πληροφοριών σχετικά με τα ζητήματα αυτά[12]. Μάλιστα, κατά την διάρκεια της 71ης Συνόδου των Ηνωμένων Εθνών, αναφέρθηκε ότι γίνεται προσπάθεια από όλους τους συνεργαζόμενους φορείς για την δημιουργία πολιτικών και επίσημων κατευθυντήριων γραμμών αναφορικά με την τεχνητή νοημοσύνη και την ρομποτική[13].

Αντίστοιχο έργο, σε επίπεδο soft law (ήπιου δικαίου), έχει να επιδείξει και η Διεθνής Ένωση Τηλεπικοινωνιών (ITU), η οποία παρέχει μια πλατφόρμα ανταλλαγής απόψεων και πληροφόρησης αναφορικά με ζητήματα τεχνητής νοημοσύνης, προσβάσιμη σε κυβερνητικούς και μη κυβερνητικούς φορείς, σε εταιρείες του βιομηχανικού τομέα, σε ακαδημαϊκούς φορείς[14]. Από το 2017 μάλιστα, διοργανώνει σταθερά ένα παγκόσμιο συνέδριο, το οποίο επικεντρώνεται στην μελέτη και ανάπτυξη ασφαλών εφαρμογών της τεχνητής νοημοσύνης[15].

Ιδιαίτερο ενδιαφέρον παρουσιάζει και η αναφορά στην έννοια των εν γένει νέων τεχνολογιών και όχι αποκλειστικά της τεχνητής νοημοσύνης, σε κάποιες ανεπίσημες συναντήσεις που έλαβαν χώρα με αφορμή την Σύμβαση του Ο.Η.Ε. για την χρήση ορισμένων όπλων. Κατά την διάρκεια των συζητήσεων αυτών, τα Κράτη- Μέρη, είχαν την ευκαιρία να εξετάσουν τα νομικά, ηθικά, κοινωνιολογικά και επιστημονικά ζητήματα που ανακύπτουν από την εφαρμογή των νέων τεχνολογιών στο πεδίο των ένοπλων συρράξεων[16]. Με ιδιαίτερη επιφυλακτικότητα, αντιμετώπισε το θέμα αυτό και η Πρώτη Επιτροπή της Γενικής Συνέλευσης του Ο.Η.Ε., η οποία κατά βάση επικεντρώνει την δράση της σε πρωτοβουλίες σχετιζόμενες με τον παγκόσμιο αφοπλισμό, τις απειλές κατά της παγκόσμιας ειρήνης και ασφάλειας, και η οποία κατά την διάρκεια των εργασιών της επεσήμανε ότι η χρήση νέων τεχνολογιών στο πεδίο των στρατιωτικών δοκιμών θέτει κινδύνους για την διαφύλαξη της διεθνούς ασφάλειας[17].

Σε περιφερειακό επίπεδο, το 2018 , ο Οργανισμός Αμερικανικών Κρατών, σε Έκθεση του αναφορικά με την κυβερνοασφάλεια στον τραπεζικό τομέα στις χώρες της Λατινικής Αμερικής και της Καραϊβικής, επεσήμανε την ανάγκη ανάπτυξης των υποδομών των χωρών αυτών μέσω της εκμετάλλευσης των ψηφιακών τεχνολογιών, όπως τα “Big Data” και η τεχνητή νοημοσύνη[18].

Το Συμβούλιο της Ευρώπης, προχώρησε αντίστοιχα πολύ πρόσφατα σε παρόμοιες δράσεις. Στις 4 Δεκεμβρίου 2018, η Ευρωπαϊκή Επιτροπή για την Δικαιοσύνη, αποτελούμενη από τις σαράντα επτά χώρες μέλη του Συμβουλίου της Ευρώπης, υιοθέτησε τον Ευρωπαϊκό Χάρτη Ηθικής[19]. Πρόκειται για ένα κείμενο το οποίο θέτει ως βασικές ηθικές αρχές των εφαρμογών της τεχνητής νοημοσύνης, τον σεβασμό απέναντι στα θεμελιώδη ανθρώπινα δικαιώματα κατά τον σχεδιασμό και την εφαρμογή των τεχνικών της τεχνητής νοημοσύνης, την απαγόρευση των διακρίσεων, την ποιότητα και την ασφάλεια κατά την επεξεργασία δικαστικών αποφάσεων και δεδομένων, την διαφάνεια, την ακεραιότητα και τέλος την εξασφάλιση ανθρώπινης παρέμβασης (“under user control”)[20].

Επιπροσθέτως, η Επιτροπή Εμπειρογνωμόνων σχετικά με τις συνέπειες που έχει η αυτοματοποιημένη επεξεργασία δεδομένων και η τεχνητή νοημοσύνη στα ανθρώπινα δικαιώματα, προχώρησε στην έκδοση διάφορων κειμένων, ερευνών και συστάσεων με κυριότερα την Μελέτη των επιπτώσεων των προηγμένων ψηφιακών τεχνολογιών (συμπεριλαμβανομένων των συστημάτων τεχνητής νοημοσύνης) στο πεδίο των ανθρωπίνων δικαιωμάτων,[21] τη Σύσταση της Επιτροπής των Υπουργών προς τα Κράτη- Μέλη για τον αντίκτυπο που έχουν τα αλγοριθμικά συστήματα στην προστασία των ανθρωπίνων δικαιωμάτων[22]  και την Διακήρυξη της Επιτροπής των Υπουργών για τις συνέπειες χειραγώγησης που μπορεί να έχουν οι αλγοριθμικές διαδικασίες[23].

Τέλος, ιδιαίτερα σημαντική είναι και η πρόσφατη υιοθέτηση του τροποποιητικού Πρωτοκόλλου της Σύμβασης 108[24]του Συμβουλίου της Ευρώπης περί προστασίας του ατόμου έναντι της αυτοματοποιημένης επεξεργασίας των δεδομένων προσωπικού χαρακτήρα, η οποία υπήρξε η πρώτη νομικά δεσμευτική διεθνής πράξη που θεσπίστηκε στον τομέα της προστασίας των δεδομένων. Σκοπός της υπήρξε η διασφάλιση για κάθε φυσικό πρόσωπο «του σεβασμού των δικαιωμάτων του και των θεμελιωδών ελευθεριών του, και ιδίως του δικαιώματός του στην ιδιωτική ζωή, έναντι της αυτοματοποιημένης επεξεργασίας των δεδομένων προσωπικού χαρακτήρα». Σήμερα, έχει κυρωθεί όχι μόνο από όλες τις χώρες μέλη του Συμβουλίου της Ευρώπης, αλλά και από την Αργεντινή, τη Μπουρκίνα Φάσο, τη Δημοκρατία του Πράσινου Ακρωτηρίου, τη Δημοκρατία του Μαυρικίου, το Μεξικό, τη Σενεγάλη, το Μαρόκο, την Τυνησία, την Ουρουγουάη[25].

Το πρωτόκολλο για την τροποποίηση της Σύμβασης αυτής αποσκοπεί στη διεύρυνση του πεδίου εφαρμογής της, στην αύξηση του επιπέδου προστασίας των δεδομένων και στη βελτίωση της αποτελεσματικότητάς της. Μεταξύ των καινοτομιών που εισήγαγε υπήρξε και η θέσπιση νέων δικαιωμάτων για τα άτομα σε ένα αλγοριθμικό πλαίσιο λήψης αποφάσεων, τα οποία είναι ιδιαίτερα σημαντικά σε σχέση με την ανάπτυξη της τεχνητής νοημοσύνης.

Το θέμα αυτό ασφαλώς απασχόλησε και τον Οργανισμό Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ), ο οποίος προχώρησε στην έκδοση ορισμένων κατευθυντήριων γραμμών κυβερνητικής πολιτικής με περίπου ήδη σαράντα δύο χώρες να τις υιοθετούν επίσημα[26].

Όλες οι παραπάνω αρχές μολονότι ανήκουν στο λεγόμενο soft law (ήπιο δίκαιο), αναμφισβήτητα αποτελούν πηγή έμπνευσης για τις χώρες μέλη του σε επίπεδο σχεδιασμού και υλοποίησης πολιτικών στο πεδίο της τεχνητής νοημοσύνης[27].

Σε ευρωπαϊκό επίπεδο, το κέντρο βάρους φαίνεται να μετατοπίζεται στην προσπάθεια συγκερασμού των εφαρμογών της τεχνητής νοημοσύνης με τα θεμελιώδη δικαιώματα και τις ελευθερίες των καταστατικών Συμβάσεων της Ε.Ε. και την άσκηση τους [28]. Στόχος είναι η εξασφάλιση των ισορροπιών μεταξύ αφενός της καλπάζουσας ανάπτυξης της και αφετέρου του ήδη υφιστάμενου νομικού πλαισίου ρύθμισης των δικαιωμάτων και ελευθεριών αυτών.

Στην προσπάθεια της αυτή, η Ε.Ε. προσφάτως έθεσε ως βασικές απαιτήσεις των εφαρμογών της τεχνητής νοημοσύνης, την διαφάνεια, την κοινωνική και περιβαλλοντική ευημερία, την ανθρώπινη παρέμβαση και εποπτεία, την τεχνική στιβαρότητα και ασφάλεια, την πολυμορφία, την απαγόρευση των διακρίσεων και την δικαιοσύνη, την λογοδοσία, την προστασία του ιδιωτικού βίου και την ασφάλεια των δεδομένων[29] [30]. Οι δύο αυτές τελευταίες έννοιες και μεγέθη οριοθετήθηκαν και επαναπροσδιορίστηκαν εκ νέου μετά την θέσπιση του Γενικού Κανονισμού Προσωπικών Δεδομένων. Πιο συγκεκριμένα, με την θέση του σε ισχύ καθιερώθηκε ένα ενιαίο πλαίσιο νομικής προστασίας των προσωπικών δεδομένων για όλα τα κράτη μέλη της Ε.Ε., αποτελούμενο από κανόνες που αφορούν στην προστασία των φυσικών προσώπων έναντι της επεξεργασίας των δεδομένων τους καθώς και στις προϋποθέσεις διασυνοριακής κυκλοφορίας  των δεδομένων αυτών[31].

3. Τεχνητή νοημοσύνη και προσωπικά δεδομένα: Μια πρώτη προσέγγιση μετά την εφαρμογή του Γενικού Κανονισμού Προσωπικών Δεδομένων

Η συγκέντρωση τεράστιων όγκων δεδομένων, κυρίως μέσω του ψηφιακού περιβάλλοντος του διαδικτύου με τη βοήθεια και των συστημάτων τεχνητής νοημοσύνης έχουν καταστήσει δυνατή την ανάλυση, τον συνδυασμό, και την επ’ αόριστον αποθήκευση τεράστιων όγκων δεδομένων[32], τα οποία εν συνεχεία μπορούν να χρησιμοποιηθούν για μια περαιτέρω ανωνυμοποίηση δεδομένων σχετικά με τα πρόσωπα, δημιουργώντας νέους κινδύνους για την προστασία και την ασφάλεια των τελευταίων. Υπάρχει, δε, σαφώς και η πιθανότητα δημιουργίας νέων συνόλων δεδομένων των φυσικών προσώπων –που ενδεχομένως να μένουν εκτός πεδίου εφαρμογής του νομοθετικού πλαισίου που ισχύει για τα προσωπικά δεδομένα. Για παράδειγμα, πως θα πρέπει να αντιμετωπίσει κανείς νομικά τις περιπτώσεις εφαρμογών που επεξεργάζονται προσωπικά δεδομένα και προγιγνώσκουν συμπεριφορές και προτιμήσεις του υποκειμένου;

Η αδιαφάνεια που καλύπτει σε μεγάλο βαθμό τις εφαρμογές της τεχνητής νοημοσύνης, ο περίπλοκος τρόπος λειτουργίας τους, οι αλγόριθμοι που χρησιμοποιούν κατά την συλλογή και ανάλυση των δεδομένων είναι μόνο μερικά από τα μείζονα ζητήματα που δημιουργούνται.

Από την άλλη πλευρά, ο Γενικός Κανονισμός Προστασίας Δεδομένων, παραμένει τεχνολογικά ουδέτερος σε ό,τι αφορά γενικώς τις νέες τεχνολογίες, ειδικώς δε την τεχνητή νοημοσύνη. Η αρχή της τεχνολογικής ουδετερότητας δεν είναι άγνωστη στο ευρωπαϊκό δίκαιο. Σύμφωνα με το προοίμιο του κανονισμού (ΕΕ) 2015/2120, «Τα μέτρα που προβλέπονται στον παρόντα κανονισμό συμμορφώνονται με την αρχή της τεχνολογικής ουδετερότητας, δηλαδή δεν επιβάλλουν ούτε προβαίνουν σε διακρίσεις υπέρ της χρήσης ενός συγκεκριμένου είδους τεχνολογίας».[33] Με τον όρο λοιπόν τεχνολογικά ουδέτερος, εννοείται εν προκειμένω πως ο ΓΚΠΔ δεν λαμβάνει θέση υπέρ της χρήσης ή όχι κάποιας συγκεκριμένης τεχνολογίας. Συνεπώς, δεν μπορεί να θεωρηθεί ότι αποκλείεται a priori η εφαρμογή του σε περιπτώσεις επεξεργασίας δεδομένων μέσω συστημάτων τεχνητής νοημοσύνης. Η λογική του επικεντρώνεται περισσότερο στον αντίκτυπο που ενδεχομένως έχουν οι εξελίξεις της τεχνολογίας στην άσκηση και στην προστασία των προσωπικών δεδομένων των υποκειμένων, παρέχοντας τα απαραίτητα εργαλεία διασφάλισης της σύννομης και θεμιτής επεξεργασίας τους[34].

Ένα από τα εργαλεία αυτά αποτελεί η αρχή της ελαχιστοποίησης, σύμφωνα με την οποία, τα δεδομένα προσωπικού χαρακτήρα πρέπει να είναι κατάλληλα, συναφή και να περιορίζονται στο αναγκαίο για τους σκοπούς για τους οποίους υποβάλλονται σε επεξεργασία[35]. Συνεπώς, τυχόν συλλογή και επεξεργασία προσωπικών δεδομένων που είναι άσχετα και μη απολύτως αναγκαία με το σκοπό της επεξεργασίας, συνιστά παράβαση της συγκεκριμένης αρχής[36]. Η αυστηρή εφαρμογή της αρχής της ελαχιστοποίησης στις περιπτώσεις της τεχνητής νοημοσύνης μπορεί να μεταφραστεί και ως ένα απώτατο όριο για τους αλγορίθμους και για το τι νέο μπορούν αυτοί ενδεχομένως να παράξουν[37].

Επιπλέον, η αρχή της λογοδοσίας και η αρχή της διαφάνειας, ως πρόδρομοι ίσως επιβολής της αλγοριθμικής διαφάνειας, μπορούν να συμβάλλουν ουσιαστικά στον περιορισμό των κινδύνων που προκύπτουν από την εκτεταμένη επεξεργασία των δεδομένων, με εφαρμογές της τεχνητής νοημοσύνης[38]. Σύμφωνα με την αρχή της λογοδοσίας (accountability), οι υπεύθυνοι επεξεργασίας ή εκτελούντες την επεξεργασία (οργανισμοί/φορείς/επιχειρήσεις), που συλλέγουν και επεξεργάζονται προσωπικά δεδομένα, οφείλουν να διαμορφώνουν τις διαδικασίες και τα τεχνικά και οργανωτικά συστήματά τους κατά τέτοιο τρόπο ώστε να μπορούν να αποδεικνύουν, ανά πάσα στιγμή, τόσο ενώπιον των εποπτικών αρχών όσο και των δικαστηρίων, ότι είναι πλήρως συμμορφωμένοι με όσα προβλέπει ο νέος Κανονισμός[39]. Η εισαγωγή της αρχής της λογοδοσίας μετατοπίζει το «βάρος της απόδειξης», όσον αφορά τη νομιμότητα της επεξεργασίας και τη συμμόρφωση με τον ΓΚΠΔ, από τις αρχές προστασίας δεδομένων στους ίδιους τους υπευθύνους επεξεργασίας ή τους εκτελούντες[40]. Η αρχή της διαφάνειας από την άλλη πλευρά εγγυάται στα υποκείμενα των δεδομένων την με ακρίβεια και σαφήνεια ενημέρωση τους για τη συλλογή και χρήση (επεξεργασία) των προσωπικών τους δεδομένων[41].

Ιδιαίτερα σημαντική είναι και η πρόβλεψη για την διενέργεια εκτίμησης αντικτύπου σε περιπτώσεις όπου η επεξεργασία θα προκαλούσε υψηλό κίνδυνο για τα προσωπικά δεδομένα του υποκειμένου ελλείψει μέτρων μετριασμού του κινδύνου από τον υπεύθυνο επεξεργασίας καθώς και σε περιπτώσεις συστηματικής και εκτενούς αξιολόγησης προσωπικών δεδομένων των υποκειμένων, η οποία βασίζεται σε αυτοματοποιημένη επεξεργασία, περιλαμβανομένης της κατάρτισης προφίλ[42].

4.Η περίπτωση της αυτοματοποιημένης επεξεργασίας προσωπικών δεδομένων

Με τον όρο αυτοματοποιημένη λήψη αποφάσεως εννοείται κατά βάση η μαζική συλλογή δεδομένων μεγάλης κλίμακας από διαφορετικές πηγές, η επεξεργασία των δεδομένων αυτών από σειρές αλγορίθμων, και η εξαγωγή ενός συμπεράσματος –εν είδει αυτοματοποιημένης απόφασης, για το υποκείμενο των δεδομένων και κυρίως αντί του υποκειμένου των δεδομένων.

Στη σκέψη 71 του ΓΚΠΔ εντοπίζεται ένας ορισμός της έννοιας της αυτοματοποιημένης λήψης αποφάσεως, σύμφωνα με τον οποίο το υποκείμενο των δεδομένων θα πρέπει να έχει το δικαίωμα να μην υπόκειται σε απόφαση, με την οποία αξιολογούνται προσωπικές πτυχές του, που έχει ληφθεί αποκλειστικά βάσει αυτοματοποιημένης επεξεργασίας και που παράγει έννομα αποτελέσματα έναντι του προσώπου αυτού ή το επηρεάζει σημαντικά κατά ανάλογο τρόπο, όπως η αυτόματη άρνηση επιγραμμικής αίτησης πίστωσης ή πρακτικές ηλεκτρονικών προσλήψεων χωρίς ανθρώπινη παρέμβαση[43]. Επομένως, γίνεται αντιληπτό πως η αυτοματοποιημένη λήψη αποφάσεων, ανάλογα και με τον βαθμό της παρεμβατικής παρουσίας του ανθρώπινου παράγοντα, μπορεί να στηρίζεται περισσότερο, ή λιγότερο στην τεχνητή νοημοσύνη, και αντιστοίχως να παράγει και να δημιουργεί περισσότερες νέες πληροφορίες και δεδομένα.

Τα σημεία στα οποία εφάπτονται οι έννοιες της αυτοματοποιημένης λήψης αποφάσεων και της τεχνητής νοημοσύνης είναι πολλά, τα δε ηθικά και δεοντολογικά ζητήματα που ανακύπτουν από την τομή τους αυτή είναι ακόμα περισσότερα. Ειδικά δε στα πεδία όπου η κατάρτιση προφίλ και η αυτοματοποιημένη επεξεργασία δεδομένων έχει εισχωρήσει για τα καλά (καταναλωτικές συμβάσεις, χρηματοπιστωτικός και ασφαλιστικός κλάδος[44]), οι απαιτήσεις για διαφάνεια στον τρόπο επεξεργασίας, συλλογής και αποθήκευσης δεδομένων, είναι άμεσα συνυφασμένες με την διασφάλιση των θεμελιωδέστερων δικαιωμάτων της Ένωσης, ήτοι της ισότητας, της αμεροληψίας, της εξάλειψης των διακρίσεων.

Σε ευρωπαϊκό επίπεδο, το ζήτημα αυτό απασχόλησε πρόσφατα τα θεσμικά όργανα της Ε.Ε. Στις 23-01-2020 η αρμόδια Επιτροπή Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών του Ευρωπαϊκού Κοινοβουλίου έθεσε τα θεμέλια για την διαμόρφωση ενός Ψηφίσματος, αναφορικά με την επικαιροποίηση των ενωσιακών κανόνων ασφαλείας και ευθύνης ενόψει της δημιουργίας εφαρμογών τεχνητής νοημοσύνης[45].

Λίγο αργότερα η Ολομέλεια του Ευρωπαϊκού Κοινοβουλίου, υιοθέτησε το Ψήφισμα αυτό, στο οποίο μεταξύ άλλων συμπεριλαμβάνονται σκέψεις για την χρήση της ρομποτικής και της τεχνητής νοημοσύνης με σκοπό την μείωση της έκθεσης του ανθρώπου σε επιβλαβείς και επικίνδυνες συνθήκες, την δημιουργία περισσότερων ποιοτικών και αξιοπρεπών θέσεων εργασίας και τη βελτίωση της παραγωγικότητας[46], την ενίσχυση των επενδύσεων σε τομείς έρευνας και ανάπτυξης[47], την μεταρρύθμιση της δημόσιας διοίκησης[48], την αύξηση του προσδόκιμου ζωής[49], την πρόληψη, διάγνωση και θεραπεία ασθενειών[50], την αποδοτικότερη παραγωγή ενέργειας και την εκμετάλλευση των ανανεώσιμων πηγών ενέργειας[51], την βελτίωση των συστημάτων μεταφοράς[52], την πρόβλεψη, πρόληψη και αντιμετώπιση των απειλών κυβερνοασφάλειας[53].

Στο Ψήφισμα αυτό, γίνεται επίσης μνεία για την ανάγκη μιας ολοκληρωμένης νομοθεσίας ή ενός ολοκληρωμένου κανονισμού για την τεχνητή νοημοσύνη, καθώς η ρύθμιση του κλάδου μπορεί να παράσχει πολιτικές που θα είναι ουσιώδεις για τον βιομηχανικό κλάδο, ενώ ιδιαίτερη έμφαση δίνεται στην διασφάλιση ότι κάθε μελλοντικό ενωσιακό ρυθμιστικό πλαίσιο για την τεχνητή νοημοσύνη θα εξασφαλίζει την ιδιωτικότητα και το απόρρητο των επικοινωνιών, την προστασία των προσωπικών δεδομένων, τις αρχές της νομιμότητας, της δικαιοσύνης και της διαφάνειας, της προστασίας των δεδομένων εκ σχεδιασμού και εξ ορισμού, του περιορισμού του σκοπού, του περιορισμού της αποθήκευσης, της ακρίβειας, και της ελαχιστοποίησης των δεδομένων, σε πλήρη συμμόρφωση με την ενωσιακή νομοθεσία για την προστασία των δεδομένων.

Αξίζει να σημειωθεί πως στις διατάξεις αυτές του Ψηφίσματος περιλαμβάνεται ρητή διάταξη η οποία αποκλείει την με οποιοδήποτε τρόπο αναγνώριση των προσώπων[54].  Τέλος, ιδιαίτερα σημαντικές είναι και οι Σκέψεις του αναφορικά με την προστασία των καταναλωτών, καθώς είναι πλέον φανερό πως τα συστήματα που βασίζονται στην τεχνητή νοημοσύνη διαχειρίζονται πληθώρα δεδομένων των καταναλωτών. Κάθε τέτοιο σύστημα πρέπει να αναπτύσσεται με σεβασμό προς τις αρχές της διαφάνειας και της αλγοριθμικής λογοδοσίας, ώστε να είναι οι ενέργειές του κατανοητές από τον άνθρωπο[55].

Παρά το γεγονός ότι τα κείμενα αυτά είναι μη νομικώς δεσμευτικά, περιλαμβάνονται σε αυτά διατάξεις και παραδοχές ιδιαίτερα κρίσιμες και χρήσιμες για την ρύθμιση της τεχνητής νοημοσύνης και ειδικότερα του φαινομένου της αυτοματοποιημένης επεξεργασίας δεδομένων, όπως για παράδειγμα ότι η αυτοματοποιημένη και αλγοριθμική διαδικασία λήψης αποφάσεων πρέπει να ενσωματώνει εγγυήσεις, καθώς και τη δυνατότητα ελέγχου και επαλήθευσης από τον άνθρωπο⸱ ότι οι όποιες κατευθυντήριες γραμμές του δεοντολογικού πλαισίου θα πρέπει να βασίζονται στις αρχές της ωφέλιμης δράσης, της αποτροπής ζημιών, της αυτονομίας, της δικαιοσύνης, της ισότητας, της απαγόρευσης των διακρίσεων, της συνειδητής συγκατάθεσης, της προστασίας της ιδιωτικής και οικογενειακής ζωής[56].

Μεταξύ των διαφόρων εγγυήσεων που περιλαμβάνει ο ΓΚΠΔ, αναφορικά με τo ζήτημα της αυτοματοποιημένης λήψης αποφάσεων συναντάται το δικαίωμα του υποκειμένου να λάβει αιτιολόγηση της απόφασης που ελήφθη στο πλαίσιο της εν λόγω διαδικασίας καθώς και το δικαίωμα αμφισβήτησης της απόφασης αυτής[57]. Προσφεύγοντας ωστόσο στο άρθρο 22 του ΓΚΠΔ περί κατάρτισης προφίλ, εντοπίζονται ορισμένα κενά, καθώς δεν φαίνεται να τίθενται επαρκώς προσδιορισμένα όρια για το πότε μια απόφαση παράγει έννομα αποτελέσματα που αφορούν το υποκείμενο ή το πώς αποδεικνύεται ότι το επηρεάζουν σημαντικά.

Η διασφάλιση της σύννομης και θεμιτής επεξεργασίας των προσωπικών δεδομένων του υποκειμένου, φαίνεται να υπονομεύεται από τα πιο απλά, ήτοι την δημιουργία μιας λίστας με προτεινόμενα τραγούδια στο “YouTube”, μέχρι τα πιο σπουδαία, ήτοι τη δυνατότητα έκδοσης μιας δικαστικής απόφασης με χρήση αλγορίθμου (σενάριο όχι και τόσο μακρινό για ορισμένες χώρες), ή την χρήση ενός λογισμικού αναγνώρισης προσώπων ή μέτρησης της θερμοκρασίας του ατόμου[58] [59].

Μια άλλη διάσταση του ζητήματος αυτού είναι το εάν το υποκείμενο μπορεί πράγματι να ασκήσει αποτελεσματικά τα δικαιώματα διόρθωσης, επικαιροποίησης και ελέγχου που έχει. Και ναι μεν ο ΓΚΠΔ έθεσε ως βάση τη δυνατότητα του υποκειμένου να ζητήσει την ανθρώπινη επέμβαση, ωστόσο το εάν τελικώς η ανθρώπινη παρέμβαση διασφαλίζει πράγματι την αποτελεσματική άσκηση των ως άνω δικαιωμάτων, είναι ακόμα ερευνητέο, λαμβανομένων υπόψη κυρίως των εμπορικών απορρήτων και των τεράστιων οικονομικών συμφερόντων των εταιρειών που χρησιμοποιούν τις διαδικασίες αυτές.

Στο παρόν στάδιο, με το νομοθετικό κενό που υφίσταται, η αναζήτηση ηθικών και δεοντολογικών κριτηρίων, όπως αναφέρθηκε και ανωτέρω, αποτελεί ίσως τον μοναδικό τρόπο διαχείρισης του τεράστιου όγκου δεδομένων που συλλέγονται σε καθημερινή βάση με τις εφαρμογές της τεχνητής νοημοσύνης. Τα εργαλεία του ΓΚΠΔ και συγκεκριμένα η υποχρέωση διαφάνειας και λογοδοσίας, σε συνδυασμό με την εξασφάλιση της ανθρώπινης παρέμβασης είναι αυτά που ενδεχομένως θα μετριάσουν τους κινδύνους που ελλοχεύουν για την προστασία της ιδιωτικής ζωής του ατόμου. Ήδη, παγκόσμιοι φορείς, όπως το “World Economic Forum”, προτείνουν να ελέγχεται η ανάπτυξη κάθε συστήματος και εφαρμογής τεχνητής νοημοσύνης με κριτήρια την αναγνώριση ύπαρξης υπονοιών μεροληψίας, την ορθή και σύννομη διακυβέρνηση των δεδομένων, την διασφάλισή τους από πηγές αξιόπιστες και έγκυρες και τέλος, την διαφάνεια στον τρόπο επιλογής των κριτηρίων και στη λειτουργία του συστήματος[60].

5. Συμπερασματικές παρατηρήσεις

Το γεγονός ότι δεν είναι ακόμα απολύτως κατανοητές και αντιληπτές οι νομικές και ηθικές συνέπειες από την εφαρμογή της τεχνητής νοημοσύνης στον τομέα της λήψης ανθρωπίνων αποφάσεων, εξηγεί εν μέρει και την αδράνεια της νομοθετικής εξουσίας να ρυθμίσει αποτελεσματικά το φαινόμενο αυτό. Εάν αναλογιστεί όμως κανείς, το μέγεθος των δεδομένων που συλλέγονται και των αποφάσεων που τελικώς λαμβάνονται μέσω των μηχανών και των αλγορίθμων, θα καταλάβει αμέσως, την ανάγκη παρέμβασης, μέσω κανόνων θετού δικαίου.

Η ελαχιστοποίηση των κινδύνων της αυτοματοποιημένης λήψης απόφασης για τα υποκείμενα των δεδομένων, προϋποθέτει την διακρατική συνεργασία για την περαιτέρω εξειδίκευση των χρησιμοποιούμενων αλγοριθμικών συστημάτων τεχνητής νοημοσύνης. Είναι σαφές πως ο ανθρώπινος παράγοντας και η εποπτεία που θα ασκεί στα συστήματα αυτά είναι βαρύνουσας σημασίας και συνεπώς θα πρέπει να εξασφαλιστεί οπωσδήποτε η παρουσία του.

Η στάθμιση του «ειδικού βάρους» των δικαιωμάτων αποτελεί ένα πάντοτε επίκαιρο ζήτημα προς ρύθμιση. Στα νομικά κείμενα της ΕΕ καθώς και σε εθνικά δίκαια υπάρχουν ήδη οι νομικές βάσεις, όπως οι αρχές της διαφάνειας και της λογοδοσίας στον ΓΚΠΔ, οι οποίες μπορούν να οδηγήσουν στο μέλλον και σε μια «αλγοριθμική διαφάνεια», σε ό,τι αφορά την τεχνητή νοημοσύνη. Άλλωστε όπως επισημαίνει και η Επίτροπος του Συμβουλίου της Ευρώπης για τα Ανθρώπινα Δικαιώματα, Dunja Mijatović[61]: «Η διασφάλιση ότι τα ανθρώπινα δικαιώματα ενισχύονται και δεν υπονομεύονται από την τεχνητή νοημοσύνη είναι ένας από τους βασικούς παράγοντες που θα καθορίσουν τον κόσμο στον οποίο ζούμε».

 Ευαγγελία Ανδρουλάκη, Δικηγόρος παρ’ Αρείω Πάγω, εγκληματολόγος (ΜΔΕ), Υπ. Διδάκτωρ τμήματος Μηχανικών Πληροφορικής και Υπολογιστών και επιστημονική ερευνήτρια στο Πανεπιστήμιο Δυτικής Αττικής, Μέλος Δ.Σ. Κέντρου Μελέτης του Εγκλήματος

*Εικόνα άρθρου: Image by Comfreak from Pixabay

[1] Αικατερίνη Γεωργούλη, Τεχνητή Νοημοσύνη, Μια εισαγωγική προσέγγιση, Σύνδεσμος Ελληνικών Ακαδημαϊκών Βιβλιοθηκών, 2015, σελ.12.

[2] Βλ. και το άρθρο των B. Jack Copeland, Diane Proudfoot, Alan Turing, Father of the Modern Computer, δημοσιευμένο στο ηλεκτρονικό περιοδικό The Rutherford Journal 4, url http://www.rutherfordjournal.org/article040101.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[3]  Αικατερίνη Γεωργούλη, Τεχνητή Νοημοσύνη, Μια εισαγωγική προσέγγιση, Σύνδεσμος Ελληνικών Ακαδημαϊκών Βιβλιοθηκών, 2015, σελ.12.

[4] Raymond Kurzweil, The Age of Intelligent Machines, Cambridge, MIT Press, 1990, σελ.117.

[5] Rich E & Kevin Knight, Artificial Intelligence, Tata McGraw, 2004, σελ. 3. Βλ. Επίσης για την κατηγοριοποίηση της Σπύρος Τάσσης, Η εποχή της τεχνητής νοημοσύνης, δημοσιευμένο στην ηλεκτρονική ιστοσελίδα https://www.lawspot.gr/nomika-blogs/spiros_tassis/dikaio-stin-epohi-tis-tehnitis-noimosynis, διαδικτυακά προσπελάσιμο στις 04.05.2020, όπου γίνεται διάκριση ανάμεσα σε δύο κατηγορίες, την περιορισμένη ή αδύναμη τεχνητή νοημοσύνη και την γενική ή ισχυρή. Η πρώτη είναι αυτή που χρησιμοποιούμε σήμερα σε αρκετές εφαρμογές κυρίως ψηφιακές και αναφέρεται σε τεχνητή νοημοσύνη που είναι σε θέση να χειριστεί μόνο ένα συγκεκριμένο έργο (π.χ. ένα εργαλείο φιλτραρίσματος ανεπιθύμητης ηλεκτρονικής αλληλογραφίας), ενώ η ισχυρή τεχνητή νοημοσύνη είναι ικανή να εμφανίζει στοιχεία ανθρώπινης νοημοσύνης και κοινής λογικής και μπορεί να θέσει τους δικούς της στόχους και να αντιμετωπίσει κάθε γενικευμένο έργο που της ζητείται, σχεδόν σαν να ήταν άνθρωπος. Βλ. και σχετικές αναφορές σε https://medium.com/personified-systems/structure-in-ai-law-ethics-the-world-and-the-mind-7e00c5e0ae2, https://techcrunch.com/2017/01/28/artificial-intelligence-and-the-law/?guccounter, διαδικτυακά προσπελάσιμες στις 30.04.2020.

[6] Βλ. την υπ’ αριθμ. 2017/C 288/01 Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα: «Η τεχνητή νοημοσύνη - Η επίδραση της τεχνητής νοημοσύνης στην (ψηφιακή) ενιαία αγορά, στην παραγωγή, στην κατανάλωση, στην απασχόληση και στην κοινωνία».

[7] Βλ. την από 31-08-2017 Γνωμοδότηση της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα: «Η τεχνητή νοημοσύνη - Η επίδραση της τεχνητής νοημοσύνης στην (ψηφιακή) ενιαία αγορά, στην παραγωγή, στην κατανάλωση, στην απασχόληση και στην κοινωνία», urlhttps://eur-lex.europa.eu/legal-content/EL/TXT/PDF/?uri=CELEX:52016IE5369&from=ET, διαδικτυακά προσπελάσιμη στις 30.04.2020.

Nick Bostrom, Eliezer Yudkowsky, The Ethics of Artificial Intelligence, In Cambridge Handbook of Artificial Intelligence, edited by Keith Frankish and William Ramsey. New York: Cambridge University Press, url https://intelligence.org/files/EthicsofAI.pdf, διαδικτυακά προσπελάσιμο στις30.04.2020, Stuart Russell, Sabine Hauert, Russ Altman,  Manuela Veloso, Robotics: Ethics of artificial intelligence, ηλεκτρονικό περιοδικό  Nature, Vol 521 Macmillan Publishers Limited 2015, url https://www.nature.com/news/robotics-ethics-of-artificial-intelligence-1.17611, διαδικτυακά προσπελάσιμο στις 30.04.2020.

[8] Βλ. και την σχετική Γνωμοδότηση της Επιτροπής Νομικών Θεμάτων, url https://www.europarl.europa.eu/doceo/document/A-8-2019-0019_EL.html#title3, διαδικτυακά προσπελάσιμη στις 30.04.2020.

[9] Βλ. και European Parliament, EU Guidelines on ethics in artificial intelligence: Context and implementation, 19-09-2019, url https://www.europarl.europa.eu/thinktank/en/document.html?reference=EPRS_BRI(2019)640163, διαδικτυακά προσπελάσιμες στις 30.04.2020.

[10] Βλ. την υπ’αριθμ. 2017/C 288/01 Γνωμοδότηση  της Ευρωπαϊκής Οικονομικής και Κοινωνικής Επιτροπής με θέμα «Η τεχνητή νοημοσύνη — Η επίδραση της τεχνητής νοημοσύνης στην (ψηφιακή) ενιαία αγορά, στην παραγωγή, στην κατανάλωση, στην απασχόληση και στην κοινωνία», όπου γίνεται αναφορά στο ότι πρέπει να αναπτυχθούν νέες διαδικασίες τυποποίησης για την επαλήθευση και την επικύρωση των συστημάτων τεχνητής νοημοσύνης, οι οποίες θα πρέπει να βασίζονται σε μεγάλο φάσμα κανόνων, έτσι ώστε να καθίσταται δυνατή η αξιολόγηση και ο έλεγχος της ασφάλειας, της διαφάνειας, της αναγνωσιμότητας, της δυνατότητας λογοδοσίας και της ηθικής υπευθυνότητας των συστημάτων τεχνητής νοημοσύνης, url https://eur-lex.europa.eu/legal-content/EL/TXT/PDF/?uri=CELEX:52016IE5369&from=EL, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[11] Library of Congress, Regulation of Artificial Intelligence: International and Regional Approaches, url https://www.loc.gov/law/help/artificial-intelligence/international.php#_ftn57, διαδικτυακά προσπελάσιμη στις 04.05.2020, με τις εκεί υποσημειώσεις σε United Nations,  AI Policy, Future of Life Institute https://futureoflife.org/ai-policy-united-nations/.

[12] Βλ. σχετικά την ηλεκτρονική διεύθυνση http://www.unicri.it/news/article/CBRN_Artificial_Intelligence, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[13] Βλ. την ηλεκτρονική διεύθυνση του Ινστιτούτου για την Τεχνητή Νοημοσύνη και την Ρομποτική, urlhttp://www.unicri.it/in_focus/on/UNICRI_Centre_Artificial_Robotics, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[14] Library of Congress, Regulation of Artificial Intelligence: International and Regional Approaches, url https://www.loc.gov/law/help/artificial-intelligence/international.php#_ftn57, διαδικτυακά προσπελάσιμη στις 04.05.2020, με τις εκεί υποσημειώσεις σε ITU,  Artificial Intelligence, https://www.itu.int/en/ITU-T/AI/ Pages/default.aspx.

[15] Σχετικά με το Παγκόσμιο αυτό συνέδριο βλ. την ηλεκτρονική διεύθυνση https://www.itu.int/en/ITU-T/AI/Pages/default.aspx, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[16]Library of Congress, Regulation of Artificial Intelligence: International and Regional Approaches, url https://www.loc.gov/law/help/artificial-intelligence/international.php#_ftn57, διαδικτυακά προσπελάσιμη στις 04.05.2020, με τις εκεί υποσημειώσεις σε Background on Lethal Autonomous Weapons Systems in the CCW, UNOG, https://www.unog.ch/80256EE600585943/(httpPages)/8FA3C2562A60FF81C1257CE600393DF6?OpenDocument.

[17] United Nations, First Committee Weighs Potential Risks of New Technologies as Members Exchange Views on How to Control Lethal Autonomous Weapons, Cyberattacks, 2018, url https://www.un.org/press/en/2018/gadis3611.doc.htm, διαδικτυακά προσπελάσιμη στις 04.05.2020.

Βλ. και United Nations, Looking to Future, UN to Consider How Artificial Intelligence Could Help Achieve Economic Growth and Reduce Inequalities, 2017, url https://www.un.org/sustainabledevelopment/blog/2017/10/looking-to-future-un-to-consider-how-artificial-intelligence-could-help-achieve-economic-growth-and-reduce-inequalities/, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[18] Οργανισμός Αμερικανικών Κρατών, Έκθεση σχετικά με την κυβερνοασφάλεια στον τραπεζικό τομέα στις χώρες της Λατινικής Αμερικής και της Καραϊβικής, 2018, url http://www.oas.org/es/sms/cicte/sectorbancarioeng.pdf, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[19] European Commission for the Efficiency of Justice (CEPEJ), European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Their Environment, 2018, url https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c, διαδικτυακάπροσπελάσιμη στις 04.05.2020.

[20] European Commission for the Efficiency of Justice (CEPEJ), European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems and Their Environment, 2018, url https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c, διαδικτυακάπροσπελάσιμη στις 04.05.2020.

[21]Committee of experts on  human rights dimensions of automated data processing and different forms of artificial intelligence, A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework, 2018, url https://rm.coe.int/draft-study-of-the-implications-of-advanced-digital-technologies-inclu/16808ef255, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[22] Committee of experts on  human rights dimensions of automated data processing and different forms of artificial intelligence, Draft Recommendation of the Committee of Ministers to member States on human rights impacts of algorithmic systems, 2018, url https://rm.coe.int/draft-recommendation-on-human-rights-impacts-of-algorithmic-systems/16808ef256, διαδικτυακά προσπελάσιμο στις04.05.2020.

[23] Committee of experts on  human rights dimensions of automated data processing and different forms of artificial intelligence, Draft Declaration of the Committee of Ministers on the manipulative capabilities of algorithmic processes, 2018, url https://rm.coe.int/draft-declaration-on-the-manipulative-capabilities-of-algorithmic-proc/16808ef257, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[24] Βλ. σχετικά Θεματολογικά Δελτία για την Ευρωπαϊκή Ένωση 2020, url https://www.europarl.europa.eu/ftu/pdf/el/FTU_4.2.8.pdf,διαδικτυακά προσπελάσιμο στις 04.05.2020

Council of Europe Treaty Series - No. 223, Protocol amending the Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data, 2018, url https://rm.coe.int/CoERMPublicCommonSearchServices/DisplayDCTMContent?documentId=09000016808ac918, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[25] Αναφορικά με τις χώρες που έχουν κυρώσει την Σύμβαση αυτή, βλ. στην ηλεκτρονική διεύθυνση https://www.coe.int/en/web/conventions/full-list/-/conventions/treaty/108, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[26] Βλ. περισσότερα OECD Principles on AI, url https://www.oecd.org/going-digital/ai/principles/, διαδικτυακά προσπελάσιμες στις 30.04.2020. Επιγραμματικά οι Αρχές του Οργανισμού Οικονομικής Συνεργασίας και Ανάπτυξης (ΟΟΣΑ): Η τεχνητή νοημοσύνη πρέπει να ωφελεί τους ανθρώπους και τον πλανήτη, προωθώντας την ανάπτυξη που δεν θα αποκλείει κανέναν, τη βιώσιμη ανάπτυξη και την καθολική ευημερία. Τα συστήματα τεχνητής νοημοσύνης πρέπει να σχεδιάζονται με τρόπο που σέβεται το κράτος δικαίου, τα ανθρώπινα δικαιώματα, τις δημοκρατικές αξίες και τη διαφορετικότητα, καθώς επίσης πρέπει να ενσωματώνουν τις κατάλληλες ασφαλιστικές δικλίδες, για παράδειγμα επιτρέποντας την ανθρώπινη επέμβαση, αν χρειαστεί, με τελικό στόχο μια ανοικτή και δίκαιη κοινωνία. Πρέπει να υπάρχει διαφάνεια και υπεύθυνη λογοδοσία σχετικά με τα συστήματα τεχνητής νοημοσύνης, έτσι ώστε, μεταξύ άλλων, να διασφαλίζεται πως οι άνθρωποι καταλαβαίνουν πότε έρχονται σε επαφή με αυτά. Τα συστήματα τεχνητής νοημοσύνης πρέπει να λειτουργούν με ασφαλή τρόπο στη διάρκεια της ζωής τους και οι δυνητικοί κίνδυνοι τους πρέπει συνεχώς να αξιολογούνται και να αντιμετωπίζονται. Οι οργανισμοί και οι άνθρωποι που αναπτύσσουν, εγκαθιστούν ή λειτουργούν συστήματα τεχνητής νοημοσύνης, πρέπει να είναι υπεύθυνοι για τη σωστή λειτουργία τους, η οποία θα συνάδει με τις κατευθυντήριες αρχές του ΟΟΣΑ.

[27] Για την σημασία του “soft law” βλ. Filippo M. Zerilli, The rule of soft law: An introduction, Journal of Global and Historical Anthropology 56, 2010, σελ. 3–18.

[28] Χάρτης Θεμελιωδών Δικαιωμάτων της Ε.Ε., url https://eur-lex.europa.eu/legal-content/EL/TXT/?uri=LEGISSUM%3Al33501, διαδικτυακά προσπελάσιμος στις 04.05.2020.

[29] Ευρωπαϊκή Επιτροπή, Λευκή Βίβλος, Τεχνητή νοημοσύνη - Η ευρωπαϊκή προσέγγιση της αριστείας και της εμπιστοσύνης, urlhttps://op.europa.eu/en/publication-detail/-/publication/aace9398-594d-11ea-8b81-01aa75ed71a1/language-el/format-PDF/source-118376146, διαδικτυακά προσπελάσιμη στις 30.04.2020.

[30] Μάλιστα δε, κλήθηκαν να αξιολογήσουν το πλαίσιο της προστασίας των καταναλωτών υπό την επίδραση της τεχνητής νοημοσύνης Οι παράμετροι που τέθηκαν κατά την συζήτηση που έλαβε χώρα στο Ευρωπαϊκό Κοινοβούλιο και που τελικώς αποτυπώθηκαν σε ψήφισμα ήταν η επικαιροποίηση των ενωσιακών κανόνων ασφαλείας και ευθύνης ενόψει της δημιουργίας προϊόντων που λειτουργούν με τεχνητή νοημοσύνη, η χρήση αμερόληπτων αλγόριθμων και ο έλεγχος των χρησιμοποιούμενων δομών, καθώς και η διασφάλιση ότι ο άνθρωπος, ως καταναλωτής, θα είναι αυτός που θα έχει τον τελευταίο λόγο.

[31] Α. Βόρρας, Λ. Μήτρου, Τεχνητή νοημοσύνη και προσωπικά δεδομένα - Μια θεώρηση υπό το πρίσμα του Ευρωπαϊκού Γενικού Κανονισμού Προστασίας Δεδομένων (ΕΕ) 2016/679, ΔικΜΕΕ, τ.4, 2018, σελ. 459. Βλ. και την Γνωμοδότηση 1/2020 επί των διατάξεων του Ν. 4624/2019 της Αρχής Προστασίας Προσωπικών Δεδομένων, η οποία αφορά στην αξιολόγηση του εθνικού εφαρμοστικού του Κανονισμού νόμου.

[32] Βλ. και Γνωμοδότηση 3/2018 του Ευρωπαίου Επόπτη για τα Προσωπικά Δεδομένα, σχετικά με τη χειραγώγηση στο διαδίκτυο και τα δεδομένα προσωπικού χαρακτήρα, url https://edps.europa.eu/sites/edp/files/publication/18-03-19_online_manipulation_en.pdf, Διαδικτυακά προσπελάσιμη στις 04.05.2020.

[33] Κανονισμός (ΕΕ) 2015/2120 του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου της 25ης Νοεμβρίου 2015 για τη θέσπιση μέτρων σχετικά με την πρόσβαση στο ανοικτό διαδίκτυο και την τροποποίηση της οδηγίας 2002/22/ΕΚ για την καθολική υπηρεσία και τα δικαιώματα των χρηστών όσον αφορά δίκτυα και υπηρεσίες ηλεκτρονικών επικοινωνιών και του κανονισμού (ΕΕ) αριθ. 531/2012 για την περιαγωγή σε δημόσια δίκτυα κινητών επικοινωνιών εντός της Ένωσης (Κείμενο που παρουσιάζει ενδιαφέρον για τον ΕΟΧ), Σκέψη 2. Βλ. επίσης Ι. Ιγγλεζάκης,Ουδετερότητα του Διαδικτύου: Ευκαιρίες και Προκλήσεις στην Εποχή της Πληροφορίας- Η διαφορετική προσέγγιση ΗΠΑ και ΕΕ στο ζήτημα της ουδετερότητας διαδικτύου και η πιθανή σύγκρουση μεταξύ των ρυθμιστικών μοντέλων στις δύο όχθες του Ατλαντικού, 2017, urlhttps://www.lawspot.gr/nomika-blogs/ioannis_igglezakis/oydeterotita-toy-diadiktyoy-eykairies-kai-prokliseis-stin-epohi-tis#footnote8_fb1uzar, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[34] Α. Βόρρας, Λ. Μήτρου, Τεχνητή νοημοσύνη και προσωπικά δεδομένα - Μια θεώρηση υπό το πρίσμα του Ευρωπαϊκού Γενικού Κανονισμού Προστασίας Δεδομένων (ΕΕ) 2016/679, ΔικΜΕΕ, τ.4, 2018, σελ.459.

[35] Βλ. σχετικά και Σκέψη 156 του Γενικού Κανονισμού Προσωπικών Δεδομένων, όπου αναφέρεται ότι: Η επεξεργασία δεδομένων προσωπικού χαρακτήρα για σκοπούς αρχειοθέτησης προς το δημόσιο συμφέρον, σκοπούς επιστημονικής ή ιστορικής έρευνας ή στατιστικούς σκοπούς θα πρέπει να υπόκειται σε κατάλληλες εγγυήσεις για τα δικαιώματα και τις ελευθερίες του υποκειμένου των δεδομένων σύμφωνα με τον παρόντα Κανονισμό. Οι εν λόγω εγγυήσεις θα πρέπει να διασφαλίζουν ότι έχουν θεσπιστεί τα τεχνικά και οργανωτικά μέτρα που εγγυώνται, ειδικότερα, την αρχή της ελαχιστοποίησης των δεδομένων. Η περαιτέρω επεξεργασία δεδομένων προσωπικού χαρακτήρα για σκοπούς αρχειοθέτησης προς το δημόσιο συμφέρον, σκοπούς επιστημονικής ή ιστορικής έρευνας ή στατιστικούς σκοπούς πραγματοποιείται όταν ο υπεύθυνος της επεξεργασίας έχει εκτιμήσει κατά πόσο είναι εφικτό να εκπληρωθούν οι σκοποί αυτοί μέσω της επεξεργασίας δεδομένων τα οποία δεν επιτρέπουν ή δεν επιτρέπουν πλέον την ταυτοποίηση των υποκειμένων των δεδομένων, υπό την προϋπόθεση ότι υπάρχουν κατάλληλες εγγυήσεις (όπως, για παράδειγμα, η ψευδωνυμοποίηση των δεδομένων). Τα κράτη μέλη θα πρέπει να προβλέπουν κατάλληλες διασφαλίσεις σχετικά με την επεξεργασία δεδομένων προσωπικού χαρακτήρα για σκοπούς αρχειοθέτησης προς το δημόσιο συμφέρον, σκοπούς επιστημονικής ή ιστορικής έρευνας ή στατιστικούς σκοπούς. Θα πρέπει να επιτρέπεται στα κράτη μέλη να παρέχουν, υπό συγκεκριμένες προϋποθέσεις και με δέουσες εγγυήσεις για τα υποκείμενα των δεδομένων, προδιαγραφές και παρεκκλίσεις όσον αφορά τις απαιτήσεις πληροφόρησης και τα δικαιώματα διόρθωσης και διαγραφής, το δικαίωμα στη λήθη, το δικαίωμα περιορισμού της επεξεργασίας, το δικαίωμα στη φορητότητα των δεδομένων και το δικαίωμα αντίταξης κατά την επεξεργασία δεδομένων προσωπικού χαρακτήρα για σκοπούς αρχειοθέτησης προς το δημόσιο συμφέρον, σκοπούς επιστημονικής ή ιστορικής έρευνας ή στατιστικούς σκοπούς. Οι εν λόγω προϋποθέσεις και εγγυήσεις ενδέχεται να συνεπάγονται ειδικές διαδικασίες, ώστε τα υποκείμενα των δεδομένων να ασκούν τα δικαιώματα αυτά, εφόσον είναι σκόπιμο για τους σκοπούς που επιδιώκονται με τη συγκεκριμένη επεξεργασία, παράλληλα με τεχνικά και οργανωτικά μέτρα που αποσκοπούν στην ελαχιστοποίηση της επεξεργασίας δεδομένων προσωπικού χαρακτήρα σύμφωνα με τις αρχές της αναλογικότητας και της αναγκαιότητας. Η επεξεργασία δεδομένων προσωπικού χαρακτήρα για επιστημονικούς σκοπούς θα πρέπει να συμμορφώνεται επίσης με άλλες σχετικές νομοθεσίες, όπως αυτή για τις κλινικές δοκιμές.

[36] Βλ. και την υπ’ αριθμ. 26/2019 Απόφαση της Αρχής Προστασίας Δεδομένων Προσωπικού Χαρακτήρα.

[37] Α. Βόρρας, Λ. Μήτρου, Τεχνητή νοημοσύνη και προσωπικά δεδομένα - Μια θεώρηση υπό το πρίσμα του Ευρωπαϊκού Γενικού Κανονισμού Προστασίας Δεδομένων (ΕΕ) 2016/679, ΔικΜΕΕ, τ.4, 2018, σελ.459.

[38] Για την σχετική συζήτηση αναφορικά με την υιοθέτηση της αρχής της αλγοριθμικής λογοδοσίας, ήτοι της χρήσης ελέγχων για την ορθή λειτουργία των συστημάτων τεχνητής νοημοσύνης και την διόρθωση των επιβλαβών αποτελεσμάτων που ενδεχομένως έχουν βλ. στην ηλεκτρονική διεύθυνση https://www.fortunegreece.com/article/i-koursa-tis-technitis-noimosinis-bori-na-rixi-tis-ipa-apo-tin-korifi/.

[39] Αρχή Προστασίας Προσωπικών Δεδομένων, Η Αρχή της Λογοδοσίας, url https://www.dpa.gr/portal/page?_pageid=33,213245&_dad=portal&_schema=PORTAL, διαδικτυακά προσπελάσιμη στις 04.05.2020.

[40] Αρχή Προστασίας Προσωπικών Δεδομένων, Η Αρχή της Λογοδοσίας, url https://www.dpa.gr/portal/page?_pageid=33,213245&_dad=portal&_schema=PORTAL, διαδικτυακά προσπελάσιμη στις 04.05.2020.

Έτσι, η υποχρέωση λογοδοσίας είναι ένας μηχανισμός εγγύησης της τήρησης των αρχών που διέπουν την επεξεργασία προσωπικών δεδομένων.

Ο ΓΚΠΔ παρέχει στους υπευθύνους επεξεργασίας/εκτελούντες μια σειρά ρυθμιστικών μεθόδων και εργαλείων για τον σκοπό αυτό, όπως: την τήρηση αρχείων δραστηριοτήτων επεξεργασίας, την εφαρμογή μέτρων ασφαλείας, την εκτίμηση αντικτύπου σχετικά με την προστασία δεδομένων, την προηγούμενη διαβούλευση και συνεργασία με την εποπτική αρχή, τον ορισμό υπευθύνου προστασίας δεδομένων, την τήρηση των υποχρεώσεων κοινοποίησης της παραβίασης δεδομένων, την ενθάρρυνση υιοθέτησης κωδίκων δεοντολογίας και μηχανισμών πιστοποίησης, σφραγίδων και σημάτων προστασίας δεδομένων.

[41] Βλ. αρ. 12-14 του ΓΚΠΔ. Ειδικότερα, με βάση την αρχή της διαφάνειας, η ενημέρωση πρέπει να είναι συνοπτική, διαφανής, κατανοητή, εύκολα προσβάσιμη και διατυπωμένη σε απλή και σαφή γλώσσα. Αόριστοι όροι πρέπει να αποφεύγονται (π.χ. «θα μπορούσε», «ενδέχεται», «πιθανόν να…», κ.λπ.). Η ενημέρωση πρέπει να περιλαμβάνει, μεταξύ άλλων, ιδίως τις εξής πληροφορίες: τον σκοπό της επεξεργασίας των δεδομένων, τις πηγές τους (όταν η συλλογή γίνεται από άλλες πηγές κι όχι από το ίδιο το υποκείμενο) και τους τυχόν αποδέκτες τους.

Τα άρθρα 13 και 14 του ΓΚΠΔ εξειδικεύουν ποιες ακριβώς πληροφορίες πρέπει να περιλαμβάνει η ενημέρωση, όταν η συλλογή γίνεται από τα ίδια τα υποκείμενα ή από άλλες πηγές.

Ειδικότερα, τα φυσικά πρόσωπα (υποκείμενα των δεδομένων) μπορούν να ζητήσουν από τον υπεύθυνο επεξεργασίας τις εξής επιπρόσθετες πληροφορίες: τις κατηγορίες των δεδομένων τους, τις πηγές των δεδομένων τους (όταν τα δεδομένα δεν χορηγούνται από το υποκείμενο), τη χρονική περίοδο τήρησης των δεδομένων τους ή, όταν αυτό δεν είναι δυνατό, τα κριτήρια για τον χρόνο τήρησής τους, τη δυνατότητά τους να ασκήσουν το δικαίωμα διόρθωσης, διαγραφής, περιορισμού και εναντίωσης στην επεξεργασία, την ύπαρξη διαδικασίας αυτόματης λήψης αποφάσεων, συμπεριλαμβανομένης της κατάρτισης προφίλ και τη διαβίβαση των δεδομένων σε τρίτη χώρα ή διεθνή οργανισμό και την ύπαρξη σχετικών εγγυήσεων προστασίας. Η ενημέρωση από τον Υπεύθυνο Επεξεργασίας πρέπει να γίνεται: α) τη στιγμή της συλλογής, όταν αυτή γίνεται απευθείας από τα υποκείμενα των δεδομένων, και  β) σε εύλογο χρονικό διάστημα από τη συλλογή των δεδομένων (το αργότερο σε ένα μήνα), όταν αυτή γίνεται από άλλες πηγές. Τα υποκείμενα δεν έχουν το δικαίωμα ενημέρωσης, όταν διαθέτουν ήδη τις πληροφορίες ή η χορήγησή τους συνεπάγεται δυσανάλογη προσπάθεια για τον υπεύθυνο επεξεργασίας.

[42] Βλ. άρθρο 35 του Γενικού Κανονισμού για τα Προσωπικά Δεδομένα, σύμφωνα με το οποίο: 1. Όταν ένα είδος επεξεργασίας, ιδίως με χρήση νέων τεχνολογιών και συνεκτιμώντας τη φύση, το πεδίο εφαρμογής, το πλαίσιο και τους σκοπούς της επεξεργασίας, ενδέχεται να επιφέρει υψηλό κίνδυνο για τα δικαιώματα και τις ελευθερίες των φυσικών προσώπων, ο υπεύθυνος επεξεργασίας διενεργεί, πριν από την επεξεργασία, εκτίμηση των επιπτώσεων των σχεδιαζόμενων πράξεων επεξεργασίας στην προστασία δεδομένων προσωπικού χαρακτήρα. Σε μία εκτίμηση μπορεί να εξετάζεται ένα σύνολο παρόμοιων πράξεων επεξεργασίας οι οποίες ενέχουν παρόμοιους υψηλούς κινδύνους.

Ο υπεύθυνος επεξεργασίας ζητεί τη γνώμη του υπευθύνου προστασίας δεδομένων, εφόσον έχει οριστεί, κατά τη διενέργεια εκτίμησης αντικτύπου σχετικά με την προστασία δεδομένων.
Η αναφερόμενη στην παράγραφο 1 εκτίμηση αντικτύπου σχετικά με την προστασία δεδομένων απαιτείται ιδίως στην περίπτωση:
α) συστηματικής και εκτενούς αξιολόγησης προσωπικών πτυχών σχετικά με φυσικά πρόσωπα, η οποία βασίζεται σε αυτοματοποιημένη επεξεργασία, περιλαμβανομένης της κατάρτισης προφίλ, και στην οποία βασίζονται αποφάσεις που παράγουν έννομα αποτελέσματα σχετικά με το φυσικό πρόσωπο ή ομοίως επηρεάζουν σημαντικά το φυσικό πρόσωπο,

β) μεγάλης κλίμακας επεξεργασίας των ειδικών κατηγοριών δεδομένων που αναφέρονται στο άρθρο 9 παράγραφος 1 ή δεδομένων προσωπικού χαρακτήρα που αφορούν ποινικές καταδίκες και αδικήματα που αναφέρονται στο άρθρο 10 ή

γ) συστηματικής παρακολούθησης δημοσίως προσβάσιμου χώρου σε μεγάλη κλίμακα….

Η εκτίμηση περιέχει τουλάχιστον:
α) συστηματική περιγραφή των προβλεπόμενων πράξεων επεξεργασίας και των σκοπών της επεξεργασίας, περιλαμβανομένου, κατά περίπτωση, του έννομου συμφέροντος που επιδιώκει ο υπεύθυνος επεξεργασίας,

β) εκτίμηση της αναγκαιότητας και της αναλογικότητας των πράξεων επεξεργασίας σε συνάρτηση με τους σκοπούς,

γ) εκτίμηση των κινδύνων για τα δικαιώματα και τις ελευθερίες των υποκειμένων των δεδομένων που αναφέρονται στην παράγραφο 1 και

δ) τα προβλεπόμενα μέτρα αντιμετώπισης των κινδύνων, περιλαμβανομένων των εγγυήσεων, των μέτρων και μηχανισμών ασφάλειας, ώστε να διασφαλίζεται η προστασία των δεδομένων προσωπικού χαρακτήρα και να αποδεικνύεται η συμμόρφωση προς τον παρόντα κανονισμό, λαμβάνοντας υπόψη τα δικαιώματα και τα έννομα συμφέροντα των υποκειμένων των δεδομένων και άλλων ενδιαφερόμενων προσώπων.

Η συμμόρφωση με εγκεκριμένους κώδικες δεοντολογίας που αναφέρονται στο άρθρο 40 από τους σχετικούς υπευθύνους επεξεργασίας ή εκτελούντες την επεξεργασία λαμβάνεται δεόντως υπόψη κατά την εκτίμηση του αντικτύπου των πράξεων επεξεργασίας που εκτελούνται από τους εν λόγω υπευθύνους ή εκτελούντες την επεξεργασία, ιδίως για τους σκοπούς εκτίμησης αντικτύπου σχετικά με την προστασία δεδομένων…
Όταν η επεξεργασία δυνάμει του άρθρου 6 παράγραφος 1 στοιχείο γ) ή ε) έχει νομική βάση στο δίκαιο της Ένωσης ή στο δίκαιο του κράτους μέλους στο οποίο υπόκειται ο υπεύθυνος επεξεργασίας, το εν λόγω δίκαιο ρυθμίζει την εκάστοτε συγκεκριμένη πράξη επεξεργασίας ή σειρά πράξεων και έχει διενεργηθεί ήδη εκτίμηση αντικτύπου σχετικά με την προστασία δεδομένων ως μέρος γενικής εκτίμησης αντικτύπου στο πλαίσιο της έγκρισης της εν λόγω νομικής βάσης, οι παράγραφοι 1 έως 7 δεν εφαρμόζονται, εκτός εάν τα κράτη μέλη κρίνουν απαραίτητη τη διενέργεια της εν λόγω εκτίμησης πριν από τις δραστηριότητες επεξεργασίας.
[43] Η επεξεργασία αυτή περιλαμβάνει την «κατάρτιση προφίλ» που αποτελείται από οποιαδήποτε μορφή αυτοματοποιημένης επεξεργασίας δεδομένων προσωπικού χαρακτήρα για την αξιολόγηση προσωπικών πτυχών σχετικά με ένα φυσικό πρόσωπο, ιδίως την ανάλυση ή την πρόβλεψη πτυχών που αφορούν τις επιδόσεις στην εργασία, την οικονομική κατάσταση, την υγεία, τις προσωπικές προτιμήσεις ή συμφέροντα, την αξιοπιστία ή τη συμπεριφορά, τη θέση ή κινήσεις του υποκειμένου των δεδομένων, στον βαθμό που παράγει νομικά αποτελέσματα έναντι του προσώπου αυτού ή το επηρεάζει σημαντικά κατά ανάλογο τρόπο. Ωστόσο, η λήψη απόφασης που βασίζεται σε αυτήν την επεξεργασία, συμπεριλαμβανομένης της κατάρτισης προφίλ, θα πρέπει να επιτρέπεται όταν προβλέπεται ρητά από το δίκαιο της Ένωσης ή κράτους μέλους, στο οποίο υπόκειται ο υπεύθυνος επεξεργασίας, μεταξύ άλλων για σκοπούς παρακολούθησης και πρόληψης της απάτης και της φοροδιαφυγής σύμφωνα με τους κανονισμούς, τα πρότυπα και τις συστάσεις των θεσμικών οργάνων της Ένωσης ή των εθνικών οργάνων εποπτείας και προκειμένου να διασφαλιστεί η ασφάλεια και η αξιοπιστία της υπηρεσίας που παρέχει ο υπεύθυνος επεξεργασίας, ή όταν είναι αναγκαία για τη σύναψη ή την εκτέλεση σύμβασης μεταξύ υποκειμένου των δεδομένων και υπευθύνου επεξεργασίας ή όταν το υποκείμενο των δεδομένων παρέσχε τη ρητή συγκατάθεσή του. Σε κάθε περίπτωση, η επεξεργασία αυτή θα πρέπει να υπόκειται σε κατάλληλες εγγυήσεις, οι οποίες θα πρέπει να περιλαμβάνουν ειδική ενημέρωση του υποκειμένου των δεδομένων και το δικαίωμα εξασφάλισης ανθρώπινης παρέμβασης, το δικαίωμα διατύπωσης της άποψης του, το δικαίωμα να λάβει αιτιολόγηση της απόφασης που ελήφθη στο πλαίσιο της εν λόγω εκτίμησης και το δικαίωμα αμφισβήτησης της απόφασης. Το εν λόγω μέτρο θα πρέπει να μην αφορά παιδί. Προκειμένου να διασφαλισθεί δίκαιη και διαφανής επεξεργασία σε σχέση με το υποκείμενο των δεδομένων, λαμβανομένων υπόψη των ειδικών συνθηκών και του πλαισίου εντός του οποίου πραγματοποιείται η επεξεργασία των δεδομένων προσωπικού χαρακτήρα, ο υπεύθυνος επεξεργασίας θα πρέπει να χρησιμοποιεί κατάλληλες μαθηματικές ή στατιστικές διαδικασίες για την κατάρτιση του προφίλ, να εφαρμόζει τεχνικά και οργανωτικά μέτρα, ώστε να διορθώνονται οι παράγοντες που οδηγούν σε ανακρίβειες σε δεδομένα προσωπικού χαρακτήρα και να ελαχιστοποιείται ο κίνδυνος σφαλμάτων, να καθιστά ασφαλή τα δεδομένα προσωπικού χαρακτήρα κατά τρόπο που να λαμβάνει υπόψη τους πιθανούς κινδύνους που συνδέονται με τα συμφέροντα και τα δικαιώματα του υποκειμένου των δεδομένων και να προλαμβάνει, μεταξύ άλλων, τα αποτελέσματα διακρίσεων σε βάρος φυσικών προσώπων βάσει της φυλετικής ή εθνοτικής καταγωγής, των πολιτικών φρονημάτων, της θρησκείας ή των πεποιθήσεων, της συμμετοχής σε συνδικαλιστικές οργανώσεις, της γενετικής κατάστασης ή της κατάστασης της υγείας ή του γενετήσιου προσανατολισμού, ή την επεξεργασία που συνεπάγεται μέτρα ισοδύναμου αποτελέσματος. Η αυτοματοποιημένη λήψη αποφάσεων και κατάρτιση προφίλ που βασίζονται σε ειδικές κατηγορίες δεδομένων προσωπικού χαρακτήρα θα πρέπει να επιτρέπονται μόνο υπό ειδικές προϋποθέσεις. Γενικός Κανονισμός Προστασίας Δεδομένων, Σκέψη 157.

[44] Βλ. σχετικά τον Κώδικα Δεοντολογίας της Ένωσης Ελλήνων Τραπεζών, 2019, urlhttps://www.hba.gr/UplDocs/GDPR/%CE%9A%CE%A9%CE%94%CE%99%CE%9A%CE%91%CE%A3%20%CE%94%CE%95%CE%9F%CE%9D%CE%A4%CE%9F%CE%9B%CE%9F%CE%93%CE%99%CE%91%CE%A3.pdf,  διαδικτυακά προσπελάσιμο στις 04.05.2020, στον οποίο γίνεται αναφορά στην διαδικασία αξιολόγησης της πιστοληπτικής ικανότητας των υποψήφιων δανειοληπτών και κατά συνέπεια στη διαδικασία δημιουργίας προφίλ (profiling), από τα τραπεζικά ιδρύματα.

Ειδικά για το profiling βλ. και τα άρθρα 4 και 22 του ΓΚΠΔ, σύμφωνα με τα οποία η διαδικασία του “profiling” αναφέρεται σε μία μορφή αυτοματοποιημένης επεξεργασίας δεδομένων, η οποία επιδιώκει να εξαγάγει, να συμπεράνει, να προβλέψει ή να αξιολογήσει ορισμένα χαρακτηριστικά, δημογραφικά ή μη, συμπεριφορά ή την ταυτότητα ενός προσώπου. Bλ. και V. Ferraris, F. Bosco, G. Cafiero, E. D’Angelo, Y. Suloyeva, B.J. Koops, Defining Profiling, 2013, url http://dx.doi.org/10.2139/ssrn.2366564 , διαδικτυακά προσπελάσιμο στις 30.04.2020. Εκεί γίνεται διάκριση μεταξύ του “profiling” ομάδας ανθρώπων και του “profiling” μεμονωμένων ατόμων καθώς και μεταξύ του άμεσου και έμμεσου “profiling”. Το ομαδικό “profiling” εντοπίζει ομάδες ατόμων, τα οποία είτε μοιράζονται συγκεκριμένα χαρακτηριστικά είτε ομαδοποιούνται, μέσω του “profiling”, χωρίς απαραίτητα να έχουν τα ίδια χαρακτηριστικά ή χωρίς να μοιράζονται όλα τα ίδια χαρακτηριστικά. Το ατομικό ή εξειδικευμένο “profiling” συγκεντρώνει πληροφορίες για ένα συγκεκριμένο υποκείμενο και χρησιμοποιεί αυτές τις πληροφορίες για να εξάγει, να συμπεράνει ή να προβλέψει άγνωστα χαρακτηριστικά ή τη μελλοντική συμπεριφορά του υποκειμένου.

Επίσης βλ. Privacy International, Data is power: Towards additional guidance on profiling and automated decision-making in the GDPR, urlhttps://privacyinternational.org/sites/default/files/2018-04/Data%20Is%20Power-Profiling%20and%20Automated%20Decision-Making%20in%20GDPR.pdf, διαδικτυακά προσπελάσιμο στις 30.04.2020, με περαιτέρω παραπομπή σε David-Olivier Jaquet-Chiffelle, Direct and indirect profiling in the light of virtual persons, in Mireille Hildebrandt and Serge Gutwirth, Profiling the European citizen, 2008, για τον σχετικό διαχωρισμό μεταξύ του άμεσου “profiling”, το οποίο βασίζεται στη χρήση δεδομένων, που παρασχέθηκαν από το υποκείμενο ή την ομάδα υποκειμένων ή συλλέχθηκαν μέσω της παρατήρησης του υποκειμένου ή της ομάδας υποκειμένων αντίστοιχα και χρησιμοποιεί τα εν λόγω δεδομένα για να εξάγει, να συμπεράνει ή να προβλέψει άγνωστα χαρακτηριστικά ή μελλοντικές συμπεριφορές και του έμμεσου “profiling”, το οποίο στηρίζεται στη χρήση δεδομένων που αφορούν σε μεγαλύτερους πληθυσμούς και αποσκοπεί στον εντοπισμό υποκειμένων, βάσει των χαρακτηριστικών που έχουν προκύψει από τους εν λόγω μεγαλύτερους πληθυσμούς.

[45] Βλ. και την Δήλωση της Προέδρου της Επιτροπής Εσωτερικής Αγοράς και Προστασίας των Καταναλωτών του ΕΚ: «Η τεχνολογία στον τομέα της τεχνητής νοημοσύνης και των αυτοματοποιημένων διαδικασιών λήψης αποφάσεων εξελίσσεται με απίστευτους ρυθμούς. Η επιτροπή σήμερα καλωσορίζει τη μελλοντική χρήση αυτών των επιτευγμάτων, ενώ παράλληλα υπογραμμίζει τρία σημαντικά ζητήματα τα οποία χρήζουν ιδιαίτερης προσοχής. Θα πρέπει να διασφαλίσουμε ότι η προστασία και η εμπιστοσύνη των καταναλωτών δεν διακυβεύονται, ότι οι κανόνες της ΕΕ για την ασφάλεια και την ευθύνη σχετικά με τα προϊόντα και τις υπηρεσίες είναι προσαρμοσμένοι στην ψηφιακή εποχή, καθώς και ότι οι ομάδες δεδομένων που χρησιμοποιούνται στα συστήματα που βασίζονται σε αυτοματοποιημένες διαδικασίες λήψης αποφάσεων είναι υψηλής ποιότητας και δεν παραβιάζουν την απαίτηση της αμεροληψίας». Γεώργιος Κανέλλος, AI: Δέσμη δικαιωμάτων για την προστασία των καταναλωτών στα πλαίσια της τεχνητής νοημοσύνης ζητάει το Ευρωκοινοβούλιο, url https://www.lawspot.gr/nomika-nea/ai-desmi-dikaiomaton-gia-tin-prostasia-ton-katanaloton-sta-plaisia-tis-tehnitis, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[46] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.1.1 url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[47] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.2.1 url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[48] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.3.1.1 url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[49] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.3.1.2 url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[50] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.3.1.2 url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[51] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.3.1.3 url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[52] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.3.1.4. url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[53] Ευρωπαϊκό Κοινοβούλιο, Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, Βλ. άρθρ.3.1.6. url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[54] Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, url https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020. Αναφορικά με τον τρόπο λειτουργίας των συστημάτων αναγνώρισης των προσώπων βλ. και Φ. Παναγοπούλου-Κουτνατζή, Βιομετρικές μέθοδοι και προστασία ιδιωτικότητας: Σκέψεις με αφορμή την απόφαση ΔΕΕ Michael Schwarz κατά κρατιδίου Bochum (C-291/2012), ΔιΜΕΕ, 4/2013, σ. 482. Δημήτρης Βέρρας, Clearview AI: Το χρονικό του προδιαγεγραμμένου τέλους της ιδιωτικότητας; , δημοσιευμένο στην ηλεκτρονική ιστοσελίδα https://www.lawspot.gr/nomika-blogs/dimitris_verras/clearview-ai-hroniko-toy-prodiagegrammenoy-teloys-tis-idiotikotitas,  διαδικτυακά προσπελάσιμο στις 07.05.2020.

[55] Οι χρήστες πρέπει να γνωρίζουν πώς χρησιμοποιούνται τα δικά τους ή άλλα δεδομένα, καθώς και δεδομένα που απορρέουν από τα δεδομένα τους, όταν επικοινωνούν ή αλληλεπιδρούν με σύστημα τεχνητής νοημοσύνης ή με ανθρώπους υποστηριζόμενους από σύστημα τεχνητής νοημοσύνης. Επιπλέον, σύμφωνα με το άρθρο 22 ΓΚΠΔ, τα φυσικά πρόσωπα έχουν δικαίωμα να ζητούν ανθρώπινη παρέμβαση όταν θίγονται σοβαρά από αποφάσεις που βασίζονται σε αυτοματοποιημένη επεξεργασία. Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, urlhttps://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[56] Ψήφισμα του Ευρωπαϊκού Κοινοβουλίου της 12ης Φεβρουαρίου 2019 σχετικά με μια ολοκληρωμένη ευρωπαϊκή βιομηχανική πολιτική για την τεχνητή νοημοσύνη και τη ρομποτική, διαδικτυακά προσπελάσιμο https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_EL.html.

[57] Βλ. αναλυτικότερα Σκέψη 71 και άρθρο 22 του Γενικού Κανονισμού Προσωπικών Δεδομένων.

[58] Το ζήτημα της θερμομέτρησης, μέσω καμερών και συστημάτων παρακολούθησης, θα «πυροδοτήσει» ραγδαίες εξελίξεις σε όλα τα επίπεδα ειδικά τώρα στην προσπάθεια που γίνεται για μείωση των κρουσμάτων και αναχαίτιση της πορείας του Covid-19. Βλ. σχετικά και τις Κατευθυντήριες Αρχές της Αρχής Προστασίας Προσωπικών Δεδομένων, όπου αναφέρεται ότι: Η νοµοθεσία για την προστασία των δεδοµένων προσωπικού χαρακτήρα εφαρµόζεται κατ’ άρ. 2 παρ. 1 Κανονισµού 679/2016 και 2 Ν. 4624/2019 στην εν όλω ή εν µέρει αυτοµατοποιηµένη επεξεργασία δεδοµένων προσωπικού χαρακτήρα, καθώς και στη µη αυτοµατοποιηµένη επεξεργασία τέτοιων δεδοµένων τα οποία περιλαµβάνονται ή πρόκειται να περιληφθούν σε σύστηµα αρχειοθέτησης. Έτσι, π.χ., η προφορική ενηµέρωση ότι το υποκείµενο των δεδοµένων νοσεί από τον κορωνοϊό ή ότι η σωµατική θερµοκρασία του έχει µετρηθεί ως ανώτερη του φυσιολογικού συνιστούν µεν δεδοµένα προσωπικού χαρακτήρα, πλην όµως η σχετική νοµοθεσία δεν εφαρµόζεται εάν οι ανωτέρω πληροφορίες δεν έχουν περιληφθεί σε σύστηµα αρχειοθέτησης σε περίπτωση µη αυτοµατοποιηµένης (χειροκίνητης) επεξεργασίας ή δεν έχουν περιληφθεί σε αυτοµατοποιηµένη επεξεργασία.

[59] Βλ. επίσης και Σ. Κτιστάκης, Τεχνητή νοημοσύνη και συμβατική διαδικασία- Εισαγωγή στα βασικά προβλήματα, Εφαρμογές Αστικού Δικαίου και Πολιτικής Δικονομία Τεύχος 6, 2018, όπου αναφέρεται στην προβληματική της σύναψης σύμβασης με τη χρήση πρακτόρων λογισμικού και στην ύπαρξη ή μη  ηλεκτρονικής δήλωσης βουλήσεως. Ως κρίσιμο στοιχείο καταλογισμού της στον άνθρωπο/χρήστη του ηλεκτρονικού υπολογιστή θεωρήθηκε ο συνδετικός κρίκος ανάμεσα στο περιεχόμενό της και τις προπαρασκευαστικές ενέργειες αυτού. Ιδιαίτερα ενδιαφέρον είναι και το ζήτημα της οριοθέτησης τυχόν συμβατικής ευθύνης.

[60] Σπύρος Τάσσης, Η εποχή της τεχνητής νοημοσύνης, δημοσιευμένο στην ηλεκτρονική ιστοσελίδα https://www.lawspot.gr/nomika-blogs/spiros_tassis/dikaio-stin-epohi-tis-tehnitis-noimosynis, διαδικτυακά προσπελάσιμο στις 04.05.2020.

[61] Council of Europe, Commissioner for Human Rights, Unboxing artificial intelligence: 10 steps to protect human rights, url https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/1680946e64, διαδικτυακά προσπελάσιμο στις 26.06.2020.Βλ. και C. Burt, European Commissioner calls for strict regulation of facial recognition to preserve freedom of assembly, Biometric update.com, 26.06.2020, url https://www.biometricupdate.com/201905/european-commissioner-calls-for-strict-regulation-of-facial-recognition-to-preserve-freedom-of-assembly, διαδικτυακά προσπελάσιμη στις 26.06.2020.