Τεχνολογία αναγνώρισης προσώπου και δεδομένα προσωπικού χαρακτήρα
Με την εξέλιξη της τεχνολογίας και δη της τεχνητής νοημοσύνης αναπτύχθηκαν ακόμη περισσότερο τα τελευταία χρόνια τα συστήματα αναγνώρισης προσώπου, δημιουργώντας, ως εκ τούτου, έντονα ερωτήματα σχετικά με το κατά πόσο είναι σύννομη η χρήση τους και πως αυτά ενδέχεται να επηρεάσουν τα θεμελιώδη ανθρώπινα δικαιώματα και κυρίως τα δικαιώματα της ελεύθερης έκφρασης, της προστασίας των δεδομένων προσωπικού χαρακτήρα, της ιδιωτικότητας καθώς και τις πολιτικές ελευθερίες.
Η τεχνολογία αναγνώρισης προσώπου (facial recognition) χρησιμοποιήθηκε για πρώτη φορά το 1964, από τον Αμερικανό μαθηματικό και επιστήμονα υπολογιστών Woodrow Bledsoe. Συγκεκριμένα, ο Bledsoe χρησιμοποιώντας ένα πρόγραμμα υπολογιστή και μια βάση δεδομένων από φωτογραφίες, κατάφερε να ταυτοποιήσει την φωτογραφία ενός υπόπτου μ’ αυτές που ήδη διέθετε στο αρχείο του. Ακολούθως, τα επόμενα χρόνια συντελέστηκε ραγδαία ανάπτυξη της εν λόγω τεχνολογίας, η οποία, έχοντας ως γνώμονα την καταπολέμηση της εγκληματικότητας και τη διασφάλιση της δημόσιας τάξης, έτυχε τεράστιας χρηματοδότησης από την Αμερικανική Κυβέρνηση. Με το πέρας των χρόνων και με την όλο και πιο εύκολη πρόσβαση σε δεδομένα (φωτογραφίες) από διάφορες πηγές, η συναίνεση των υποκειμένων, των οποίων τα βιομετρικά δεδομένα υφίσταντο επεξεργασία, απασχολούσε όλο και λιγότερο τους ερευνητές. Η ευρεία αυτή πρόσβαση σε δεδομένα σε συνδυασμό με την εξέλιξη της τεχνολογίας, συνέβαλαν στη μείωση του κόστους και στην ταχύτερη ανάπτυξη των προγραμμάτων αυτών, με αποτέλεσμα να καθίσταται πλέον επιτακτική η ύπαρξη εξειδικευμένης νομοθεσίας.
Σε πρόσφατη μελέτη που διεξήχθη από την Inioluwa Deborah Raji στην Αμερική, σχετικά με την αξιολόγηση της τεχνολογίας αναγνώρισης προσώπου (facial recognition), παρατηρήθηκε ότι ελλοχεύουν κίνδυνοι από τη χρήση της, τόσο ως προς την παραβίαση των προσωπικών δεδομένων όσο και ως προς την καταπάτηση εν γένει των θεμελιωδών δικαιωμάτων, όπως το δικαίωμα της ελευθερίας της έκφρασης, του συνέρχεσθαι και της προστασίας της ιδιωτικής ζωής. Σύμφωνα, λοιπόν, με τα ευρήματα της ως άνω έρευνας, σε ορισμένες περιπτώσεις η ανάγκη για την εύρεση δεδομένων δημογραφικής ποικιλομορφίας, με στόχο την εξαγωγή όσον το δυνατόν πιο έγκυρων αποτελεσμάτων, είχε ως συνέπεια την κατάφορη καταπάτηση της ιδιωτικής ζωής των ατόμων, καθώς οι ερευνητές είχαν οδηγηθεί στο σημείο να κατεβάζουν εικόνες απευθείας από πλατφόρμες όπως η Google, Flickr, and Yahoo, χωρίς την ύπαρξη οποιασδήποτε προηγούμενης συγκατάθεσης. Αξιοσημείωτο παράδειγμα αποτελεί, ότι το Facebook το 2014 αντλώντας από τη βάση δεδομένων του, τις φωτογραφίες των χρηστών του, προχώρησε στην ανάπτυξη του λογισμικού «DeepFace».
Πέρα, όμως, από την ανάπτυξη της εν λόγω τεχνολογίας, τα τελευταία χρόνια οι ερευνητές έχουν στρέψει την προσοχή τους στην πρόγνωση, μέσω της ανάλυσης του προσώπου, προσωπικών πτυχών των ανθρώπων, όπως τον σεξουαλικό τους προσανατολισμό, το γένος, τη φυλή και πολλά ακόμη αμφισβητούμενα χαρακτηριστικά, πράγμα που ενδέχεται να συμβάλλει έτι περισσότερο στην καλλιέργεια διακρίσεων και προκαταλήψεων.
Η έρευνα της Deborah Raji, καταδεικνύει όχι μόνο την έκταση της έλλειψης συναίνεσης στις μέρες μας σε σχέση με την συλλογή και την επεξεργασία βιομετρικών δεδομένων αλλά και την έλλειψη ακρίβειας των συστημάτων αυτών. Συγκεκριμένα, δεν είναι λίγες οι φορές όπου βιομετρικά συστήματα, έχουν οδηγήσει τις αρχές σε λανθασμένες συλλήψεις ατόμων. Παράλληλα, παρατηρήθηκε ότι τα εν λόγω λογισμικά έδιναν μεγαλύτερες πιθανότητες λάθους ως προς την ταυτοποίηση γυναικών και κυρίως έγχρωμων γυναικών. Μέχρι και σήμερα αποτελεί κοινό τόπο, πως όταν και όπου χρησιμοποιούνται βιομετρικά συστήματα είναι αρκετά δύσκολο να παραχθούν αποτελέσματα χωρίς την ύπαρξη κανενός σφάλματος. Αυτό μπορεί να οφείλεται, μεταξύ άλλων, σε διαφορές στο περιβάλλον (π.χ. φωτισμός) καθώς και στον χρησιμοποιούμενο εξοπλισμό.
Εξ όλων των προαναφερόμενων σαφώς συνάγεται, ότι εγείρονται αρκετά ζητήματα ως προς την προστασία της ιδιωτικής ζωής του ατόμου καθώς και των λοιπών θεμελιωδών δικαιωμάτων του στις δημοκρατικές κοινωνίες. Σήμερα δεν κάνουμε λόγο για μια απλή ταυτοποίηση δύο εικόνων αλλά για ένα ισχυρό εργαλείο παρακολούθησης και καταγραφής προσωπικών δεδομένων. Σε Ευρωπαϊκό επίπεδο, η Ευρωπαϊκή Ένωση έχει χαρακτηρίσει τα βιομετρικά δεδομένα ως ευαίσθητα δεδομένα, ρυθμίζοντας νομοθετικά την προστασία αυτών. Σημειωτέον, ότι τα βιομετρικά δεδομένα έχουν κατηγοριοποιηθεί ως ειδική κατηγορία δεδομένων καθώς αποτελούν μοναδικά χαρακτηριστικά ως προς την ταυτοποίηση και την εξακρίβωση των στοιχείων του ατόμου. Πιο συγκεκριμένα, στον Γενικό Κανονισμό για την Προστασία των Δεδομένων ορίζονται ως βιομετρικά δεδομένα, τα δεδομένα προσωπικού χαρακτήρα τα οποία προκύπτουν από τεχνική επεξεργασία συνδεόμενη με φυσικά, βιολογικά ή συμπεριφορικά χαρακτηριστικά του φυσικού προσώπου και τα οποία επιτρέπουν ή επιβεβαιώνουν την αδιαμφισβήτητη ταυτοποίηση του εν λόγω φυσικού προσώπου, όπως εικόνες προσώπου ή δακτυλοσκοπικά δεδομένα. Ειδικότερα, σύμφωνα με το άρθρο 9 του Γενικού Κανονισμού Προστασίας Δεδομένων Προσωπικού Χαρακτήρα απαγορεύεται η επεξεργασία βιομετρικών δεδομένων με εξαίρεση των περιπτώσεων που ρητά προβλέπονται από το νόμο. Επομένως, ο νόμος σε πρώτο στάδιο δεν αφήνει περιθώρια όσον αφορά την αθέμιτη επεξεργασία των δεδομένων αυτών, σε δεύτερο όμως στάδιο η εν λόγω απαγόρευση αίρεται. Η επεξεργασία αυτή καθίσταται ανεκτή, κατ’ ακολουθίαν, σε περιπτώσεις που το υποκείμενο έχει προηγουμένως παραχωρήσει ρητά την συγκατάθεση του ή εφόσον επιδιώκεται η επίτευξη δημοσίου συμφέροντος ή πληρείται κάποια από τις λοιπές προϋποθέσεις, σύμφωνα με τις προβλεπόμενες εξαιρέσεις, όπως λεπτομερώς απαριθμούνται στον Κανονισμό, σταθμίζοντας έτσι το δημόσιο με το ιδιωτικό συμφέρον. Ήδη, με τον με αριθμό 2252/2004 Κανονισμό του Συμβουλίου έχει καθιερωθεί η χρήση βιομετρικών στοιχείων στα διαβατήρια και τα ταξιδιωτικά έγγραφα. Επιπλέον, σύμφωνα με το αρ. 51 του Προοιμίου του ΓΚΠΔ, η επεξεργασία φωτογραφιών δεν θα πρέπει συστηματικά να θεωρείται ότι αποτελεί επεξεργασία ειδικών κατηγοριών δεδομένων προσωπικού χαρακτήρα καθώς αυτές καλύπτονται από τον ορισμό των βιομετρικών δεδομένων μόνο σε περίπτωση επεξεργασίας μέσω ειδικών τεχνικών μέσων που επιτρέπουν την αδιαμφισβήτητη ταυτοποίηση ή επαλήθευση της ταυτότητας ενός φυσικού προσώπου. Ως εκ τούτου, όταν η επεξεργασία εικόνων σκοπεύει στην αποκάλυψη πληροφοριών σχετικών με τη φυλή, την εθνότητα ή την υγεία, τότε θα πρέπει αυτομάτως να θεωρηθεί ότι αφορά ευαίσθητα δεδομένα. Συν τοις άλλοις, η προστασία των προσωπικών δεδομένων κατοχυρώνεται και στο άρθρο 8 της Ευρωπαϊκής Σύμβασης Δικαιωμάτων του Ανθρώπου, στο οποίο αναγνωρίζεται το δικαίωμα σεβασμού της ιδιωτικής και οικογενειακής ζωής, το οποίο παρέχει την αξίωση του ατόμου προς το κράτος να λαμβάνει μέτρα για την προστασία της ιδιωτικής του ζωής. Τέλος, η Ευρωπαϊκή Επιτροπή, το περασμένο έτος, δημοσίευσε white paper (λευκή βίβλο) για την τεχνητή νοημοσύνη, με τίτλο «Η ευρωπαϊκή προσέγγιση της αριστείας και της εμπιστοσύνης», όπου ρητώς αναφέρεται, ότι η χρήση εφαρμογών τεχνητής νοημοσύνης για σκοπούς βιομετρικής ταυτοποίησης και άλλων παρεμβατικών τεχνολογιών παρακολούθησης θα θεωρείται «υψηλού κινδύνου» και, ως εκ τούτου, θα ισχύουν πάντοτε ειδικότερες απαιτήσεις, όπως αυτές παρεντίθενται στη λευκή βίβλο, ώστε να εξασφαλίζεται με αυτόν τον τρόπο ότι κάθε ρυθμιστική παρέμβαση είναι εστιασμένη και αναλογική. Περαιτέρω, επισημαίνεται ότι ενδέχεται να απαιτηθούν προσαρμογές, επικαιροποιήσεις και αποσαφηνίσεις της υφιστάμενης νομοθεσίας, με σκοπό την δημιουργία κλίματος ασφάλειας δίκαιου και την εξάλειψη κινδύνων από την χρήση εφαρμογών τεχνητής νοημοσύνης και ειδικά βιομετρικών συστημάτων, όχι μόνο ως προς τα ενδιαφερόμενα άτομα αλλά και ως προς τις επιχειρήσεις που διαθέτουν στο εμπόριο εντός της Ευρωπαϊκής Ένωσης προϊόντα που περιλαμβάνουν τεχνητή νοημοσύνη.
Σε εθνικό επίπεδο πέρα από την ενσωμάτωση του ΓΚΠΔ και του άρθρου 8 της ΕΣΔΑ στην νομοθεσία μας, όπως προηγουμένως έγινε λόγος, το δικαίωμα προστασίας του ατόμου απέναντι στη συλλογή, αποθήκευση και επεξεργασία, με συμβατικό ή ηλεκτρονικό τρόπο, είναι καταχωρημένο και στο άρθρο 9 Α του Συντάγματος. Ανάλογές ρυθμίσεις εμπεριέχονταν και στις διατάξεις του προϊσχύοντος νόμου 2472/1997.
Καταλήγοντας, κανένας δεν μπορεί να αρνηθεί ότι η σωστή χρήση της τεχνολογίας αναγνώρισης προσώπου, όπως εκτεταμένα πλέον εφαρμόζεται από αρκετές χώρες, μπορεί να συμβάλλει θετικά σε διάφορες εκφάνσεις της ζωής μας. Από την άλλη, όμως, πλευρά η αλόγιστη χρήση της, εξυπηρετώντας οφέλη τρίτων (π.χ. κρατών, εμπορικές πρακτικές), μπορεί να έχει ως αποτέλεσμα την αλλοίωση των προσωπικών μας ελευθεριών και την καταπάτηση θεμελιωδών δικαιωμάτων. Επομένως νομοθετήματα όπως ο Γενικός Κανονισμός Προστασίας των Δεδομένων Προσωπικού Χαρακτήρα, μπορούν να είναι η απάντηση στο πρόβλημα και ως εκ τούτου στην εξεύρεση μιας ισορροπημένης λύσης.
- Λ. Μήτρου, Ο Γενικός Κανονισμός Προστασίας Προσωπικών Δεδομένων, 2017.
- Β. Σωτηρόπουλος, Υπεύθυνος Προστασίας Δεδομένων, 2η έκδοση 2019
- Μ. Χοΐδου, Ο καθορισμός του ύψους της χρηματικής ικανοποίησης λόγω ηθικής βλάβης, 2020.
- Φ. Παναγοπούλου-Κουτνατζή, Βιομετρικές μέθοδοι και προστασία ιδιωτικότητας: Σκέψεις με αφορμή την απόφαση ΔΕΕ Michael Schwarz κατά κρατιδίου Bochum (C-291/2012), ΔιΜΕΕ, 4/2013, σ.482.
- About Face: A Survey of Facial Recognition Evaluation, Inioluwa Deborah Raji, 2021
- 3 Key Considerations for GDPR Compliance with Facial Recognition Technology, Berggren Oy.
- Facial recognition: A solution in search of a problem?, Wojciech Wiewiórowski, 2019.
- This is how we lost control of our faces, Karen Hao, 2021.
- Ι. Ιγγλεζάκης, Το δικαίωμα στην ψηφιακή λήθη και οι περιορισμοί του, 2014 και Ι. Ιγγλεζάκης, Δίκαιο της πληροφορικής - Συμπλήρωμα, 2016.