Σύνταξη – επιμέλεια: Στέλιος Βασιλούδης

Οι εταιρείες τεχνΣύνταξη – επιμέλεια: Στέλιος Βασιλούδηςολογίας έχουν βαλθεί να παρακολουθούν τα συναισθήματά μας, τον τρόπο με τον οποίο περπατάμε και το φωνητικό μας αποτύπωμα. Πρέπει η Ευρώπη να απαγορεύσει πλήρως τη βιομετρική παρακολούθηση;

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

Το σώμα μας είναι ένα χρυσωρυχείο δεδομένων. Από τον τρόπο που κοιτάζουμε μέχρι το πώς σκεφτόμαστε και αισθανόμαστε, οι εταιρείες που εργάζονται στον ανθούντα κλάδο βιομετρικής αναπτύσσουν νέους και ανησυχητικούς τρόπους παρακολούθησης του τι κάνουμε. Σε πολλές περιπτώσεις δε, μπορεί να μην γνωρίζουμε καν ότι μας παρακολουθούν.

Ωστόσο, η επιχείρηση βιομετρίας βρίσκεται σε πορεία σύγκρουσης με τους κορυφαίους ειδικούς της Ευρώπης στην προστασία δεδομένων. Τόσο ο Ευρωπαίος Επόπτης Προστασίας Δεδομένων – ο οποίος ενεργεί ως ανεξάρτητος φορέας δεδομένων της ΕΕ – όσο και το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων, το οποίο βοηθά τις χώρες να εφαρμόζουν με συνέπεια την προστασία των βιομετρικών δεδομένων (GDPR), ζήτησαν πλήρη απαγόρευση της χρήσης τεχνητής νοημοσύνης (AI) για την αυτόματη αναγνώριση ατόμων.

ΔΙΑΦΗΜΙΣΤΙΚΟΣ ΧΩΡΟΣ

«Η ανάπτυξη εξ αποστάσεως βιομετρικής αναγνώρισης σε δημόσιους χώρους, σημαίνει το τέλος της ανωνυμίας σε αυτά τα μέρη», έγραψαν οι επικεφαλής των δύο φορέων, Andrea Jelinek και Wojciech Wiewiórowski, σε κοινή δήλωση τους στα τέλη Ιουνίου. Η AI δεν πρέπει να χρησιμοποιείται σε δημόσιους χώρους για αναγνώριση προσώπου, αναγνώριση βάδισης, δακτυλικά αποτυπώματα, DNA, φωνή, τρόπο πληκτρολόγησης και άλλων τύπων βιομετρικών στοιχείων, ανέφεραν. Θα πρέπει επίσης να απαγορευτεί η προσπάθεια πρόβλεψης της εθνικότητας, του φύλου, του πολιτικού ή του σεξουαλικού προσανατολισμού των ανθρώπων (με την χρήση AI).

Ωστόσο, τέτοιες απόψεις έρχονται αντιμέτωπες με τους προτεινόμενους κανονισμούς της ΕΕ για την AI. Οι κανόνες, που παρουσιάστηκαν τον Απρίλιο, αναφέρουν ότι «η εξ αποστάσεως βιομετρική ταυτοποίηση» είναι υψηλού κινδύνου – που σημαίνει ότι επιτρέπεται, αλλά αντιμετωπίζει αυστηρότερους ελέγχους από άλλες χρήσεις της AI. Οι πολιτικοί, σε ολόκληρη την ΕΕ, θα περάσουν χρόνια συζητώντας τους κανόνες της τεχνητής νοημοσύνης και η βιομετρική παρακολούθηση έχει ήδη γίνει ένα από τα πιο αμφιλεγόμενα ζητήματα. Όταν εγκριθούν, οι κανονισμοί θα καθορίσουν τον τρόπο παρακολούθησης εκατοντάδων εκατομμυρίων ανθρώπων για τις επόμενες δεκαετίες. Και η συζήτηση μόλις τώρα ξεκινά.

Η αναγνώριση προσώπου είναι αμφιλεγόμενη εδώ και χρόνια, αλλά η πραγματική έκρηξη της βιομετρίας στοχεύει σε άλλα μέρη του σώματός μας. Στα 27 κράτη μέλη της ΕΕ, ορισμένες εταιρείες αναπτύσσουν και εφαρμόζουν βιομετρικές τεχνολογίες που σε ορισμένες περιπτώσεις, στοχεύουν στην πρόβλεψη του φύλου και της εθνικότητας των ανθρώπων καθώς της αναγνώρισης των συναισθημάτων τους. Σε πολλές περιπτώσεις, η τεχνολογία χρησιμοποιείται ήδη στον πραγματικό κόσμο. Ωστόσο, η χρήση της τεχνητής νοημοσύνης για την πραγματοποίηση αυτών των ταξινομήσεων μπορεί να είναι επιστημονικά και ηθικά αμφίβολη. Τέτοιες τεχνολογίες κινδυνεύουν να εισβάλουν στο απόρρητο των ανθρώπων ή να κάνουν αυτόματα διακρίσεις εις βάρος τους.

Για παράδειγμα, το Herta Security και το VisionLabs είναι δύο εταιρείες που αναπτύσσουν τεχνολογία αναγνώρισης προσώπου για διάφορες χρήσεις και λένε ότι θα μπορούσε να χρησιμοποιηθεί από τις υπηρεσίες επιβολής του νόμου, λιανικής πώλησης και μεταφορών. Έγγραφα από την Herta Security, η οποία εδρεύει στη Βαρκελώνη, ισχυρίζονται ότι οι πελάτες της περιλαμβάνουν αστυνομικές δυνάμεις στη Γερμανία, την Ισπανία, την Ουρουγουάη, την Κολομβία, αθλητικά στάδια, εμπορικά κέντρα, αλυσίδες ξενοδοχείων όπως το Marriott και το Holiday Inn, αεροδρόμια και καζίνα.

Ωστόσο, παρατηρητές επισημαίνουν ότι τόσο η Herta Security όσο και η VisionLabs ισχυρίζονται ότι μέρος των συστημάτων τους μπορεί να χρησιμοποιηθεί για την παρακολούθηση ευαίσθητων χαρακτηριστικών. «Πολλά από τα  συστήματα, ακόμη και αυτά που χρησιμοποιούνται για την ταυτοποίηση ανθρώπων, βασίζονται στην λογική αυτών των δυνητικά πολύ επιβλαβών  ταξινομησεων και κατηγοριοποιήσεων», λέει η Ella Jakubowska, σύμβουλος πολιτικής που εξετάζει τη βιομετρική στην συμβουλευτική ομάδα European Digital Rights. Η ομάδα αγωνίζεται για την απαγόρευση της βιομετρικής παρακολούθησης σε όλη την Ευρώπη.

Το BioMarketing, εργαλείο για ανάλυση προσώπου της Herta Security, προωθείται σε καταστήματα και διαφημίζεται ως τρόπος για να μαζευτούν πληροφορίες για τους πελάτες τους  αλλά και να «εξάγουν» άλλα στοιχεία – όπως η ηλικία και το φύλο ενός ατόμου, αν φορούν γυαλιά, ακόμη και να παρακολουθήσουν τις εκφράσεις του προσώπου τους. Η Herta Security λέει ότι η τεχνολογία είναι «ιδανική» για την ανάπτυξη στοχευμένης διαφήμισης ή για να βοηθήσει τις εταιρείες να κατανοήσουν ποιοι είναι οι πελάτες τους. Το εργαλείο, ισχυρίζεται η εταιρεία, μπορεί επίσης να ταξινομήσει τους ανθρώπους ανά «εθνικότητα». Σύμφωνα με το GDPR, τα προσωπικά δεδομένα που αποκαλύπτουν «φυλετική ή εθνοτική καταγωγή» θεωρούνται ευαίσθητα, και υπόκεινται σε αυστηρούς ελέγχους σχετικά με τον τρόπο χρήσης τους.

Η Jakubowska λέει ότι αμφισβήτησε τον Διευθύνοντα Σύμβουλο της Herta Security σχετικά με τη χρήση της αναγνώρισης εθνικότητας πέρυσι και ότι έκτοτε η εταιρεία έχει αφαιρέσει τον ισχυρισμό από το υλικό του μάρκετινγκ της. Παραμένει, όμως, ασαφές εάν η δυνατότητα έχει αφαιρεθεί από το ίδιο το εργαλείο. Πάντως, εταιρικά έγγραφα που κοινοποιήθηκαν από τρίτους, εξακολουθούν να καταγράφουν την εθνικότητα ως ένα από τα χαρακτηριστικά που μπορούν να αναγνωριστούν με τη χρήση του BioMarketing. Έγγραφα της εταιρείας από το 2013 αναφέρουν ότι ανιχνεύει «φυλή», προτού ταξινομήσει σε εθνικότητα. Η Herta Security, έχει λάβει περισσότερα από 500.000 ευρώ σε χρηματοδότηση από την ΕΕ και έχει τιμηθεί με σφραγίδα αριστείας στην ΕΕ.

Η VisionLabs, η οποία εδρεύει στο Άμστερνταμ, λέει ότι ο «εκτιμητής εθνότητας» στοχεύει στον «προσδιορισμό της εθνικής ομάδας ή / και της φυλής ενός ατόμου». Ο ιστότοπός της ισχυρίζεται ότι είναι σε θέση να «διακρίνει» άτομα που είναι Ινδοί, Ασιάτες, Μαύροι ή Λευκοί. Όμως, τα αναλυτικά στοιχεία της πηγαίνουν βαθύτερα. Ο «εκτιμητής χαμόγελου» της μπορεί να προβλέψει «κλείσιμο του στόματος» και η τεχνολογία είναι επίσης σε θέση να πει εάν ένα άτομο δείχνει θυμό, αηδία, φόβο, ευτυχία, έκπληξη, θλίψη ή έχει ουδέτερη έκφραση. Το φύλο, η ηλικία, εάν οι άνθρωποι δίνουν προσοχή σε αντικείμενα και για πόσο χρόνο, αναφέρονται ως άλλες μετρήσεις που μπορούν να χρησιμοποιηθούν για να βοηθήσουν τους εμπόρους λιανικής να καταλάβουν ποιοί είναι οι πελάτες τους.

Εμπειρογνώμονες και ειδικοί της ηθικής δεοντολογίας της τεχνητής νοημοσύνης, έχουν τοποθετηθεί κατά της χρήσης των βιομετρικών στοιχείων για την πρόβλεψη του φύλου ή των  συναισθημάτων των ανθρώπων.

Αρκετές μελέτες πάντως, έχουν αμφισβητήσει το κατά πόσον μπορεί η AI να χρησιμοποιηθεί για την αναγνώριση συναισθημάτων και έχουν γίνει συγκρίσεις με τις ανακριβείς και μη  ευρέως αποδεκτές δοκιμές πολυγραφίας. Νωρίτερα φέτος, 175 σύλλογοι πολιτικών ελευθεριών και ακτιβιστές υπέγραψαν μια ανοιχτή επιστολή ζητώντας την απαγόρευση της βιομετρικής παρακολούθησης.

Η Jakubowska αναφέρει ότι η χρήση τέτοιων τεχνολογιών είναι πιθανό να είναι ασυμβίβαστη με τη θέση της ΕΕ για τα ανθρώπινα δικαιώματα. «Η ίδια η ιδέα ότι έχουμε μηχανές που προσπαθούν να μαντέψουν το φύλο μας και στη συνέχεια να πάρουν αποφάσεις που θα επηρεάσουν τη ζωή μας, είναι πραγματικά, πραγματικά ανησυχητική», λέει. «Είναι μόνο η κορυφή του παγόβουνου σχετικά με ολους τους διαφορετικούς τρόπους με τους οποίους το σώμα και οι συμπεριφορές μας υποβαθμίζονται σε στοιχεία δεδομένων και μεταφέρονται σε αυτές τις βιομετρικές βάσεις δεδομένων για τις οποίες συχνά δεν έχουμε ιδέα», προσθέτει.

«Η υιοθέτηση και τα επακόλουθα standards σε σχέση με την τεχνολογία αναγνώρισης προσώπου είναι ακόμη στα σπάργανα», λέει εκπρόσωπος της VisionLabs. Προσθέτει επίσης ότι «ενθαρρύνει» τη συζήτηση σχετικά με την προστασία της ασφάλειας των ανθρώπων και ότι οι περιπτώσεις χρήσης της δεν απαγορεύονται από το GDPR.

Η βιομετρική είναι μεγάλη επιχείρηση – και οι εφαρμογές της φτάνουν πολύ πέρα ​​από το μάρκετινγκ. Η τεχνολογία εκτείνεται από την αναγνώριση προσώπου και την επαλήθευση ταυτότητας, όπως το FaceID του iPhone και άλλες  τεχνολογίες αναγνώρισης δακτυλικών αποτυπωμάτων, σε πειραματικά συστήματα που προσπαθούν να επιβεβαιώσουν αν λέμε ψέματα με βάση την κίνηση των μυών του προσώπου μας. Μπορεί επίσης να περιλαμβάνει την εμφάνιση μας, το μοτίβο των φλεβών μας, τον τρόπο κίνησής μας, το DNA μας, την ταυτοποίηση της ίριδας και του σχήματος των αυτιών μας, τη γεωμετρία των δακτύλων και την αναγνώριση των χεριών. Εν ολίγοις, τα βιομετρικά στοιχεία μπορούν να μετρήσουν και να ποσοτικοποιήσουν αυτό που είμαστε.

Από τη μία πλευρά, η χρήση αυτής της τεχνολογίας μπορεί να βοηθήσει να κάνουμε τη ζωή μας πιο εύκολη και ενδεχομένως να μειώσουμε την απάτη. Από την άλλη όμως, μπορεί να είναι σοβαρά ανατριχιαστική και να εισαγάγει  διακρίσεις. Οι τραπεζικές κάρτες σαρώνουν δακτυλικά αποτυπώματα, τα αεροδρόμια χρησιμοποιούν αναγνώριση προσώπου και βιομετρικά στοιχεία για την ταυτοποίηση ατόμων, η αστυνομία στην Ελλάδα χρησιμοποιεί ζωντανή αναγνώριση προσώπου και η βρετανική αστυνομία φέρεται να πειραματίζεται με τεχνητή νοημοσύνη που μπορεί να ανιχνεύσει εάν οι άνθρωποι είναι στενοχωρημένοι ή θυμωμένοι.

Μέχρι τα μέσα της δεκαετίας του 2020 εκτιμάται ότι η παγκόσμια βιομηχανία βιομετρικής  θα έχει αξία 68,6 – 82,8 δις δολ, από 24 – 34 δις που είναι σήμερα. Ενώ η Κίνα και οι ΗΠΑ ηγούνται του κόσμου στη δημιουργία βιομετρικών τεχνολογιών, η ευρωπαϊκή αγορά αναπτύσσεται γρήγορα. Την τελευταία δεκαετία, τρία ερευνητικά προγράμματα της ΕΕ έχουν δώσει περισσότερα από 120 εκατ. ευρώ σε 196 ομάδες για την έρευνα βιομετρίας. Οι μεγάλες εταιρείες άμυνας και ασφάλειας αναπτύσσουν βιομετρικές τεχνολογίες, όπως και οι μικρές επιχειρήσεις.

Σύμφωνα με τους προτεινόμενους κανονισμούς AI της Ευρωπαϊκής Επιτροπής, όλα τα βιομετρικά συστήματα αναγνώρισης θεωρούνται υψηλού κινδύνου. Ωστόσο, παραμένει ασαφές εάν αυτή η προσέγγιση θα κρατήσει τους ανθρώπους ασφαλείς. Τα σχέδια δηλώνουν ότι οι δημιουργοί τεχνολογιών υψηλού κινδύνου θα πρέπει να περάσουν από μια σειρά σοβαρών ελέγχων, προτού η τεχνολογία τους μπορέσει να χρησιμοποιηθεί στον πραγματικό κόσμο. Αυτοί  περιλαμβάνουν τη χρήση συνόλων δεδομένων υψηλής ποιότητας και την ενημέρωση των ρυθμιστικών αρχών – αλλά και του κοινού – για το πώς λειτουργούν. Θα πρέπει επίσης να ολοκληρώσουν τις εκτιμήσεις κινδύνου για να βεβαιωθούν ότι έχουν «υψηλό επίπεδο ανθεκτικότητας, ασφάλειας και ακρίβειας».

Η Ευρωπαϊκή Ένωση Βιομετρικών, μια μη κερδοσκοπική ομάδα που συνεργάζεται με κυβερνήσεις, ΜΚΟ της βιομηχανίας βιομετρικών και άλλες, λέει ότι «υποστηρίζει τον σεβασμό των θεμελιωδών δικαιωμάτων στην Ευρωπαϊκή Ένωση» όταν πρόκειται για την ανάπτυξη νέων τεχνολογιών. «Εάν συγκεκριμένες βιομετρικές εφαρμογές, όπως η χρήση τους σε δημόσιους χώρους, θέτουν σε κίνδυνο τέτοια δικαιώματα ή καθιστούν αδύνατη την άσκηση θεμελιωδών δικαιωμάτων και ελευθεριών – όπως το δικαίωμα ελεύθερης κυκλοφορίας σε δημόσιους χώρους χωρίς παραίτηση από το δικαίωμα ανωνυμίας – μια τέτοια τεχνολογία δεν πρέπει να χρησιμοποιείται », λέει ο οργανισμός. Προσθέτει ότι πρέπει να υπάρχουν «ακριβείς οδηγίες και κανονισμοί» σχετικά με το που μπορούν και που δεν μπορούν να χρησιμοποιηθούν αυτές οι τεχνολογίες.

Όμως, ενώ οι ρυθμιστικές αρχές συζητούν αυτούς τους νόμους – συμπεριλαμβανομένου του κατά πόσον θα απαγορεύσουν πλήρως τη βιομετρική – η τεχνολογία διεισδύει όλο και περισσότερο στην καθημερινή μας ζωή. Οι επικριτές λένε ότι η ανάπτυξη της τεχνολογίας στερείται διαφάνειας και ότι λίγα είναι γνωστά για το ποιος τη χρησιμοποιεί, πότε και πώς.

«Έχουμε πολύ λίγες πληροφορίες σχετικά με το ποιες είναι οι εταιρείες και τους όρους με τους οποίους συλλέγουν, επεξεργάζονται, διατηρούν, μοιράζονται ή εξασφαλίζουν τις πιο προσωπικές μας πληροφορίες», λέει η Alexandra Pardal, εκτελεστική διευθύντρια της Δημοκρατικής Ακεραιότητας, μια ερευνητική οργάνωση που διερευνά τη χρήση βιομετρικών στην Ευρώπη. «Αυτό που γνωρίζουμε είναι ότι οι αστυνομικές δυνάμεις, οι δημόσιες αρχές, οι ιδιωτικές εταιρείες και τα άτομα συλλέγουν και χρησιμοποιούν βιομετρικά στοιχεία», προσθέτει.

Αυτή η έλλειψη διαφάνειας φαίνεται να ισχύει και στην χρηματοδότηση της βιομετρικής έρευνας, από την ΕΕ. Μεταξύ Σεπτεμβρίου του 2016 και Αυγούστου του 2019, το ταμείο καινοτομίας της ΕΕ, «Ορίζοντας 2020», υποστήριξε το iBorderCtrl, ένα project που στοχεύει  στη χρήση της βιομετρίας για την ταυτοποίηση και την ανάλυση των «μικρο-εκφράσεων» του προσώπου, προκειμένου να εντοπίσει αν κάποιος ψεύδεται. Δεκατρείς διαφορετικές εταιρείες ή ερευνητικές ομάδες συμμετείχαν στο έργο που είχε ως κύριο στόχο – όπως υποδηλώνει το όνομά του – να αναπτύξει την τεχνολογία για χρήση στα σύνορα της ΕΕ.

Παρόλο που το iBorderCtrl ισχυρίζεται ότι ότι τμήματα της δουλειάς του οδήγησαν σε «επιτυχημένα μοντέλα για μελλοντικά συστήματα», ανεξάρτητες αναφορές ισχυρίστηκαν ότι το AI δεν μπόρεσε να βρει αν οι άνθρωποι ψεύδονταν ή όχι. Αλλά, μεγάλο μέρος της έρευνας είναι μυστικό. Ο Patrick Breyer, πολιτικός του Πειρατικού Κόμματος στη Γερμανία και ευρωβουλευτής, μήνυσε την Ευρωπαϊκή Επιτροπή για μη δημοσίευση ντοκουμέντων σχετικά με ηθικά και νομικά ζητήματα του project. Τα δικαστήρια θα λάβουν την απόφαση τους μέσα στους επόμενους μήνες.

Ο Breyer, ο οποίος αντιτίθεται στη βιομετρική παρακολούθηση, λέει ότι η ΕΕ δεν πρέπει να χρηματοδοτεί έρευνα που μπορεί να αντιφάσκει με τις δικές της θέσεις για την προστασία των δεδομένων και τις διακρίσεις. «Είναι πραγματικά σκανδαλώδες το γεγονός ότι η ΕΕ βοηθά στην ανάπτυξη τεχνολογιών που θα βλάψουν τους ανθρώπους», λέει, επισημαίνοντας ότι τα συστήματα ανίχνευσης συναισθημάτων δοκιμάζονται στον πληθυσμό των Uyghur, στο Xinjiang της Κίνας.

Εως ότου θεσπιστεί νομοθεσία, ο Breyer ανησυχεί ότι η τεχνολογία μπορεί να έχει γίνει κοινής και ευρείας χρήσης. «Μόλις αναπτυχθούν, δεν υπάρχει τίποτα που να εμποδίζει τις εταιρείες να τις πουλήσουν στην ιδιωτική αγορά, ή ακόμα και εκτός ΕΕ, σε αυταρχικές κυβερνήσεις και δικτατορίες», προσθέτει. «Όλες αυτές οι τεχνολογίες θα έχουν την δυνατότητα να δημιουργήσουν ένα πανταχού παρόν σύστημα παρακολούθησης που θα μας ακολουθεί όπου κι αν πηγαίνουμε, ότι κι αν κάνουμε, ακόμη και για να μας αναφέρει για τη συμπεριφορά μας, αν αυτή είναι διαφορετική από ότι των άλλων», καταλήγει.

Πηγή: WIRED UK

σχόλια αναγνωστών
oδηγός χρήσης