- Η Meta σχεδιάζει να επαναφέρει λειτουργία σάρωσης/αναγνώρισης προσώπου στα smart glasses που φτιάχνει με την EssilorLuxottica.
- Η λειτουργία φέρεται να αναγνωρίζει τόσο επαφές του χρήστη όσο και άτομα με δημόσια προφίλ, μέσω AI βοηθού.
- Οργανώσεις πολιτικών δικαιωμάτων προειδοποιούν για απειλή στην ανωνυμία στον δημόσιο χώρο και κινδύνους μαζικής επιτήρησης.
Η Meta θέλει να επαναφέρει την αναγνώριση προσώπου στα smart glasses
Η Meta σχεδιάζει την επανεισαγωγή μιας λειτουργίας σάρωσης προσώπου για τα smart glasses που κατασκευάζει σε συνεργασία με την EssilorLuxottica.
Όπως αναφέρει η New York Times, η νέα λειτουργία αναμένεται να επιτρέπει στους χρήστες να ταυτοποιούν πρόσωπα και να αντλούν πληροφορίες για αυτά μέσω ενός AI βοηθού.
Η λειτουργία δεν θα περιορίζεται μόνο στην αναγνώριση ανθρώπων με τους οποίους ο χρήστης είναι συνδεδεμένος στις πλατφόρμες της Meta, αλλά θα μπορεί επίσης να ταυτοποιεί άτομα που διαθέτουν δημόσια προφίλ.
Τα βιομετρικά δεδομένα (όπως τα πρότυπα προσώπου) θεωρούνται ιδιαίτερα ευαίσθητα και συνδέονται με αυξημένες απαιτήσεις συμμόρφωσης σε πολλές δικαιοδοσίες.
Γιατί η Meta το βλέπει ως ανταγωνιστικό πλεονέκτημα
Ο CEO της Meta, Mark Zuckerberg, φέρεται να αντιμετωπίζει αυτή τη δυνατότητα ως τρόπο διαφοροποίησης από ανταγωνιστές όπως η OpenAI και ως μέσο για να αυξηθεί η χρησιμότητα των smart glasses — για παράδειγμα, ως βοήθημα σε ανθρώπους με προβλήματα όρασης.
Πιθανά οφέλη (όπως τα παρουσιάζει η λογική του προϊόντος)
- Γρηγορότερη αναγνώριση ατόμων σε κοινωνικά/επαγγελματικά περιβάλλοντα.
- Άμεση πρόσβαση σε σχετικές πληροφορίες μέσω AI (π.χ. όνομα, συμφραζόμενα από δημόσια στοιχεία).
- Υποστήριξη προσβασιμότητας σε συγκεκριμένες περιπτώσεις χρήσης.
Πότε σκοπεύει να το λανσάρει η Meta (και τι δείχνει το εσωτερικό memo)
Σύμφωνα με τη Times, εσωτερικό σημείωμα υποδεικνύει ότι η Meta θέλει να δημοσιεύσει τη λειτουργία σε χρονική περίοδο όπου ένα «δυναμικό πολιτικό περιβάλλον» θα αποσπά την προσοχή των πιθανών επικριτών, ώστε αυτοί να μην επικεντρωθούν στη Meta.
Ο χρονισμός κυκλοφορίας που στοχεύει στη μείωση της δημόσιας κριτικής μπορεί να εντείνει την έλλειψη εμπιστοσύνης και να οδηγήσει σε ισχυρότερες αντιδράσεις όταν η λειτουργία γίνει ευρύτερα αντιληπτή.
Η ανωνυμία στον δημόσιο χώρο στο επίκεντρο
Οργανώσεις πολιτικών δικαιωμάτων στις ΗΠΑ έχουν ήδη προειδοποιήσει ότι μια τέτοια λειτουργία συνιστά μαζική απειλή για την ανωνυμία στον δημόσιο χώρο.
Η Meta έχει επίσης ιστορικό νομικών διενέξεων και έχει καταβάλει δισεκατομμύρια σε συμβιβασμούς, λόγω μη εξουσιοδοτημένης συλλογής βιομετρικών δεδομένων.
Το 2021, η Meta είχε σταματήσει μια προηγούμενη εκδοχή αναγνώρισης προσώπου για τα γυαλιά Ray-Ban, εξαιτίας ανησυχιών για την προστασία προσωπικών δεδομένων.
Εν τούτοις, σύμφωνα με ρεπορτάζ, το 2025 η εταιρεία φέρεται να χαλάρωσε εσωτερικές διαδικασίες ελέγχου πολιτικών ιδιωτικότητας, με στόχο να φέρνει προϊόντα στην αγορά γρηγορότερα.
Από τα smart glasses στα “Super-Sensing” γυαλιά
Παράλληλα, η Meta εργάζεται σε “Super-Sensing” γυαλιά, τα οποία θα μπορούν να έχουν τις κάμερές τους σε συνεχή λειτουργία, ώστε να καταγράφουν την καθημερινότητα του χρήστη και, για παράδειγμα, να του υπενθυμίζουν εργασίες όταν εμφανίζονται συνάδελφοι στο οπτικό πεδίο.
Η «συνεχής καταγραφή» αλλάζει τη συζήτηση από το “τι κάνει ο χρήστης” στο “τι υφίστανται οι τρίτοι” που απλώς περνούν από το κάδρο.
Η Ευρώπη και η κριτική για δυνατότητες επιτήρησης
Η αυτόματη αναγνώριση προσώπου στον δημόσιο χώρο είναι και στην ΕΕ ένα επαναλαμβανόμενο, αμφιλεγόμενο θέμα. Η κριτική εστιάζει στις δυνατότητες επιτήρησης που δημιουργούνται, ειδικά όταν τέτοιες τεχνολογίες γίνονται φορητές, διακριτικές και μαζικά διαθέσιμες.
Πίνακας: Τι γνωρίζουμε μέχρι τώρα
| Θέμα | Τι αναφέρεται | Γιατί έχει σημασία |
|---|---|---|
| Λειτουργία | Αναγνώριση/ταυτοποίηση προσώπων μέσω smart glasses | Μετατρέπει την κάμερα σε εργαλείο “αναζήτησης ανθρώπων” |
| Πηγές δεδομένων | Επαφές σε Meta πλατφόρμες + άτομα με δημόσια προφίλ | Επεκτείνει την εμβέλεια πέρα από τον κύκλο του χρήστη |
| Κίνητρο λανσαρίσματος | Ανταγωνισμός/χρησιμότητα + χρονισμός με πολιτική “απόσπαση προσοχής” | Εγείρει ερωτήματα για διαφάνεια και λογοδοσία |
| Ανησυχίες | Ανωνυμία δημόσιου χώρου, βιομετρικά δεδομένα, επιτήρηση | Αγγίζει θεμελιώδη δικαιώματα και κοινωνικούς κανόνες |
Πίνακας: Οφέλη vs Ρίσκα για τον χρήστη και την κοινωνία
| Διάσταση | Πιθανό όφελος | Πιθανό ρίσκο |
|---|---|---|
| Καθημερινότητα | Hands-free πρόσβαση σε πληροφορίες | Κανονικοποίηση «σάρωσης» τρίτων χωρίς συναίνεση |
| Ασφάλεια | Βοήθεια σε συγκεκριμένες ανάγκες (π.χ. προσβασιμότητα) | Κατάχρηση για παρενόχληση/στοχοποίηση |
| Κοινωνία | Νέα εργαλεία υποστήριξης/ενημέρωσης | Διάβρωση ανωνυμίας, αίσθημα μόνιμης επιτήρησης |
Επιπλέον ανάλυση και πρακτικές συμβουλές (εμπλουτισμένο περιεχόμενο)
Αν η αναγνώριση προσώπου περάσει από το στάδιο του πειραματισμού σε ευρεία διάθεση, η συζήτηση δεν θα είναι μόνο τεχνολογική, αλλά βαθιά κοινωνική: ποιοι κανόνες ισχύουν όταν μια συσκευή “βλέπει” και “θυμάται” περισσότερα από έναν άνθρωπο;
Για να αξιολογήσει κανείς ψύχραιμα το θέμα, βοηθά να ξεχωρίσει τρία επίπεδα: (α) το τι καταγράφει η κάμερα, (β) το τι εξάγει ο αλγόριθμος (π.χ. βιομετρικό αποτύπωμα/ταυτοποίηση) και (γ) το πού αποθηκεύονται/μεταφέρονται τα δεδομένα (συσκευή, cloud, τρίτοι πάροχοι).
Τι να προσέξουν οι χρήστες (checklist)
- Ρυθμίσεις ιδιωτικότητας: αναζητήστε επιλογές για απενεργοποίηση αναγνώρισης προσώπου, περιορισμό συλλογής διαγνωστικών και έλεγχο ιστορικού.
- Ενδείξεις καταγραφής: προτιμήστε συσκευές με σαφή οπτική/ηχητική ένδειξη όταν η κάμερα λειτουργεί.
- Λογαριασμοί και προφίλ: αν δεν θέλετε να είστε “εύκολα αναγνωρίσιμοι”, περιορίστε τη δημόσια προβολή φωτογραφιών προσώπου και στοιχείων ταυτότητας στα κοινωνικά δίκτυα.
- Χρήση σε ευαίσθητους χώρους: αποφύγετε τη χρήση σε σχολεία, ιατρεία, χώρους εργασίας ή σημεία όπου τρίτοι δεν μπορούν πρακτικά να συναινέσουν.
Τι να ζητούν οι πολίτες από τις εταιρείες (ελάχιστες εγγυήσεις)
- Διαφάνεια για το αν η ταυτοποίηση γίνεται τοπικά στη συσκευή ή σε servers.
- Ρητή συναίνεση (opt-in) και όχι ενεργοποίηση από προεπιλογή.
- Σαφή πολιτική διατήρησης (πόσο κρατούνται δεδομένα/καταγραφές και πώς διαγράφονται).
- Ανεξάρτητοι έλεγχοι για μεροληψία, σφάλματα ταυτοποίησης και ασφάλεια.
Τέλος, αξίζει να θυμόμαστε ότι η πρακτική επίπτωση δεν θα κριθεί μόνο από το “αν επιτρέπεται”, αλλά από το “πώς εφαρμόζεται”: ακόμη και μια χρήσιμη λειτουργία για προσβασιμότητα μπορεί να γίνει προβληματική αν ενσωματωθεί σε προϊόν μαζικής χρήσης χωρίς ισχυρά όρια.
Όσο πιο αόρατη γίνεται η τεχνολογία, τόσο μεγαλύτερη ανάγκη υπάρχει για κανόνες, κοινωνική συναίνεση και πραγματικό έλεγχο από τον χρήστη.
