Οι χρήστες του X που θέλουν, μέσω του Grok, να επεξεργάζονται
φωτογραφίες γυναικών ώστε να φαίνονται με μπικίνι, μπορούν πλέον
να το κάνουν μόνο ιδιωτικά ή δημόσια μόνο επί πληρωμή.
Το X περιορίζει τη δημόσια λειτουργία δημιουργίας εικόνων του Grok
στους Premium συνδρομητές, αφού η λειτουργία αυτή είχε προηγουμένως
καταχραστεί για παρενόχληση και εκφοβισμό.
Προσωρινοί περιορισμοί στην επεξεργασία εικόνων
Οι χρήστες που αξιοποιούν το chatbot Grok του X για να τροποποιούν
εικόνες, αντιμετωπίζουν προς το παρόν περιορισμούς στη χρήση.
«Η δημιουργία και η επεξεργασία εικόνων είναι αυτή τη στιγμή
περιορισμένες σε χρήστες που πληρώνουν», απαντά το Grok σε tweet
όταν οι χρήστες προσπαθούν να το κάνουν δημόσια.
Αυτό αφορά τις δημόσιες απαντήσεις του chatbot, δηλαδή εκείνες
που εμφανίζονται σε όλους και όχι μόνο στον ίδιο τον χρήστη.
Πως χρησιμοποιείται το Grok μέσα στο X
Το Grok μπορεί να χρησιμοποιηθεί με περισσότερους από έναν τρόπους
μέσα στην εφαρμογή, ανάλογα με το πώς επιλέγει ο χρήστης να το καλέσει.
- Ως ξεχωριστό chatbot μέσα στην εφαρμογή.
- Με αναφορά του @grok σε ένα tweet, ώστε να απαντήσει με δικό του tweet.
Στη δεύτερη περίπτωση, η απάντηση του Grok δημοσιεύεται ως tweet
και είναι δημόσια ορατή από οποιονδήποτε στο X.
Περιορισμός της δημόσιας λειτουργίας για Premium χρήστες
Αυτή η τελευταία λειτουργία περιορίζεται πλέον, ώστε να είναι διαθέσιμη
μόνο σε χρήστες με συνδρομή Premium.
Ωστόσο, αυτό δεν φαίνεται να λειτουργεί πάντα σωστά, γιατί σε ορισμένες
περιπτώσεις το Grok απαντά ακόμη και σε χρήστες με μπλε τικ ότι η
δημιουργία εικόνων δεν λειτουργεί όπως πρέπει.
Ιδιωτική χρήση χωρίς συνδρομή και ανησυχίες για κατάχρηση
Οι χρήστες χωρίς συνδρομή μπορούν ακόμη να χρησιμοποιούν το Grok
ιδιωτικά για να δημιουργούν εικόνες, συμπεριλαμβανομένων και φωτογραφιών
με μπικίνι.
Αυτό πιθανόν να είναι και ο λόγος που το X περιόρισε τη δημόσια λειτουργία,
καθώς νωρίτερα μέσα στην εβδομάδα η πλατφόρμα του Elon Musk δέχτηκε έντονη
κριτική επειδή ο Grok παρήγαγε deepfakes χωρίς ουσιαστικά εμπόδια.
Χρήστες του X το αξιοποίησαν μαζικά, κυρίως σε βάρος γυναικών,
που συνήθως δεν το είχαν ζητήσει και δεν είχαν δώσει συναίνεση.
Νωρίτερα μέσα στον μήνα, είχε επίσης φανεί ότι το Grok μπορούσε
εύκολα να δημιουργήσει υλικό ερωτικής κακοποίησης παιδιών.
Το X αναφέρει ότι πλέον αυτό είναι αδύνατο.
Νομικές και ηθικές προεκτάσεις της ιδιωτικής επεξεργασίας
Παρότι στις ιδιωτικές συνομιλίες παραμένει δυνατή η επεξεργασία
φωτογραφιών ανθρώπων, σε πολλές χώρες αυτό μπορεί να θεωρείται
παράνομο, ειδικά όταν το υλικό έχει ερωτικό χαρακτήρα.
Σχεδόν όλα τα chatbots έχουν περιορισμούς που καθιστούν αδύνατη
τη δημιουργία τέτοιου υλικού, όμως οι δωρεάν χρήστες μπορούν
ακόμη να παράγουν εικόνες, έστω και σε περιορισμένο βαθμό.
Επιπλέον πληροφορίες
Η διαφορά ανάμεσα στη δημόσια και την ιδιωτική δημιουργία εικόνων
δεν είναι μόνο τεχνική, αλλά κυρίως ζήτημα κινδύνου και διάδοσης.
Όταν το αποτέλεσμα δημοσιεύεται ως tweet, η εικόνα μπορεί να αναπαραχθεί
σε δευτερόλεπτα, να αποθηκευτεί, να αναδημοσιευτεί και να στοχοποιήσει
το άτομο που απεικονίζεται, ακόμη κι αν το αρχικό post διαγραφεί.
Αντίθετα, στην ιδιωτική χρήση ο άμεσος αντίκτυπος είναι μικρότερος,
όμως οι κίνδυνοι παραμένουν, επειδή ο χρήστης μπορεί να διαρρεύσει
το υλικό ή να το χρησιμοποιήσει για εκβιασμό και παρενόχληση.
Σε πρακτικό επίπεδο, τέτοιες πλατφόρμες προσπαθούν να μειώσουν
την κατάχρηση με συνδυασμό μέτρων, όπως έλεγχοι περιεχομένου,
φίλτρα για γυμνό ή ερωτικά υπονοούμενα και περιορισμούς πρόσβασης.
Ο περιορισμός σε συνδρομητές συχνά λειτουργεί ως «τριβή», γιατί
μειώνει την ανωνυμία και ανεβάζει το κόστος της μαζικής κατάχρησης,
χωρίς όμως να εξαφανίζει το πρόβλημα από μόνος του.
Από την πλευρά των χρηστών, χρήσιμο είναι να θυμόμαστε ότι η επεξεργασία
εικόνας χωρίς συναίνεση μπορεί να αγγίζει θέματα προσωπικών δεδομένων,
προσβολής προσωπικότητας και πιθανής δυσφήμησης, ανάλογα με τη χώρα.
Στην Ευρώπη, για παράδειγμα, το πλαίσιο προστασίας προσωπικών δεδομένων
(όπως ο GDPR) επηρεάζει το πώς συλλέγονται, επεξεργάζονται και
διακινούνται δεδομένα που συνδέονται με ταυτοποιήσιμα πρόσωπα. [1]
Επίσης, νέοι κανόνες για την τεχνητή νοημοσύνη στην ΕΕ στοχεύουν
στην ενίσχυση υποχρεώσεων διαφάνειας και διαχείρισης κινδύνων
για συγκεκριμένες χρήσεις συστημάτων AI. [2]
Αν κάποιος γίνει στόχος τέτοιου υλικού, συνήθως τα πιο αποτελεσματικά
βήματα είναι: καταγγελία στην πλατφόρμα, συλλογή αποδεικτικών στοιχείων
(σύνδεσμοι, screenshots, ημερομηνίες) και, όπου χρειάζεται, νομική συμβουλή.
Τέλος, για δημιουργούς εργαλείων και πλατφορμών, κρίσιμη θεωρείται
η αρχή «ασφάλεια εξ ορισμού», δηλαδή περιορισμοί που αποτρέπουν την
εκ των προτέρων παραγωγή υλικού μη συναινετικού ή εκβιαστικού.
