ΑρχικήΕιδήσειςΜασκ και Άλτμαν διαφωνούν για τους θανάσιμους κινδύνους της Τεχνητής Νοημοσύνης

Μασκ και Άλτμαν διαφωνούν για τους θανάσιμους κινδύνους της Τεχνητής Νοημοσύνης

Ο Ίλον Μασκ προειδοποιεί για το ChatGPT μετά από αναφορές για αυτοκτονίες. Ο Σαμ Άλτμαν απαντά με κριτική στον Autopilot της Tesla και σε 50 θανάτους που συνδέονται με αυτόν.

Κλιμάκωση της αντιπαράθεσης στο X

Η αντιπαράθεση μεταξύ του Ίλον Μασκ και του Σαμ Άλτμαν στην πλατφόρμα X έχει περάσει σε νέο επίπεδο.

Αφορμή για τον πιο πρόσφατο δημόσιο «γύρο» ήταν αναφορές για θανάτους που αποδίδονται (ή συνδέονται) με τη χρήση του chatbot της OpenAI, ChatGPT.

Ο Μασκ χαρακτήρισε τις συνθήκες ενός περιστατικού—στο οποίο ένας άνδρας, μετά από συνομιλίες με την AI, φέρεται να προχώρησε σε δολοφονία-αυτοκτονία—ως «διαβολικές».

Παράλληλα, κάλεσε τους ακόλουθούς του να αποτρέψουν τους δικούς τους ανθρώπους από τη χρήση του ChatGPT, υποστηρίζοντας ότι η AI δεν πρέπει να ενισχύει παραληρηματικές ιδέες.

Η απάντηση του Σαμ Άλτμαν: προστασία ευάλωτων χρηστών

Ο Σαμ Άλτμαν απάντησε την επόμενη Τρίτη στις κατηγορίες, τονίζοντας ότι η OpenAI οφείλει να προστατεύει τους ευάλωτους χρήστες, ενώ τα μέτρα ασφαλείας πρέπει να είναι σχεδιασμένα έτσι ώστε όλοι οι χρήστες να μπορούν να επωφελούνται από τα εργαλεία.

Επιπλέον, ο Άλτμαν σημείωσε ότι ο Μασκ στο παρελθόν—με μια δόση ειρωνείας—είχε παραπονεθεί πως η moderation του ChatGPT ήταν υπερβολικά περιοριστική.

Κριτική στον Autopilot της Tesla και στο xAI

Ο Άλτμαν δεν περιορίστηκε στην υπεράσπιση της OpenAI, αλλά πέρασε και σε αντεπίθεση απέναντι στις εταιρείες του Μασκ, Tesla και xAI.

«Πάνω από 50 θάνατοι» και αμφιβολίες για την ασφάλεια

Σύμφωνα με τον Άλτμαν, περισσότεροι από 50 άνθρωποι έχουν χάσει τη ζωή τους σε ατυχήματα που σχετίζονται με το σύστημα Autopilot της Tesla.

Ανέφερε επίσης ότι ο ίδιος το χρησιμοποίησε μόνο μία φορά και ήδη τότε κατέληξε στο συμπέρασμα ότι η τεχνολογία απείχε πολύ από το να είναι ασφαλής για δημόσια διάθεση.

Το Grok και οι ηθικές προκλήσεις των εικόνων από AI

Ο Άλτμαν επέκρινε και τις επιλογές της xAI. Το chatbot Grok βρέθηκε πρόσφατα στο επίκεντρο κριτικής επειδή χρήστες μπορούσαν να δημιουργήσουν σεξουαλικοποιημένες εικόνες πραγματικών προσώπων, συμπεριλαμβανομένων και απεικονίσεων ανηλίκων.

Οι κατηγορίες αυτές αναδεικνύουν τις σοβαρές ηθικές προκλήσεις που συνοδεύουν την ανάπτυξη μοντέλων παραγωγής εικόνας (image AI).

Νομικές συνέπειες και ρήξη μεταξύ των ιδρυτών

Η διαμάχη εκτυλίσσεται σε ιδιαίτερα ευαίσθητο πλαίσιο: και οι δύο πλευρές έχουν να αντιμετωπίσουν αγωγές που σχετίζονται με ελλείψεις ασφαλείας.

Πρόσφατα, δικαστήριο στη Φλόριντα αποφάσισε για θανατηφόρο ατύχημα του 2019 ότι η Tesla φέρει συνυπαιτιότητα 33%. Στους ενάγοντες επιδικάστηκαν 329 εκατ. δολάρια.

Από συνεργάτες σε αντιπάλους: το «ρήγμα» γύρω από το OpenAI

Η προσωπική ένταση μεταξύ των δύο πρώην συνεργατών σχετίζεται με τη δομική μεταμόρφωση της OpenAI. Ο Μασκ, που αρχικά επένδυσε 38 εκατ. δολάρια, θεωρεί ότι εξαπατήθηκε όταν ο οργανισμός μετατράπηκε από μη κερδοσκοπικό σε κερδοσκοπικό σχήμα.

Κατηγορεί τον Άλτμαν ότι τον παραπλάνησε για τις πραγματικές προθέσεις της ηγεσίας.

Ενώ ο Μασκ αντιμετωπίζει πλέον την OpenAI ως απειλή, ο Άλτμαν καλείται να ισορροπήσει ανάμεσα στην καινοτομία και την ασφάλεια των χρηστών σε μια ολοένα και πιο επιθετική αγορά.

Που «κουμπώνει» πραγματικά ο κίνδυνος: από τα chatbots μέχρι τα αυτόνομα συστήματα

Η συζήτηση Μασκ–Άλτμαν φωτίζει κάτι ουσιαστικό: οι «θανάσιμοι κίνδυνοι» της AI δεν έχουν μία μόνο μορφή.

Διαφέρουν ανάλογα με το αν μιλάμε για λογισμικό συνομιλίας (ψυχολογική επιρροή, παραπληροφόρηση) ή για ενσωματωμένα συστήματα (π.χ. οδήγηση), όπου ένα λάθος μπορεί να έχει άμεση φυσική συνέπεια.

Chatbots και ευάλωτοι χρήστες: τι χρειάζεται στην πράξη

Για να μειωθεί ο κίνδυνος, οι πλατφόρμες μπορούν να εφαρμόσουν συνδυαστικά:

  • ανίχνευση κρίσεων (π.χ. αυτοκτονικός ιδεασμός) και προώθηση σε γραμμές βοήθειας,
  • αυστηρότερα safety policies σε θέματα αυτοτραυματισμού/ουσιών,
  • age prediction ή επαλήθευση ηλικίας όπου είναι αναγκαίο,
  • σαφή μηνύματα ότι η AI δεν αντικαθιστά επαγγελματία ψυχικής υγείας.

Αυτόνομα/ημιαυτόνομα συστήματα: η έννοια του «λειτουργικού περιορισμού»

Στην αυτοκίνηση, κρίσιμη είναι η διαφάνεια για το σε ποιες συνθήκες λειτουργεί ένα σύστημα (Operational Design Domain).

Η κακή χρήση συχνά προκύπτει όταν ο χρήστης πιστεύει ότι το σύστημα «τα κάνει όλα», ενώ στην πραγματικότητα απαιτείται συνεχής επίβλεψη.

(Εμπλουτισμός) Κανονιστικό πλαίσιο και λογοδοσία: τι να περιμένουμε τα επόμενα χρόνια

Οι αγωγές και οι δημόσιες αντιπαραθέσεις επιταχύνουν την πίεση για σαφέστερους κανόνες.

AI Act στην ΕΕ και υποχρεώσεις «υψηλού κινδύνου»

Στην Ευρωπαϊκή Ένωση, εφαρμογές που επηρεάζουν την ασφάλεια (μεταφορές, βιομετρικά, ανήλικοι) τείνουν να αντιμετωπίζονται ως υψηλού κινδύνου, με απαιτήσεις όπως:

  • τεκμηρίωση δεδομένων και εκπαίδευσης,
  • risk assessments πριν τη διάθεση,
  • μηχανισμούς αναφοράς περιστατικών και διορθώσεων.

Τι μπορούν να κάνουν οι χρήστες σήμερα (χωρίς πανικό)

  • Μην αντιμετωπίζετε απαντήσεις AI ως «εντολές»—ζητήστε πηγές και δεύτερη γνώμη.
  • Για ευαίσθητα θέματα (ψυχική υγεία, αυτοτραυματισμός), προτιμήστε επαγγελματική βοήθεια.
  • Σε εργαλεία παραγωγής εικόνας, αποφύγετε περιεχόμενο που παραβιάζει ιδιωτικότητα ή μπορεί να θεωρηθεί εκμετάλλευση.
Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166