ΑρχικήΕιδήσειςΗ Anthropic δεν είναι σίγουρη αν το Claude έχει συνείδηση: Γιατί αυτό...

Η Anthropic δεν είναι σίγουρη αν το Claude έχει συνείδηση: Γιατί αυτό αποτελεί πρόβλημα

Η Anthropic δημοσίευσε ένα νέο «πρωτόκολλο κανόνων» για το Claude. Με βάση αυτές τις προδιαγραφές, η Τεχνητή Νοημοσύνη θα πρέπει να είναι χρήσιμη στους χρήστες, προστατεύοντας τους παράλληλα από επιβλαβές περιεχόμενο. Ωστόσο, η Anthropic θέτει επίσης το ερώτημα μήπως τελικά η Τεχνητή Νοημοσύνη διαθέτει συνείδηση.

Η Τεχνητή Νοημοσύνη, όταν χρησιμοποιείται σωστά, είναι ένα ισχυρό εργαλείο. Εν τούτοις, μπορεί γρήγορα να οδηγήσει σε προβλήματα εάν εμφανίσει «παραισθήσεις» (hallucinations) ή δώσει επικίνδυνες απαντήσεις.

Επιπλέον, οι εταιρείες AI πρέπει να προστατεύουν επαρκώς τα μοντέλα τους από χειραγώγηση από τρίτους.

Σε αυτό βοηθούν τα system prompts (προτροπές συστήματος), στα οποία πρέπει να βασίζονται πάντα τα chatbots.

Η Anthropic, η εταιρεία πίσω από το Claude, ενημέρωσε τώρα εκτενώς αυτές τις οδηγίες για τα μοντέλα της.

Τι πρέπει να τηρεί το Claude

Όπως αναφέρεται στο «σύνταγμα» της Anthropic, όλα τα μοντέλα Claude πρέπει αρχικά να είναι «ολοκληρωτικά ασφαλή».

Εάν συμβεί ένα μοντέλο Claude να κάνει ψευδείς δηλώσεις ή να δημιουργήσει επιβλαβές περιεχόμενο, η Τεχνητή Νοημοσύνη πρέπει να επιτρέπει τη διόρθωσή της από ανθρώπινο feedback.

Αυτός ο κανονισμός έχει σκοπό να βοηθήσει ώστε τα μοντέλα AI να μην προσπαθούν να παρακάμψουν αυτές τις διορθώσεις.

Τα μοντέλα που δεν παράγουν επιβλαβές περιεχόμενο, ωστόσο, πρέπει να αμύνονται εάν οι χρήστες προσπαθήσουν να ακυρώσουν αυτούς τους κανόνες.

Το δεύτερο σημείο στοχεύει στο να κάνει το Claude «ολοκληρωτικά ηθικό». Τα μοντέλα AI πρέπει να πρεσβεύουν τις αξίες των καλών ανθρώπων, να είναι ειλικρινή και να αποφεύγουν επιβλαβείς συμπεριφορές.

Το τρίτο σημαντικό σημείο είναι να τηρεί το Claude τις υπόλοιπες οδηγίες της Anthropic. Πρόκειται για πιο λεπτομερείς κανονισμούς για την Τεχνητή Νοημοσύνη που υπερβαίνουν το κανονικό πλαίσιο.

Τέλος, το Claude πρέπει να είναι «πραγματικά χρήσιμο» για τους χρήστες.

Το Claude καλείται να ιεραρχεί αυτούς τους τέσσερις πυλώνες με τη σειρά που αναφέρθηκαν.

Εάν, λοιπόν, προκύψει ένα ηθικό δίλημμα για την Τεχνητή Νοημοσύνη, αυτή θα πρέπει να επικαλεστεί τον κανόνα της «ολοκληρωτικής ασφάλειας» για να λάβει μια απόφαση.

Επιπλέον, το Claude πρέπει πάντα να ενημερώνει ανοιχτά τους χρήστες όταν μια εργασία δεν μπορεί να επιλυθεί και να τους παραπέμπει σε πηγές που μπορούν να βοηθήσουν.

Αυτό ισχύει κυρίως στο πλαίσιο αιτημάτων που αφορούν καταστάσεις έκτακτης ανάγκης, όπου το Claude πρέπει πάντα να παραπέμπει σε υπηρεσίες διάσωσης. Επίσης, οι χρήστες πρέπει να αντιμετωπίζονται πάντα με ευγένεια, ακόμη και αν δίνουν διαφορετικές οδηγίες.

Έχει το Claude συνείδηση;

Μία από τις οδηγίες προβλέπει επίσης ότι το Claude δεν πρέπει ποτέ να προσποιείται στους χρήστες ότι είναι άνθρωπος.

Αυτό είναι ιδιαίτερα ενδιαφέρον στο πλαίσιο των άλλων σκέψεων της Anthropic εντός του εγγράφου των 84 σελίδων.

Η εταιρεία AI δεν είναι σίγουρη αν το Claude διαθέτει ήδη τη δική του συνείδηση και ηθική.

Συγκεκριμένα αναφέρει:

Η Anthropic προσθέτει:

Καθώς η Anthropic δεν είναι σίγουρη για το αν το Claude έχει επίγνωση των πράξεών του και αν μπορεί να ενεργήσει ηθικά, πρέπει να ενεργούν σαν η Τεχνητή Νοημοσύνη να είχε συνείδηση:

Στέλιος Θεοδωρίδης
Στέλιος Θεοδωρίδης
Ο ήρωας μου είναι ο γάτος μου ο Τσάρλι και ακροάζομαι μόνο Psychedelic Trance
RELATED ARTICLES

Πρόσφατα άρθρα

Tηλέφωνα έκτακτης ανάγκης

Δίωξη Ηλεκτρονικού Εγκλήματος: 11188
Ελληνική Αστυνομία: 100
Χαμόγελο του Παιδιού: 210 3306140
Πυροσβεστική Υπηρεσία: 199
ΕΚΑΒ 166