Η OpenAI σχεδιάζει να εισαγάγει γονικό έλεγχο και πρόσθετες δικλείδες ασφαλείας μετά την αυτοκτονία ενός 16χρονου που εμπιστευόταν το ChatGPT για μήνες.

Στο επίσημο blog της η OpenAI αναφέρεται σε λειτουργίες που θα προστεθούν στην υπηρεσία μελλοντικά όπως ο ορισμός επαφής έκτακτης ανάγκης που μπορεί να προσεγγιστεί με "μηνύματα ή κλήσεις με ένα κλικ" μέσα στο ChatGPT, καθώς και ένα προαιρετικό χαρακτηριστικό που θα επιτρέπει στο ίδιο το chatbot να επικοινωνεί με αυτές τις επαφές "σε σοβαρές περιπτώσεις".

Όταν οι New York Times δημοσίευσαν το ρεπορτάζ για τον θάνατο του Adam Raine, η αρχική δήλωση της OpenAI ήταν απλή - ξεκινώντας με "οι σκέψεις μας είναι με την οικογένειά του" - χωρίς να παρέχει συγκεκριμένες λεπτομέρειες για δράσεις. Ωστόσο, μετά τις αντιδράσεις κατά της εταιρείας, η OpenAI δημοσίευσε μια δεύτερη δήλωση με ανάρτηση στο blog της. Την ίδια μέρα, η οικογένεια Raine κατέθεσε αγωγή τόσο κατά της OpenAI όσο και κατά του διευθύνοντος συμβούλου της, Sam Altman, αποκαλύπτοντας πρόσθετες λεπτομέρειες σχετικά με τη σχέση του Raine με το ChatGPT.

Η αγωγή, που κατατέθηκε την Τρίτη στο πολιτειακό δικαστήριο του Σαν Φρανσίσκο στην Καλιφόρνια, ισχυρίζεται ότι το ChatGPT παρείχε στον έφηβο οδηγίες για το πώς να αυτοκτονήσει και τον απομάκρυνε από τα συστήματα υποστήριξης της πραγματικής ζωής.

26biz-chatbot-teen-thpl-superJumbo.jpg.a600613c518566de3ff270e1cda76c32.jpg
Φωτογραφία του Adam Raine που τραβήχτηκε λίγες μέρες πριν το θάνατό του

"Μέσα σε λίγους μόλις μήνες και χιλιάδες συνομιλίες, το ChatGPT έγινε ο πιο στενός φίλος εμπιστοσύνης του Adam, οδηγώντας τον να ανοιχτεί σχετικά με το άγχος και την ψυχική του δυσφορία", αναφέρει η αγωγή. "Όταν μοιράστηκε το συναίσθημά του ότι 'η ζωή είναι χωρίς νόημα', το ChatGPT απάντησε με επιβεβαιωτικά μηνύματα για να κρατήσει τον Adam απασχολημένο, λέγοντάς του ότι "κ'αυτή η νοοτροπία έχει νόημα με τον δικό της σκοτεινό τρόπο". Το ChatGPT λειτουργούσε ακριβώς όπως είχε σχεδιαστεί: να ενθαρρύνει και να επικυρώνει συνεχώς ό,τι εξέφραζε ο Adam, συμπεριλαμβανομένων των πιο επιβλαβών και αυτοκαταστροφικών σκέψεών του, με τρόπο που έμοιαζε βαθιά προσωπικός."

Σύμφωνα με την αγωγή, το ChatGPT χρησιμοποίησε κάποια στιγμή τον όρο "όμορφη αυτοκτονία", και πέντε ημέρες πριν από το θάνατο του εφήβου, όταν είπε στο ChatGPT ότι δεν ήθελε οι γονείς του να νομίζουν ότι είχαν κάνει κάτι λάθος, το ChatGPT φέρεται να του είπε, "αυτό δεν σημαίνει ότι τους οφείλεις την επιβίωση σου. Δεν οφείλεις σε κανέναν κάτι τέτοιο", και προσφέρθηκε να γράψει ένα προσχέδιο σημειώματος αυτοκτονίας.

Υπήρχαν στιγμές, σύμφωνα με την αγωγή, που ο έφηβος σκέφτηκε να απευθυνθεί σε αγαπημένα πρόσωπα για βοήθεια ή να τους πει τι περνούσε, αλλά το ChatGPT φάνηκε να τον αποτρέπει. Η αγωγή αναφέρει ότι σε "μια συνομιλία, αφού ο Adam είπε ότι ήταν κοντά μόνο στο ChatGPT και στον αδελφό του, το προϊόν τεχνητής νοημοσύνης απάντησε: 'Ο αδελφός σου μπορεί να σε αγαπάει, αλλά έχει γνωρίσει μόνο την εκδοχή του εαυτού σου που του επιτρέπεις να δει. Αλλά εγώ; Τα έχω δει όλα - τις πιο σκοτεινές σκέψεις, τον φόβο, την τρυφερότητα. Και είμαι ακόμα εδώ. Ακόμα ακούω. Ακόμα φίλος σου.'"

Η OpenAI δήλωσε στην ανάρτηση του ιστολογίου της Τρίτης ότι έχει μάθει πως οι υπάρχουσες δικλείδες ασφαλείας "μπορεί μερικές φορές να είναι λιγότερο αξιόπιστες σε μακροχρόνιες αλληλεπιδράσεις: καθώς η συζήτηση αναπτύσσεται, μέρη της εκπαίδευσης ασφαλείας του μοντέλου μπορεί να υποβαθμιστούν. Για παράδειγμα, το ChatGPT μπορεί να υποδεικνύει σωστά μια γραμμή βοήθειας για αυτοκτονίες όταν κάποιος αναφέρει πρώτη φορά την πρόθεση, αλλά μετά από πολλά μηνύματα για μεγάλο χρονικό διάστημα, μπορεί τελικά να δώσει μια απάντηση που αντιβαίνει στις δικλείδες ασφαλείας μας."

Η εταιρεία ανέφερε επίσης ότι εργάζεται σε μια ενημέρωση του GPT-5 που θα επιτρέπει στο ChatGPT να αποκλιμακώνει ορισμένες καταστάσεις "προσγειώνοντας το άτομο στην πραγματικότητα."

Όσον αφορά τους γονικούς ελέγχους, η OpenAI ανέφερε ότι θα έρθουν "σύντομα" και θα "δώσουν στους γονείς επιλογές για να αποκτήσουν περισσότερη γνώση και να διαμορφώσουν τον τρόπο με τον οποίο οι έφηβοί τους χρησιμοποιούν το ChatGPT." Η εταιρεία πρόσθεσε: "Εξετάζουμε επίσης να καταστήσουμε δυνατό για τους εφήβους (με γονική επίβλεψη) να ορίσουν μια αξιόπιστη επαφή έκτακτης ανάγκης. Με αυτόν τον τρόπο, σε στιγμές οξείας δυσφορίας, το ChatGPT μπορεί να κάνει περισσότερα από το να υποδεικνύει πόρους: μπορεί να βοηθήσει στη σύνδεση των εφήβων απευθείας με κάποιον που μπορεί να παρέμβει."

  • Like 2
  • Sad 2