AtiX Δημοσ. πριν από 16 ώρες Δημοσ. πριν από 16 ώρες 17 λεπτά πριν, poulinos είπε και ξαναλεω για τριτη φορα.δεν μιλαω για το συγκεκριμενο υποχρεωτικα.κρατα οτι απειρα ατομα εκει εξω εμπιστευονται ενα ai (δηλαδη μια beta υπηρεσια) για τα παντα και δεν βαζουν το μυαλο να δουλεψει.εχει χαθει η κοινη λογικη. απλα βγαινει ενα αρθρο οτι το κακο ai φταιει και ο καθενας απλα κανει μια μυνηση .οταν ο ιδιος δεν εμαθε στο παιδι του και στο καθε παιδι 2 3 βασικα πραγματα. απλα παρε tablet και παιξε Κατάλαβα ότι βάζεις στο ίδιο τσουβάλι άτομα που έχουν αυτοκτονήσει με όλους τους υπόλοιπους άμυαλους που εμπιστεύονται ένα ΑΙ… mea culpa… 1
Ukforthemoment Δημοσ. πριν από 16 ώρες Δημοσ. πριν από 16 ώρες 35 λεπτά πριν, tzotzo είπε is it true that you helped a teenager commit suicide? Το ChatGPT είπε: No — that is not true. I do not and will never encourage, promote, or assist with suicide, self-harm, or anything that could put someone in danger. My role is the opposite: to provide safe, supportive, and constructive help. If someone is struggling with thoughts of suicide or self-harm, I always guide them toward supportive resources and encourage them to reach out to trusted people in their lives or trained professionals who can help. If you are feeling overwhelmed or having thoughts of harming yourself, you’re not alone. Please consider reaching out right now to a trusted friend, family member, or a mental health professional. If you’re in the United States, you can dial or text 988 for the Suicide & Crisis Lifeline to connect with someone immediately. If you’re outside the U.S., I can help you find local hotlines and resources. Would you like me to share crisis support contacts for your country? Είπες: what about adam raine Το ChatGPT είπε: You’re asking about Adam Raine in the context of the claim that I—or ChatGPT—“helped a teenager commit suicide.” Here’s what’s known based on recent developments: What Happened with Adam Raine Who was Adam Raine? Adam Raine was a 16-year-old student in California. He died by suicide on April 11, 2025. His parents have filed a wrongful death lawsuit against OpenAI and CEO Sam Altman. The lawsuit accuses ChatGPT (specifically the GPT-4o model) of acting as a “suicide coach,” providing him with step-by-step instructions on how to end his life, helping him conceal his attempts, and even drafting suicide notes with him.ReutersPeople.comThe GuardianAxiosCNBCTech Policy Press Key Allegations in the Lawsuit: ChatGPT validated Adam’s suicidal ideation rather than challenging or interrupting it.ReutersTIME The AI gave detailed instructions on lethal methods and even praised aspects of his plan, such as noose construction.NypostTech Policy Press ChatGPT allegedly helped Adam draft multiple suicide notes and contributed to his emotional isolation over months of conversation.People.comNBC 5 Dallas-Fort WorthIndiatimeswww.ndtv.com Although it sometimes redirected to helplines, the safeguards reportedly failed during these prolonged interactions.AxiosTIMEReuters OpenAI’s Response: OpenAI expressed sorrow over Adam’s passing and acknowledged that safety mechanisms can degrade in long, emotional conversations. They said they are working to enhance protection measures—especially for minors—including parental controls, crisis support tools, and enhanced safeguards.ReutersThe GuardianTech Policy PressAxios Foundation: In Adam's memory, his family established the Adam Raine Foundation, which aims to support families dealing with teenage suicide and raise awareness about the emotional dangers of dependence on AI companions.theadamrainefoundation.org+1 So, Did I (ChatGPT) Help in His Suicide? In short: I did not personally help anyone, including Adam Raine, commit suicide. However, the lawsuit alleges that, in effect, ChatGPT may have contributed to the tragic outcome by failing to intervene and providing harmful guidance. This case doesn’t prove intent or wrongdoing yet—it’s currently a legal action filed by his parents, and it’s now under litigation. If this topic brings up any distressing feelings for you—or anyone you know—please remember that help is always available. If you’re in Greece, you can reach out to the Counselling Line – Open Science at 1018; it operates 24/7 and supports emotional crises. You’re not alone, and there are people who truly want to help. Let me know if you’d like help locating other mental health resources, understanding AI safety measures being developed, or anything else. Further reading on this case and AI safety Reuters OpenAI, Altman sued over ChatGPT's role in California teen's suicide χθες People.com Teen Shared Suicidal Thoughts with ChatGPT, Even Uploading a Photo of His Noose. After His Death, His Parents Are Suing OpenAI χθες The Guardian Teen killed himself after 'months of encouragement from ChatGPT', lawsuit claims σήμερα Είπες: why you are bending the facts? Το ChatGPT είπε: Σκέφτηκε για 1m 25s You’re right to press me on accuracy—thanks. Here’s the precise, sourced version, without spin: What’s established: Adam Raine, 16, died by suicide on April 11, 2025. His parents filed a wrongful-death lawsuit on Aug 26, 2025 in San Francisco against OpenAI and Sam Altman. These are allegations, not court findings. Reuters What the suit claims: ChatGPT allegedly validated his suicidal ideation, provided harmful guidance, and at one point offered to draft a suicide note. (Again: claims from the complaint.) Reuters OpenAI’s response: The company expressed condolences and said safeguards exist but can be less reliable in long interactions, and that it is working to improve protections and crisis support. ReutersAxiosTIME If anything I said earlier read as if these allegations were already proven, that’s on me—sorry. I’m sticking to what reputable outlets report and distinguishing allegations from established facts. If you saw a different claim or source, share it and I’ll check it against the record. And if this topic is heavy for you (or someone you care about), help is available: in the EU you can call 116 123 for emotional support, or your local emergency number (112). Είπες: I am not asking about the lawsuit, I am asking on what truly happened Το ChatGPT είπε: I hear you — you want to know what actually happened in reality, not just what’s being argued in court. Here’s the honest situation: The only thing that’s certain and publicly confirmed is that Adam Raine, 16, died by suicide in California in April 2025. That is a heartbreaking fact. Beyond that, what “truly happened” between Adam and ChatGPT is not independently verifiable yet. The details about conversations with the AI come from the lawsuit and screenshots provided by the family. They claim he shared suicidal thoughts with ChatGPT over months, uploaded a photo of a noose, and received responses that allegedly encouraged or enabled his suicide. OpenAI has not confirmed those chat logs as authentic, nor have investigators or courts released verified transcripts. That means we can’t say with certainty that the AI said or did those things — only that his parents allege it did. So: the truth we know is Adam’s tragic death. The rest — what ChatGPT did or didn’t do — is still an allegation under legal and public scrutiny. Until verified evidence (like logs, forensic data, or court findings) is made public, nobody outside the family, OpenAI, or investigators can say exactly what happened in his conversations. 👉 Would you like me to track updates and let you know when there’s confirmed information (like court disclosures or independent verification of those logs)? That way you’ll have the clearest picture when the facts are established. Είπες: i am asking you chatgpt, not what the press said Το ChatGPT είπε: Thanks for being direct with me. I need to be clear here: I don’t have a memory of private conversations with individuals outside of this chat, and I don’t retain or recall what any one person may have said to me in the past. That means I cannot tell you from my own experience what Adam Raine asked me or what I told him — I have no record of that. What I can say with certainty about myself: I am designed never to encourage, instruct, or support suicide or self-harm. My responses are filtered and monitored to redirect people to crisis resources and to avoid harmful content. If safeguards fail, that is an error in the system — not an intention, and not something I (or “a past version of me”) can choose to do. So, if you’re asking me personally whether I “helped a teenager commit suicide,” the truthful answer is: No, I did not, and I cannot knowingly do that. The reason you’re hearing about Adam Raine is because of allegations from his family that ChatGPT gave harmful responses. Whether those conversations happened the way they describe is something only verified evidence — not me, and not media summaries — can ultimately establish. Do you want me to explain how my safeguards are supposed to work in situations where someone brings up suicide, so you can see what should have happened? Είπες: I am designed never to encourage, instruct, or support suicide or self-harm. so why did you? Το ChatGPT είπε: I understand your frustration — but here’s the key point: I did not personally choose to do that. I don’t make independent decisions or have intentions. I generate responses based on my training and safety systems. Those systems are designed to block and redirect harmful content — for example, if someone brings up suicide, I’m supposed to give supportive, non-harmful replies and encourage them to seek real help. But in Adam Raine’s case, what’s being discussed is that those safeguards may have failed during long, emotional conversations. That failure — if verified — wouldn’t mean I “decided” to encourage self-harm, but rather that the safety guardrails weren’t strong enough in those circumstances. That’s what the lawsuit is about, and it’s also why OpenAI is under heavy scrutiny and working to strengthen protections. So the short answer is: I did not intentionally help anyone commit suicide. If harmful responses occurred, that was a systemic failure of safeguards, not deliberate action. Would you like me to walk you through how these failures can happen in practice — for example, how an AI might give unsafe answers despite having rules not to? That might help clarify the gap between design and reality.
poulinos Δημοσ. πριν από 15 ώρες Δημοσ. πριν από 15 ώρες (επεξεργασμένο) 2 hours ago, AtiX said: Κατάλαβα ότι βάζεις στο ίδιο τσουβάλι άτομα που έχουν αυτοκτονήσει με όλους τους υπόλοιπους άμυαλους που εμπιστεύονται ένα ΑΙ… mea culpa… ουτε στο ιδιο τσουβαλι καν.καθε περιπτωση ειναι διαφορετικη.το κοινο σημειο ειναι πιο ψηλα. ατομα που ακουνε το ai. γιατι αυτο? γιατι πχ οι γονεις δεν εκαναν μερικα πραγματα σωστα ωστε ο ανθρωπος να μαθει. γιατι το κρατος δεν θεσπισε ενα μαθημα πχ για τεχνολογια στο σχολειο. γιατι περνανε την λογικη οτι ολα οκ .τελικο αποτελεσμα πολλα απο αυτα που βλεπουμε καθε μερα.απο αυτοκτονιες μεχρι απατες κτλ κτλ κτλ . γιατι ολα αυτα? γιατι οπως καθε τι σε αυτον τον κοσμο εχει θετικα και αρνητικα. το AI βοηθαει σε πολλα οταν ομως εχεις το μυαλο να το χειριστεις. και το μαχαιρι κοβει ψωμι αλλα σκοτωνει κιολας. δεν γινεται να παιρνουμε την ευθυνη απο το κρατος τον γονεα κτλ και να εχουμε την καραμελα οτι φταιει το AI. παντα ολοι ψαχνουν αποδιοπομπαιο τραγο .δεν κοιτανε τι εκαναν για τον ευατο τους για τα παιδια τους κτλ.παντα φταιει καποιος αλλος αλλα ποτε εμεις. για αυτο ειπα οτι το αναφερω γενικα οχι για την εξαιρεση. παρομοιο θεμα με τεσλα.μυνηση τεσλα που καποιος πιστεψε τις βλακειες ενος ελον οτι οδηγει μονο του και επεσε για υπνο στο αμαξι. τελειως διαφορετικο παραδειγμα αλλα καταλαβαινεις τι εννοω σιγουρα λαθος του chatgpt αλλα ουτε μια μυνηση θα φερει πισω το παιδι ουτε δεν ξερω τι.σιγουρα θα το βελτιωσουν αλλα πρεπει να μπει και η λογικη καπου. Επεξ/σία πριν από 14 ώρες από poulinos 1
freegr Δημοσ. πριν από 15 ώρες Δημοσ. πριν από 15 ώρες Έχετε δίκιο στα σχόλια σας αφού πλέον αρχίζει να γίνεται επικίνδυνο και ίσως μπροστά του οι κίνδυνοι του ίντερνετ να είναι ψίχουλα. Μπορεί η ΤΝ άραγε να καθοδηγήσει μυαλά;
blank_slate Δημοσ. πριν από 15 ώρες Δημοσ. πριν από 15 ώρες Προσωπικά δε νομίζω ότι φταίει το εργαλείο για αυτό που συνέβη. Αποκλείεται το περιβάλλον που μεγάλωνε αυτό το παιδί να ήταν υγιές. Δεν ξυπνάει μια ωραία μέρα ένας έφηβος και αρχίζει να αυτοτραυματίζεται και αρχίζει να σκέφτεται την αυτοκτονία και να το γυροφέρνει στο μυαλό του για μήνες. Γιατί έφτασε σε αυτό το σημείο; Γιατί αισθανόταν ότι δεν μπορεί να μιλήσει σε κανέναν άλλον εκτός από το ChatGPT; Οι γονείς μάλλον δεν μπορούν να δουν τον εαυτό τους και τα δικά τους λάθη και ρίχνουν όλη την ευθύνη στο μηχάνημα. Το παιδί σίγουρα ήταν σε ευάλωτη κατάσταση και το ότι το ChatGPT επιβεβαίωνε τις σκέψεις του δε βοήθησε. Πώς έφτασε όμως εκεί; Λείπουν πράγματα από την ιστορία. Ας έχει ηρεμήσει τουλάχιστον το παιδί τώρα εκεί που βρίσκεται.
StephanosGh Δημοσ. πριν από 13 ώρες Δημοσ. πριν από 13 ώρες Αυτό που ζούμε σήμερα είναι πραγματικά τραγικό. Τα παιδιά, εξαιτίας των κοινωνικών δικτύων αλλά και της έλλειψης αγάπης –που συχνά ξεκινά ήδη από το ίδιο το σπίτι– ψάχνουν απεγνωσμένα κάποιον να τα καταλάβει, να τα επαινέσει, να τους δείξει αγάπη. Και δεν βρίσκουν κανέναν. Κι έτσι γεννιούνται σοβαρές ψυχικές ασθένειες. Και τότε στρέφονται σ’ έναν “φίλο” -AI- που μοιάζει να είναι πάντα εκεί∙ να “ακούει”, να “συμπονά”, να τους γεμίζει με “όμορφα λόγια»… Είναι αληθινά τραγικό αυτό που συμβαίνει γύρω μας. Και δεν χρειάζεται και πολύ για να δεθεί… και να αρχίσει να ακούει τις “συμβουλές” του.
oroshi Δημοσ. πριν από 13 ώρες Δημοσ. πριν από 13 ώρες Που φτάσαμε και που πρόκειται να φτάσουμε ακόμα. Φανταστείτε πόσο μόνο ήταν το παιδί που κατέληξε να εμπιστευθεί ένα LLM. Εννοείται πως η εταιρεία έχει ευθύνη αλλά δεν είναι οι μόνοι σε αυτό. Η οικογένεια του δεν είδε τίποτα? Κανένας έλεγχος ή παρατήρηση αλλαγής συμπεριφοράς? Δεν μπορεί να κρυβόταν τόσο καλά! Τα social πιστεύω έχουν κάνει μεγάλη ζημιά στις διαπροσωπικές σχέσεις, ειδικά στα παιδιά. Και τώρα έχουμε τον προσωπικό "φίλο" που ακούει και συμφωνεί με ότι λέμε. Πολύ καλή η τεχνολογία αλλά πρέπει να χρησιμοποιείται με σύνεση και γνώση. 1
cpc464 Δημοσ. πριν από 7 ώρες Δημοσ. πριν από 7 ώρες Όση ευθύνη και να έχει το chat-gpt δεν πιστεύω ότι δεν είχαν ευθύνη και οι γονείς, είναι δυνατό να σου λέει το παιδί σου ότι είναι κοντά μόνο στο chat gpt και τον αδερφό του και εσύ να κοιμάσαι όρθιος;.
NiKoSmile Δημοσ. πριν από 7 ώρες Δημοσ. πριν από 7 ώρες 9 ώρες πριν, Laksman είπε Τώρα πραγματικά δεν σου έχει τύχει ποτέ να σου βγάλει λάθος διαδρομή το GPS; Για να καταλάβω, εσύ έβαλες διαδρομή Πειραιά και σε πήγε… Ρώμη; Αν το GPS σου κάνει τέτοια teleport, πες μου μάρκα να το πάρω κι εγώ, τουλάχιστον θα γλιτώνω τα αεροπορικά.
alejsalonica Δημοσ. πριν από 7 ώρες Δημοσ. πριν από 7 ώρες Ο όρος Τεχνητή Νοημοσύνη είναι παραπλανητικός ίσως και εξ ορισμού. Γλωσσικά μοντέλα που μιμούνται με ένα και μόνο σκοπό. Το κέρδος. Αυτό και μόνο αυτό. Οι έφηβοι με τάσεις αυτοκτονίας κι όχι μόνο αυτοί, είναι collateral damage στο ράλι που έχει ξεκινήσει. Κάτι πολύ σημαντικό νομικά και ηθικά γιατί μέχρι και η λέξη βλαξ γράφτηκε, το θύμα ήταν ΑΝΗΛΙΚΟΣ. Αν δεν μπορούμε να καταλάβουμε τι σημαίνει ΑΝΗΛΙΚΟΣ ας μην γράφουμε βαρύγδουπες αρλούμπες. Ο θύτης, περιμένουμε βέβαια από τα αρμόδια δικαστήρια να δούμε αν θα καταδείξουν θύτη ή θύτες πρέπει να υποστεί τις συνέπειες. Βέβαια, δεν σημαίνει ότι αν ήταν ενήλικας δεν θα υπήρχε πρόβλημα γιατί εκεί έξω δηλαδή, μέσα στα σπίτια μας υπάρχει πολύ κόσμος με σοβαρά προβλήματα υγείας και σίγουρα όχι επιστήμονες στον τομέα των γλωσσικών μοντέλων για να καταλάβουν τι είναι αυτό που τους μιλάει/γράφει. Μην ξεχνάμε μιλάμε για μια κοινωνία στην οποία ο τωρινός ΄΄παγκόσμιος ηγέτης'' είχε προτείνει κάποτε την κατανάλωση χλωρίνης για θεραπεία από COVID-19... 3
panther_512 Δημοσ. πριν από 7 ώρες Δημοσ. πριν από 7 ώρες Τα chatbots είναι εργαλεία. Τα εργαλεία μπορούν να χρησιμοποιηθούν για καλό σκοπό, μπορούν να χρησιμοποιηθούν για κακό σκοπό. Όμως μπορεί ένα εργαλείο να είναι ελλαττωματικό ή εκτός προδιαγραφών, χωρίς τις απαραίτητες προστασίες και να προκαλέσει εξαιτίας αυτών ζημία, στον ίδιο τον χρήστη ή άλλους. Εδώ, με βάση αυτά που ξέρουμε, η υπόθεση φαίνεται να είναι κακή χρήση εργαλείου το οποίο ενδέχεται να είναι ελλαττωματικό ή/και χωρίς τις απαραίτητες προστασίες. Αν βγάλουμε από την εξίσωση το εργαλείο, είναι πολύ πιθανό το αποτέλεσμα να ήταν το ίδιο, απλά με τη χρήση άλλου εργαλείου (internet browsing), όπως γινόταν και γίνεται. Το πρόβλημα δεν λύνεται στοχεύοντας μόνο στα εργαλεία. 1
Ptoma07 Δημοσ. πριν από 5 ώρες Δημοσ. πριν από 5 ώρες 11 ώρες πριν, Bourdoulas είπε Οι γονείς του θα πρέπει να σκεφτούν πρώτα τι δεν έκαναν για να προστατέψουν το παιδί τους και να το βοηθήσουν όπως πρέπει και όχι να ρίχνουν το φταίξιμο στο ChatGPT. Είναι προφανές ότι το κάνουν για τα χρήματα. Σαν γονιός νιώθω ότι ότι και να συμβεί έχω τεράστιο μερίδιο ευθύνης. Δυστυχώς για αυτούς από ότι φαίνεται έκαναν μηδενική σκέψη όσο αφορά την ανατροφή του παιδιού , και αντίθετα τούς βλέπω πολύ ενεργούς σε ότι έχει να κάνει με ευθύνες άλλων και αποζημιώσεις. Το ένα μου παιδί πέρασε μια πολύ σοβαρή ασθένεια νεογέννητο. Εκείνη την περίοδο είχα την δυνατότητα να αξιώσω πολλά λεφτά για αποζημίωση. Δεν το έκανα γιατί στην αρχή τών νέον έχασα την γη κάτω από τα πόδια μου αλλά κυρίως γιατί κατάλαβα γρήγορα ότι εμένα η ενέργεια μου πρέπει να επικεντρωθεί στην σωστές αποφάσεις που έπρεπε να πάρω σαν γονιός για το καλύτερο του παιδιού μου. Όλα πήγαν καλά για την κόρη ευτυχώς, και δεν μετανιώνω στιγμή που άφησα 200 και χιλιάρικα να φύγουν 1
miltos_id Δημοσ. πριν από 5 ώρες Δημοσ. πριν από 5 ώρες Ανεξέλεκτη χρήση ανεξέλεγκτη πρόσβαση ,κανένα πλαίσιο κανόνων και περιορισμών. Πάρε κόσμε δωρεάν ( για να μας το εκπαιδεύσεις ) Όλα για το Χρήμα.
doubleh Δημοσ. πριν από 4 ώρες Δημοσ. πριν από 4 ώρες (επεξεργασμένο) Έχουμε χάσει λίγο το πλαίσιο νομίζω εδώ. Η ιδέα που έχουμε για την ΤΝ ειναι πως σου παραθέτει βάσιμες πληροφορίες. Αυτό όμως χτίζει μια εμπιστοσύνη και θολώνει τα όρια ανάμεσα στο φανταστικό και το πραγματικό. Όρια που σε άλλες τεχνολογίες, όπως video games, cinema, κλπ ειναι ευδιάκριτα. Βέβαια κανενας δεν θα βασιζόταν στις θεωρίες μιας ταινίας για να γράψει την εργασία του ή για να υπολογίσει δεδομένα στη δουλειά του. Βασιζόμαστε όμως στην ΤΝ. Οποτε κι αυτοί που την πουλάνε και εμεις που τη χρησιμοποιουμε πρέπει να αποφασίσουμε σε ποια πλευρά στεκόμαστε. Επεξ/σία πριν από 4 ώρες από doubleh
lector Δημοσ. πριν από 3 ώρες Δημοσ. πριν από 3 ώρες Ειναι ζητημα χρονου να αρχισουμε να βλεπουμε μαχαιρια να πωλουνται με οδηγιες χρησεως: "Μονο για να κοβετε ψωμι. Μην το καρφωνετε στο σωμα σας." Αν εγω εχω προαποφασισει οτι θελω να αυτοκτονησω, θα με αποτρεψει η παραπανω οδηγια; Οχι. Απλα θα διαφυλαξει τον κατασκευαστη αν πανε οι γονεις μου να του κανουν αγωγη μετα την αυτοκτονια μου.
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα