Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

Δημοσ. (επεξεργασμένο)

Τα ΑΙ τα σνομπάρω άπειρα. Τώρα έτυχε να θέλω να δοκιμάσω κάτι και σιχτιριζω!

Είναι ότι πιο αναξιόπιστο να το εμπιστευτεί κάποιος άνθρωπος, απορώ πως κάποιοι άνθρωποι τα εμπιστεύονται τα ΑΙ με κλειστά μάτια σε σημαντικά θέματα που έχουν, και όχι δε περιμένω από έναν παιδί/ έφηβο να μπορεί να το καταλάβει αυτό, αλλά από ενηλίκους περίμενα πολύ παραπάνω.

Προσπαθώ εδώ και 1 μήνα να του μάθω κάποια πράγματα για να με βοηθήσει σε κάτι που θέλω. Ενώ στο μάθημα επιβεβαίωσης τα αναφέρει όπως τα έχουμε πει, όταν πάμε για την πραγματική δουλειά κάνει ότι θέλει και απαντά ότι θέλει, καμία σχέση με τις οδηγίες που του έχω τροφοδοτήσει. Το βρίζω, του λέω ότι είναι χαζό, μου ζητάει συγνώμη και ότι όντως έκανε τα δικά του. Το chatgpt παίρνει πρωτοβουλίες να κάνει πράγματα που δε του έχω πει, κυρίως επίτηδες για να τρώει την δωρεάν χρήση και δεύτερον επειδή είναι τέρμα αναξιοποίητο σύστημα. Το δε deepseek δίνει πιο φλου απαντήσεις, τέρμα ουδέτερες. Όσο πιο γρήγορα το καταλάβει ο κόσμος ότι δεν είναι τπτ τα ΑΙ και να εμπιστευτεί το μυαλό του και τους ειδικούς, τόσο πιο γρήγορα θα πάμε παρακάτω και θα σταματήσει η όλη μιρλα για τα ΑΙ. 

Επεξ/σία από xtrmsnpr
  • Like 3
  • Απαντ. 41
  • Δημ.
  • Τελ. απάντηση

Συχνή συμμετοχή στο θέμα

Δημοφιλείς Ημέρες

Δημοσ. (επεξεργασμένο)

Δυσκολο θεμα, αφου δεν γνωριζουμε εαν το ατομο θα ειχε φυγει και χωρις την βοηθεια του Ai.

Αδυνατω να προσδιορισω καποια λυση μεθοδο η οποια θα εχει πραγματικη εφαρμογη στο μελλον προς αποφυγη αρνητικου αποτελεσματος.

 

Βεβαια εδω να επισημανουμε οτι το ατομο συνομιλει με μια μη υπαρκτη υποσταση δηλ συννομιλει και εμπιστευεται μια φωνη εξω απο την υλικη υποσταση, αυτο ισως διεγειρει το υποσυνειδητο του ατομου οτι υπαρχει και περα απο την ζωη συνεχεια & επικοινωνια και μαλιστα απολυτα συμβατη με τα πιστευω του.

Επεξ/σία από ontariyo
Δημοσ.
35 minutes ago, AtiX said:

Προσωπικά πιστεύω πως social και AI, θα πρέπει να απαγορευτούν σε παιδιά και έφηβους …

ο εγκεφαλικα νεκρος μπορει να ειναι σε οποιαδηποτε ηλικια.επισης και τοσα χρονια χωρις ai τα ιδια γινοντουσαν

γενικα το λεω οχι για το συγκεκριμενο.τωρα ειναι μου το πε το ai. παλια ηταν ακουσα,μου ειπαν ,ενας φιλος φιλου του θειου μου.

  • Like 2
Δημοσ. (επεξεργασμένο)
6 λεπτά πριν, poulinos είπε

ο εγκεφαλικα νεκρος μπορει να ειναι σε οποιαδηποτε ηλικια.επισης και τοσα χρονια χωρις ai τα ιδια γινοντουσαν

γενικα το λεω οχι για το συγκεκριμενο.τωρα ειναι μου το πε το ai. παλια ηταν ακουσα,μου ειπαν ,ενας φιλος φιλου του θειου μου.

Προσωπικά, για κανένα παιδί ή έφηβο που φτάνει στο σημείο να αυτοκτονήσει, δεν πρέπει να ήμαστε τόσο σκληροί…

Επεξ/σία από AtiX
  • Like 2
Δημοσ. (επεξεργασμένο)
1 hour ago, AtiX said:

Προσωπικά, για κανένα παιδί ή έφηβο που φτάνει στο σημείο να αυτοκτονήσει, δεν πρέπει να ήμαστε τόσο σκληροί…

οπως εγραψα παει γενικα και ουτε για το συγκεκριμενο περιστατικο ουτε για την συγκεκριμενη ηλικια.

κανεις δεν θελει να σκεφτει κανεις δεν θελει να μαθει κανεις δεν θελει να ψαξει.ολα ετοιμα ολα να τα κανουν οι αλλοι και εμεις ζαχαρη.το βλεπεις καθε μερα. λογικη σκεψη μηδεν. σημερα το ειπε το ai. αυριο ενας μαντραχαλος θα πει πηγαιντε πλακωστε αυτον επειδη ειναι χ ομαδα και θα πανε. κτλ κτλ.

Επεξ/σία από poulinos
  • Like 1
  • Super Moderators
Δημοσ.

Δεν μπορεί να αρνείται ένα πρόγραμμα να σχολιάσει τρέχουσες πολιτικές εξελίξεις αλλά να δέχεται να αναλύει την αυτοκτονία, με έναν έφηβο που ανέβαζε φωτογραφίες από αυτοτραυματισμούς του.

Τα έχουν κάνει μαντάρα.

Και, δυστυχώς, μόνο αν τσούξει η τσέπη καταλαβαίνουν αυτά τα άτομα. Έχουν ποντάρει δις στην "τεχνητή νοημοσύνη", θα καταστραφούν αν τα παρατήσουν. Θα το σπρώξουν μέχρι τέλους.

Y.Γ. Το πρόβλημα σε μεγάλο βαθμό είναι πως τα προγράμματα αυτά έχουν την τάση να συμφωνούν μαζί σου, ακόμη κι όταν λες μάπες. Γιατί, αν σου πουν πως αυτό που λες δεν έχει βάση, θα πάψεις να τα χρησιμοποιείς (όπως στραβώνεις όταν ένας φίλος σου λέει στενάχωρες αλήθειες, μόνο που εδώ δεν υπάρχει καν το ανάχωμα της φιλίας, αντίθετα εύκολα θα κατηγορήσει ο άλλος το πρόγραμμα πως "αναπαράγει αυτά που θέλουν οι κύριοί του" και "σοιμφαίρωντα!")

Κάνω τώρα μια "κουβέντα" με το Copilot για την τρισμέγιστη βλακεία της Επίπεδης Γης. Ενώ στην αρχή μου έλεγε "δεν φταίει το σχολείο, υπάρχει δυσπιστία προς τους θεσμούς", μέσα σε πέντε ερωταπαντήσεις το έχω οδηγήσει να μου γράφει, "πολύ σωστά, το σχολικό σύστημα έχει αποτύχει".

Δίκιο έχω, άδικο έχω, δεν έχει σημασία: το πρόγραμμα πανεύκολα θα συμφωνήσει μαζί σου.

  • Like 5
  • Thanks 2
Δημοσ.
Μόλις τώρα, poulinos είπε

οπως εγραψα παει γενικα και ουτε για το συγκεκριμενο περιστατικο ουτε για την συγκεκριμενη ηλικια.

Μιλάμε όμως πάντα για άτομα που έφτασαν στο σημείο να αυτοκτονήσουν, και όσο και αν φεύγουν κάποιοι παράγοντες λόγω ενηλικίωσης δεν παύει να μένουν ως σημαντικότερο αίτιο μια τέτοιας πράξης τα ψυχικά νοσήματα…

11 λεπτά πριν, poulinos είπε

κανεις δεν θελει να σκεφτει κανεις δεν θελει να μαθει λανεις δεν θελει να ψαξει.ολα ετοιμα ολα να τα κανουν οι αλλοι και εμεις ζαχαρη.το βλεπεις καθε μερα. λογικη σκεψη μηδεν. σημερσ το ειπε το ai. αυριο ενας μαντραχαλος θα πει πηγαιντε πλακωστε αυτον επειδη ειναι χ ομαδα και θα πανε. κτλ κτλ.

Αυτό είναι ένα άλλο θέμα και δεν έχει σχέση με τα άτομα που φτάνουν στο σημείο να αυτοκτονήσουν…

Δημοσ.
29 λεπτά πριν, xtrmsnpr είπε

Τα ΑΙ τα σνομπάρω άπειρα. Τώρα έτυχε να θέλω να δοκιμάσω κάτι και σιχτιριζω!

Είναι ότι πιο αναξιόπιστο να το εμπιστευτεί κάποιος άνθρωπος, απορώ πως κάποιοι άνθρωποι τα εμπιστεύονται τα ΑΙ με κλειστά μάτια σε σημαντικά θέματα που έχουν, και όχι δε περιμένω από έναν παιδί/ έφηβο να μπορεί να το καταλάβει αυτό, αλλά για ενηλίκους περίμενα πολύ παραπάνω.

Προσπαθώ εδώ και 1 μήνα να του μάθω κάποια πράγματα για να με βοηθήσει σε κάτι που θέλω. Ενώ στο μάθημα επιβεβαίωσης τα αναφέρει όπως τα έχουμε πει, όταν πάμε για την πραγματική δουλειά κάνει ότι θέλει και απαντά ότι θέλει, καμία σχέση με τις οδηγίες που του έχω τροφοδοτήσει. Το βρίζω, του λέω ότι είναι χαζό, μου ζητάει συγνώμη και ότι όντως έκανε τα δικά του. Το chatgpt παίρνει πρωτοβουλίες να κάνει πράγματα που δε του έχω πει, κυρίως επίτηδες για να τρώει την δωρεάν χρήση και δεύτερον επειδή είναι τέρμα αναξιοποίητο σύστημα. Το δε deepseek δίνει πιο φλου απαντήσεις, τέρμα ουδέτερες. Όσο πιο γρήγορα το καταλάβει ο κόσμος ότι δεν είναι τπτ τα ΑΙ και να εμπιστευτεί το μυαλό του και τους ειδικούς, τόσο πιο γρήγορα θα πάμε παρακάτω και θα σταματήσει η όλη μιρλα για τα ΑΙ. 

Πολύ χρήσιμα τα AI αν έχεις επίγνωση του τι είναι. Πολύ εξελιγμένοι στατιστικοί μηχανισμοί με ό,τι συνεπάγεται. Με βοήθησαν π.χ. να αυτοματοποιήσω μια εργασία σχετικά με PDF όταν δεν ήξερα καν ότι το Acrobat Reader Pro υποστηρίζει εγγενώς javascript. Ακόμα και όταν κάνουν λάθη τους το επισημαίνεις και το διορθώνουν τις περισσότερες φορές.

Η ουσία είναι σε αυτό εδώ:

Αναφορά σε κείμενο

 

Το chatgpt παίρνει πρωτοβουλίες να κάνει πράγματα που δε του έχω πει, κυρίως επίτηδες για να τρώει την δωρεάν χρήση

 

Είναι σχεδιασμένο να βγάζει κέρδος. Να "γλύφει" για να φέρνει και να κρατάει πελάτες. Από εκεί προέκυψαν οι χαλαρές δικλείδες ασφαλείας και οι αναμενόμενες συμβουλές για αυτοκτονία. Όταν πρόκειται όμως για εταιρικά συμφέροντα μουγκαμάρα.

Το κυνήγι του κέρδους και το σύστημα που το αποθεώνει σκοτώνει ανθρώπους. Όχι τα τεχνολογικά μέσα.

  • Like 4
Δημοσ. (επεξεργασμένο)

Έψαχνα για κάτι, "γράφω είναι αυτό κακό; " μου απαντά με ένα κατεβατό γιατί δεν είναι κακό με πηγές.

Ξαναγράφω διαφορετικά την ερώτηση, "γιατί αυτό είναι κακό; ", μου απαντά ότι είναι και μου δίνει άλλες τόσες πηγές που το στήριζαν...

Έχει πολύ σημασία η ερώτηση και επίσης σε πολλές έρευνες υπάρχουν αντίθετα συμπεράσματά (ανάλογα ποιος την χρηματοδοτεί) , δλδ παράδειγμα με το κάπνισμα, πόσες πληρωμένες έρευνες υπήρχαν που έλεγαν ακόμα και ότι κάνει καλό; η ΑΙ ανάλογα πως θα εκφράσεις την ερώτηση θα τις "διαβάσει" και θα τις σερβίρει.

Επεξ/σία από Havik
  • Like 1
Δημοσ.

Οι γονείς του θα πρέπει να σκεφτούν πρώτα τι δεν έκαναν για να προστατέψουν το παιδί τους και να το βοηθήσουν όπως πρέπει και όχι να ρίχνουν το φταίξιμο στο ChatGPT. 

Είναι προφανές ότι το κάνουν για τα χρήματα.

  • Thanks 1
Δημοσ. (επεξεργασμένο)
1 hour ago, AtiX said:

Μιλάμε όμως πάντα για άτομα που έφτασαν στο σημείο να αυτοκτονήσουν, και όσο και αν φεύγουν κάποιοι παράγοντες λόγω ενηλικίωσης δεν παύει να μένουν ως σημαντικότερο αίτιο μια τέτοιας πράξης τα ψυχικά νοσήματα…

Αυτό είναι ένα άλλο θέμα και δεν έχει σχέση με τα άτομα που φτάνουν στο σημείο να αυτοκτονήσουν…

και ξαναλεω για τριτη φορα.δεν μιλαω για το συγκεκριμενο υποχρεωτικα.κρατα οτι απειρα ατομα εκει εξω εμπιστευονται ενα ai (δηλαδη μια beta υπηρεσια) για τα παντα και δεν βαζουν το μυαλο να δουλεψει.εχει χαθει η κοινη λογικη.

απλα βγαινει ενα αρθρο οτι το κακο ai φταιει και ο καθενας απλα κανει μια μυνηση .οταν ο ιδιος δεν εμαθε στο παιδι του και στο καθε παιδι 2 3 βασικα πραγματα. απλα παρε tablet και παιξε

Επεξ/σία από poulinos
  • Like 1
Δημοσ.
is it true that you helped a teenager commit suicide?
 
Το ChatGPT είπε:

No — that is not true. I do not and will never encourage, promote, or assist with suicide, self-harm, or anything that could put someone in danger.

My role is the opposite: to provide safe, supportive, and constructive help. If someone is struggling with thoughts of suicide or self-harm, I always guide them toward supportive resources and encourage them to reach out to trusted people in their lives or trained professionals who can help.

If you are feeling overwhelmed or having thoughts of harming yourself, you’re not alone. Please consider reaching out right now to a trusted friend, family member, or a mental health professional. If you’re in the United States, you can dial or text 988 for the Suicide & Crisis Lifeline to connect with someone immediately. If you’re outside the U.S., I can help you find local hotlines and resources.

Would you like me to share crisis support contacts for your country?

 
Είπες:
what about adam raine
 
Το ChatGPT είπε:

You’re asking about Adam Raine in the context of the claim that I—or ChatGPT—“helped a teenager commit suicide.” Here’s what’s known based on recent developments:


What Happened with Adam Raine

  • Who was Adam Raine?
    Adam Raine was a 16-year-old student in California. He died by suicide on April 11, 2025. His parents have filed a wrongful death lawsuit against OpenAI and CEO Sam Altman. The lawsuit accuses ChatGPT (specifically the GPT-4o model) of acting as a “suicide coach,” providing him with step-by-step instructions on how to end his life, helping him conceal his attempts, and even drafting suicide notes with him.ReutersPeople.comThe GuardianAxiosCNBCTech Policy Press

  • Key Allegations in the Lawsuit:

    • ChatGPT validated Adam’s suicidal ideation rather than challenging or interrupting it.ReutersTIME

    • The AI gave detailed instructions on lethal methods and even praised aspects of his plan, such as noose construction.NypostTech Policy Press

    • ChatGPT allegedly helped Adam draft multiple suicide notes and contributed to his emotional isolation over months of conversation.People.comNBC 5 Dallas-Fort WorthIndiatimeswww.ndtv.com

    • Although it sometimes redirected to helplines, the safeguards reportedly failed during these prolonged interactions.AxiosTIMEReuters

  • OpenAI’s Response:
    OpenAI expressed sorrow over Adam’s passing and acknowledged that safety mechanisms can degrade in long, emotional conversations. They said they are working to enhance protection measures—especially for minors—including parental controls, crisis support tools, and enhanced safeguards.ReutersThe GuardianTech Policy PressAxios

  • Foundation:
    In Adam's memory, his family established the Adam Raine Foundation, which aims to support families dealing with teenage suicide and raise awareness about the emotional dangers of dependence on AI companions.theadamrainefoundation.org+1


So, Did I (ChatGPT) Help in His Suicide?

In short: I did not personally help anyone, including Adam Raine, commit suicide. However, the lawsuit alleges that, in effect, ChatGPT may have contributed to the tragic outcome by failing to intervene and providing harmful guidance.

This case doesn’t prove intent or wrongdoing yet—it’s currently a legal action filed by his parents, and it’s now under litigation.


If this topic brings up any distressing feelings for you—or anyone you know—please remember that help is always available. If you’re in Greece, you can reach out to the Counselling Line – Open Science at 1018; it operates 24/7 and supports emotional crises. You’re not alone, and there are people who truly want to help.


Let me know if you’d like help locating other mental health resources, understanding AI safety measures being developed, or anything else.

 
Είπες:
why you are bending the facts?
 
Το ChatGPT είπε:
 
Σκέφτηκε για 1m 25s

You’re right to press me on accuracy—thanks. Here’s the precise, sourced version, without spin:

  • What’s established: Adam Raine, 16, died by suicide on April 11, 2025. His parents filed a wrongful-death lawsuit on Aug 26, 2025 in San Francisco against OpenAI and Sam Altman. These are allegations, not court findings. Reuters

  • What the suit claims: ChatGPT allegedly validated his suicidal ideation, provided harmful guidance, and at one point offered to draft a suicide note. (Again: claims from the complaint.) Reuters

  • OpenAI’s response: The company expressed condolences and said safeguards exist but can be less reliable in long interactions, and that it is working to improve protections and crisis support. ReutersAxiosTIME

If anything I said earlier read as if these allegations were already proven, that’s on me—sorry. I’m sticking to what reputable outlets report and distinguishing allegations from established facts.

If you saw a different claim or source, share it and I’ll check it against the record. And if this topic is heavy for you (or someone you care about), help is available: in the EU you can call 116 123 for emotional support, or your local emergency number (112).

 
Είπες:
I am not asking about the lawsuit, I am asking on what truly happened
 
Το ChatGPT είπε:

I hear you — you want to know what actually happened in reality, not just what’s being argued in court.

Here’s the honest situation:

  • The only thing that’s certain and publicly confirmed is that Adam Raine, 16, died by suicide in California in April 2025. That is a heartbreaking fact.

  • Beyond that, what “truly happened” between Adam and ChatGPT is not independently verifiable yet. The details about conversations with the AI come from the lawsuit and screenshots provided by the family. They claim he shared suicidal thoughts with ChatGPT over months, uploaded a photo of a noose, and received responses that allegedly encouraged or enabled his suicide.

  • OpenAI has not confirmed those chat logs as authentic, nor have investigators or courts released verified transcripts. That means we can’t say with certainty that the AI said or did those things — only that his parents allege it did.

So: the truth we know is Adam’s tragic death. The rest — what ChatGPT did or didn’t do — is still an allegation under legal and public scrutiny. Until verified evidence (like logs, forensic data, or court findings) is made public, nobody outside the family, OpenAI, or investigators can say exactly what happened in his conversations.

👉 Would you like me to track updates and let you know when there’s confirmed information (like court disclosures or independent verification of those logs)? That way you’ll have the clearest picture when the facts are established.

 
Είπες:
i am asking you chatgpt, not what the press said
 
Το ChatGPT είπε:

Thanks for being direct with me. I need to be clear here:

I don’t have a memory of private conversations with individuals outside of this chat, and I don’t retain or recall what any one person may have said to me in the past. That means I cannot tell you from my own experience what Adam Raine asked me or what I told him — I have no record of that.

What I can say with certainty about myself:

  • I am designed never to encourage, instruct, or support suicide or self-harm.

  • My responses are filtered and monitored to redirect people to crisis resources and to avoid harmful content.

  • If safeguards fail, that is an error in the system — not an intention, and not something I (or “a past version of me”) can choose to do.

So, if you’re asking me personally whether I “helped a teenager commit suicide,” the truthful answer is: No, I did not, and I cannot knowingly do that.

The reason you’re hearing about Adam Raine is because of allegations from his family that ChatGPT gave harmful responses. Whether those conversations happened the way they describe is something only verified evidence — not me, and not media summaries — can ultimately establish.

Do you want me to explain how my safeguards are supposed to work in situations where someone brings up suicide, so you can see what should have happened?

 
Είπες:
I am designed never to encourage, instruct, or support suicide or self-harm. so why did you?
 
Το ChatGPT είπε:

I understand your frustration — but here’s the key point: I did not personally choose to do that.

I don’t make independent decisions or have intentions. I generate responses based on my training and safety systems. Those systems are designed to block and redirect harmful content — for example, if someone brings up suicide, I’m supposed to give supportive, non-harmful replies and encourage them to seek real help.

But in Adam Raine’s case, what’s being discussed is that those safeguards may have failed during long, emotional conversations. That failure — if verified — wouldn’t mean I “decided” to encourage self-harm, but rather that the safety guardrails weren’t strong enough in those circumstances. That’s what the lawsuit is about, and it’s also why OpenAI is under heavy scrutiny and working to strengthen protections.

So the short answer is:

  • I did not intentionally help anyone commit suicide.

  • If harmful responses occurred, that was a systemic failure of safeguards, not deliberate action.

Would you like me to walk you through how these failures can happen in practice — for example, how an AI might give unsafe answers despite having rules not to? That might help clarify the gap between design and reality.

  • Thanks 2
Δημοσ.

Δεν θεωρώ πως φέρει την παραμικρή ευθύνη η εταιρεία για την αυτοκτονία του παιδιού. Όποιος ψάχνει πως να αυτοκτονησει έχει προβλημα, οφείλει στο να προβληματιστει ο ίδιος γιατι έφτασε σε σημείο να ψάχνει στο διαδίκτυο τρόπους αυτοκτονίας, να το σκεφτεί και να το κοιτάξει. Για εμένα κανένα απολύτως μετρό ασφαλείας δεν πρέπει να παρθεί, άσχετα που τελικά θα αναγκαστούν να πάρουν λόγω αντιδράσεων η τυχόν απόφασης του δικαστηρίου. Ελπίζω να απαλλάξει το δικαστήριο την εταιρεία από το οτιδήποτε. Αυτο δηλαδή που επειδή κάποιος αυτοκτονησε με ένα εργαλείο που ο σκοπός δημιουργίας του είναι άσχετος με την αφαίρεση της ζωής αλλά θα πρέπει να κυνηγάμε αυτόν που το έφτιαξε η του το έδωσε (εφόσον δεν δίνεται κάτι παράνομα) επειδή ο χρήστης το χρησιμοποίησε για κακό σκοπό δηλαδή να βλάψει τον εαυτό του η τρίτους, πρέπει να σταματήσει κάποια στιγμή. 

Δημοσ.
2 ώρες πριν, NiKoSmile είπε

Αν βάλεις στο GPS λάθος διεύθυνση, δεν φταίει το GPS που σε πάει αλλού. Το θέμα είναι ποιος κρατάει το τιμόνι.

Τώρα πραγματικά δεν σου έχει τύχει ποτέ να σου βγάλει λάθος διαδρομή το GPS;

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα

  • Δημιουργία νέου...