Προς το περιεχόμενο

Προτεινόμενες αναρτήσεις

  • 2 εβδομάδες αργότερα...
Δημοσ.

Είναι λογικό το ChatGPT να κάνει λάθη σε απλά πράγματα, γιατί η λειτουργία του βασίζεται σε πιθανολογικά μοντέλα και όχι σε «γνώση» με την ανθρώπινη έννοια. Ουσιαστικά προβλέπει ποια λέξη ή φράση έχει τη μεγαλύτερη πιθανότητα να ακολουθήσει βάσει των δεδομένων εκπαίδευσης. Αυτό σημαίνει ότι, ακόμη και σε περιπτώσεις που η απάντηση φαίνεται προφανής, το μοντέλο μπορεί να «παρασυρθεί» από θόρυβο, από ανακριβείς πηγές ή από λάθος συσχετίσεις. Δεν έχει «κατανόηση» ούτε «λογική συνέπεια», οπότε τα λεγόμενα hallucinations είναι αναπόφευκτα.

Σημαντικό είναι ότι κάθε νεότερη έκδοση μειώνει το ποσοστό αυτών των λαθών, αλλά ποτέ δεν θα τα εξαλείψει τελείως, όπως και στον άνθρωπο δεν υπάρχει απόλυτη αλάνθαστη μνήμη ή γνώση. Αν ο χρήστης ξέρει να κάνει σωστό prompting (δηλαδή σαφείς και στοχευμένες ερωτήσεις), το αποτέλεσμα βελτιώνεται σημαντικά.

  • Like 1
Δημοσ. (επεξεργασμένο)
Στις 28/8/2025 στις 8:13 ΜΜ, DigiEcho είπε

Είναι λογικό το ChatGPT να κάνει λάθη σε απλά πράγματα, γιατί η λειτουργία του βασίζεται σε πιθανολογικά μοντέλα και όχι σε «γνώση» με την ανθρώπινη έννοια. Ουσιαστικά προβλέπει ποια λέξη ή φράση έχει τη μεγαλύτερη πιθανότητα να ακολουθήσει βάσει των δεδομένων εκπαίδευσης. Αυτό σημαίνει ότι, ακόμη και σε περιπτώσεις που η απάντηση φαίνεται προφανής, το μοντέλο μπορεί να «παρασυρθεί» από θόρυβο, από ανακριβείς πηγές ή από λάθος συσχετίσεις. Δεν έχει «κατανόηση» ούτε «λογική συνέπεια», οπότε τα λεγόμενα hallucinations είναι αναπόφευκτα.

Σημαντικό είναι ότι κάθε νεότερη έκδοση μειώνει το ποσοστό αυτών των λαθών, αλλά ποτέ δεν θα τα εξαλείψει τελείως, όπως και στον άνθρωπο δεν υπάρχει απόλυτη αλάνθαστη μνήμη ή γνώση. Αν ο χρήστης ξέρει να κάνει σωστό prompting (δηλαδή σαφείς και στοχευμένες ερωτήσεις), το αποτέλεσμα βελτιώνεται σημαντικά.

Το ChatGPT μπορεί να δώσει χρήσιμες απαντήσεις, αλλά χρειάζεται πάντα σωστό prompting και κριτική σκέψη. Η ουσία είναι ότι η πραγματική αξία φαίνεται εδώ, όταν το χρησιμοποιούμε ως εργαλείο και όχι ως απόλυτη πηγή αλήθειας.

Συμφωνώ σε μεγάλο βαθμό με όσα γράφεις. Είναι σημαντικό να καταλάβουμε ότι το ChatGPT (και γενικότερα τα LLMs) δεν "κατανοούν" το περιεχόμενο όπως ο άνθρωπος, αλλά παράγουν απαντήσεις βάσει πιθανοτήτων. Αυτό εξηγεί γιατί μπορούν να πέσουν σε απλά λάθη ή να δημιουργήσουν τα λεγόμενα hallucinations.

Ωστόσο, υπάρχει και η άλλη πλευρά:

Με σωστό prompting (καθαρή και συγκεκριμένη ερώτηση) μπορείς να μειώσεις δραστικά τα σφάλματα.

Η χρήση πιο εξελιγμένων μοντέλων (π.χ. GPT-5 με το thinking mode) δείχνει πολύ καλύτερη συνέπεια και λιγότερες ανακρίβειες.

Η πρόοδος είναι συνεχής· κάθε νέα γενιά βελτιώνεται στην αξιοπιστία, αν και ποτέ δεν θα είναι «αλάνθαστη» με την ανθρώπινη έννοια.

Ουσιαστικά, μιλάμε για ένα εργαλείο που λειτουργεί καλά εφόσον ο χρήστης ξέρει πώς να το χειριστεί και πάντα με τη λογική ότι χρειάζεται διασταύρωση πηγών. Όπως είπες, ούτε ο άνθρωπος έχει τέλεια μνήμη ή αλάθητη κρίση· το ίδιο ισχύει και εδώ.

Επεξ/σία από AegeanByte
  • Like 1
Δημοσ.
1 ώρα πριν, AegeanByte είπε

Η πρόοδος είναι συνεχής· κάθε νέα γενιά βελτιώνεται στην αξιοπιστία, αν και ποτέ δεν θα είναι «αλάνθαστη» με την ανθρώπινη έννοια.

Βασικά, αυτό είναι κάτι που ενδιαφέρει μόνο τους ανθρώπους. Για μια ΑΙ η ανθρώπινη λογική βάζει τόσο νόημα, όσο νόημα βγάζει για τον άνθρωπο η λογική μιας αμοιβάδας.

  • 2 εβδομάδες αργότερα...
Δημοσ. (επεξεργασμένο)
Στις 29/8/2025 στις 9:22 ΜΜ, AegeanByte είπε

Συμφωνώ σε μεγάλο βαθμό με όσα γράφεις. Είναι σημαντικό να καταλάβουμε ότι το ChatGPT (και γενικότερα τα LLMs) δεν "κατανοούν" το περιεχόμενο όπως ο άνθρωπος, αλλά παράγουν απαντήσεις βάσει πιθανοτήτων. Αυτό εξηγεί γιατί μπορούν να πέσουν σε απλά λάθη ή να δημιουργήσουν τα λεγόμενα hallucinations.

Ωστόσο, υπάρχει και η άλλη πλευρά:

Με σωστό prompting (καθαρή και συγκεκριμένη ερώτηση) μπορείς να μειώσεις δραστικά τα σφάλματα.

Η χρήση πιο εξελιγμένων μοντέλων (π.χ. GPT-5 με το thinking mode) δείχνει πολύ καλύτερη συνέπεια και λιγότερες ανακρίβειες.

Η πρόοδος είναι συνεχής· κάθε νέα γενιά βελτιώνεται στην αξιοπιστία, αν και ποτέ δεν θα είναι «αλάνθαστη» με την ανθρώπινη έννοια.

Ουσιαστικά, μιλάμε για ένα εργαλείο που λειτουργεί καλά εφόσον ο χρήστης ξέρει πώς να το χειριστεί και πάντα με τη λογική ότι χρειάζεται διασταύρωση πηγών. Όπως είπες, ούτε ο άνθρωπος έχει τέλεια μνήμη ή αλάθητη κρίση· το ίδιο ισχύει και εδώ.

Ευχαριστώ για την προσθήκη, είναι πολύ εύστοχη. Όπως ανέφερες, το ChatGPT δεν «κατανοεί» όπως ο άνθρωπος, αλλά η βελτίωση από γενιά σε γενιά είναι ορατή. Αυτό όμως δεν αναιρεί την ανάγκη για καθαρές ερωτήσεις, σωστό prompting και πάντα κριτική σκέψη από τον χρήστη. Η αξία του εργαλείου φαίνεται εδώ, όταν το χρησιμοποιούμε με μέτρο και το συνδυάζουμε με δικές μας γνώσεις και εμπειρία.

Επεξ/σία από DigiEcho
  • Like 1
  • 1 μήνα μετά...

Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε

Πρέπει να είστε μέλος για να αφήσετε σχόλιο

Δημιουργία λογαριασμού

Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!

Δημιουργία νέου λογαριασμού

Σύνδεση

Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.

Συνδεθείτε τώρα
  • Δημιουργία νέου...