The_Judas Δημοσ. πριν από 5 ώρες Δημοσ. πριν από 5 ώρες Γενικά οι συμβουλευτικές πουλάνε παπατζιλίκι... πιστοποιήσεις, iso και πολύ γραφειοκρατική δουλειά. Δηλαδή συνήθως δίνουν ένα χαρτί, το οποίο το απαιτεί κάποια κρατική οδηγία, πολλές φορές χωρίς ουσιαστικό έλεγχο.
panther_512 Δημοσ. πριν από 4 ώρες Δημοσ. πριν από 4 ώρες 10 hours ago, panagiotis1988 said: Η ΑΙ ειναι ενα εξαιρετικο εργαλείο. Η generative Ai ειναι προβληματικη που ειναι σαν να έχει iq κοντά στο 0. H generative AI δεν έχει IQ. Δεν καταλαβαίνει τί ρωτάς και δεν καταλαβαίνει τί απαντά. Σπάει την ερώτηση σε κομμάτια (λέξεις ή ακόμα και συλλαβές) και μετά υπολογίζει τις πιθανότητες για το ποιές λέξεις και με ποιά σειρά είναι η απάντηση που θέλεις. Σαν ένα σούπερ εξελιγμένο autocomplete. Το θέμα των hallucinations (ψευδείς/φανταστικές πληροφορίες) είναι η αχίλλεια φτέρνα των chatbots αλλά συνεχώς βελτιώνεται. Καμία σχέση τα hallucinations του 2022, με το 2023 και ακολούθως με το 2024 και τώρα. Κάποια στιγμή θα εξαλειφθούν ή θα εκμηδενιστούν. Σε κάθε περίπτωση όμως, ο βασικός κανόνας είναι ότι οι απαντήσεις της ΑΙ χρειάζονται έλεγχο από άνθρωπο (human in the loop). Στην περίπτωση αυτή έχουμε κατάχρηση ενός εργαλείου, με σκοπό το εύκολο κέρδος. 1 1
filip123go Δημοσ. πριν από 4 ώρες Δημοσ. πριν από 4 ώρες 22 minutes ago, panther_512 said: H generative AI δεν έχει IQ. Δεν καταλαβαίνει τί ρωτάς και δεν καταλαβαίνει τί απαντά. Σπάει την ερώτηση σε κομμάτια (λέξεις ή ακόμα και συλλαβές) και μετά υπολογίζει τις πιθανότητες για το ποιές λέξεις και με ποιά σειρά είναι η απάντηση που θέλεις. Σαν ένα σούπερ εξελιγμένο autocomplete. Το θέμα των hallucinations (ψευδείς/φανταστικές πληροφορίες) είναι η αχίλλεια φτέρνα των chatbots αλλά συνεχώς βελτιώνεται. Καμία σχέση τα hallucinations του 2022, με το 2023 και ακολούθως με το 2024 και τώρα. Κάποια στιγμή θα εξαλειφθούν ή θα εκμηδενιστούν. Σε κάθε περίπτωση όμως, ο βασικός κανόνας είναι ότι οι απαντήσεις της ΑΙ χρειάζονται έλεγχο από άνθρωπο (human in the loop). Στην περίπτωση αυτή έχουμε κατάχρηση ενός εργαλείου, με σκοπό το εύκολο κέρδος. Δεν γίνεται να εξαλειφθούν τα hallucinations με τους υπάρχοντες αλγορίθμους που έχουμε τώρα, δυστυχώς. Και έτσι και το βάλεις σε ένα λίγο μεγαλύτερο project το ΑΙ, χάνει τη μπάλα τελείως. Τη μια βλακεία μετά την άλλη κάνει (μιλάω για τα commercial μοντέλα, τα οποία είναι επί πληρωμή) .
dchatz Δημοσ. πριν από 3 ώρες Δημοσ. πριν από 3 ώρες Χρησιμοποίησα quillbot για να δω κάποια έκθεσή μου (στη οποία χρησιμοποίησα ΑΙ) και να πιο είναι το αποτέλεσμα. Αν γράψεις μία πρόταση ολομόναχος (με δικά σου στοιχεία, έρευνα, τα πάντα, όλα δικά σου) και πεις στο ΑΙ να σουλουπώσει λίγο το κείμενο, τότε ο έλεγχος θα το βγάλει 100% ΑΙ. Αν συντάξεις ολομόναχος μια πρόταση στα ελληνικά και ζητήσεις απλά από το ΑΙ να στη μεταφράσει αγγλικά, τότε ο έλεγχος θα το βγάλει 100% ΑΙ. Σε εργασία που είχα γράψει πριν τη χρήση ΑΙ το έβγαλε 0% ΑΙ. Οπότε αν δομήσεις ένα κείμενο, σε όσο τμήμα χρησιμοποιήσεις ΑΙ, όχι για να πάρεις έτοιμο κείμενο, μόνο για διορθώσεις σε συνταχτικό, μεταφράσεις κλπ, όπου παρεμβει απλά το ΑΙ θα το πάρει ολοκληρο ως ΑΙ. Οπότε με αυτα και αυτα θα βγεις 70%-80% ΑΙ άνετα και θα πρέπει να δίνεις εξηγήσεις κλπ.
panther_512 Δημοσ. πριν από 3 ώρες Δημοσ. πριν από 3 ώρες 6 minutes ago, filip123go said: Δεν γίνεται να εξαλειφθούν τα hallucinations με τους υπάρχοντες αλγορίθμους που έχουμε τώρα, δυστυχώς. Και έτσι και το βάλεις σε ένα λίγο μεγαλύτερο project το ΑΙ, χάνει τη μπάλα τελείως. Τη μια βλακεία μετά την άλλη κάνει (μιλάω για τα commercial μοντέλα, τα οποία είναι επί πληρωμή) . Υπάρχουν μεθοδολογίες για εξάλειψη των hallucinations. Από multi-agent μέχρι RAG εφαρμογές. Και πάντα human in the loop. Έχει τουλάχιστον 2 χρόνια που λέω ότι ο κόσμος που θέλει να κάνει σοβαρή δουλειά με ΑΙ chatbots, πρέπει οπωσδήποτε να μάθει prompt engineering. Η περίπτωση της Deloitte είναι σφάλμα επιπέδου αρχαρίου στην χρήση ΑΙ, το οποίο την εκθέτει απίστευτα. 1
Marcos_Aurilius Δημοσ. πριν από 3 ώρες Δημοσ. πριν από 3 ώρες 49 minutes ago, panther_512 said: H generative AI δεν έχει IQ. Δεν καταλαβαίνει τί ρωτάς και δεν καταλαβαίνει τί απαντά. Σπάει την ερώτηση σε κομμάτια (λέξεις ή ακόμα και συλλαβές) και μετά υπολογίζει τις πιθανότητες για το ποιές λέξεις και με ποιά σειρά είναι η απάντηση που θέλεις. Σαν ένα σούπερ εξελιγμένο autocomplete. ... Σε κάθε περίπτωση όμως, ο βασικός κανόνας είναι ότι οι απαντήσεις της ΑΙ χρειάζονται έλεγχο από άνθρωπο (human in the loop). Στην περίπτωση αυτή έχουμε κατάχρηση ενός εργαλείου, με σκοπό το εύκολο κέρδος. Αυτή είναι η απάντηση και τα γράφω κι εγώ κάθε φορά στα αντίστοιχα θέματα. Παρά το fancy περιτύλιγμα δεν υπάρχει νοημοσύνη, τα μοντέλα δεν καταλαβαίνουν ούτε την ερώτηση που διαβάζουν, ούτε την απάντηση που γράφουν. Απλώς συνθέτουν μια στατιστικώς πιθανή απάντηση σε αυτό που νομίζουν ότι ρωτάς. Και ναι, η Deloitte απλώς απέδειξε το παπατζιλίκι που πληρώνουμε οι φορολογούμενοι σε τέτοιες εταιρείες... συμβούλων. "Μας ζητήσαν μια αναφορά για ανέργους - φίνα. Απέλυσε τους 4-5 αναλυτές που κάτι σκαμπαζαν, και πάρε κάποιον ανεψιό του υπουργού ως... AI engineer να πετάει ερωτήματα στο Chat GPT και να κάνει paste σ'ενα Word τις απαντήσεις, κι εν τω μεταξύ θα μοιράσω εγώ τους μισθούς των 4-5 στα bonus μας". 1
Marrio Δημοσ. πριν από 3 ώρες Δημοσ. πριν από 3 ώρες Ο άνθρωπος οδηγούμενος, απέχει από την γέννηση ένα συναίσθημα που είναι ευεργετικό όσο η επικοινωνία, έρχεται τώρα το Ai να αναπληρώσει την γέννηση με την κλωνοποίηση (αντιγραφή).Το σίγουρο είναι ότι οτιδήποτε similar - clone δεν θα οδηγήσει τον άνθρωπο στην ευτυχία, αλλά σε μια ακόμη ποιο βαθειά παγίδα.
panther_512 Δημοσ. πριν από 2 ώρες Δημοσ. πριν από 2 ώρες (επεξεργασμένο) 55 minutes ago, Marcos_Aurilius said: Αυτή είναι η απάντηση και τα γράφω κι εγώ κάθε φορά στα αντίστοιχα θέματα. Παρά το fancy περιτύλιγμα δεν υπάρχει νοημοσύνη, τα μοντέλα δεν καταλαβαίνουν ούτε την ερώτηση που διαβάζουν, ούτε την απάντηση που γράφουν. Απλώς συνθέτουν μια στατιστικώς πιθανή απάντηση σε αυτό που νομίζουν ότι ρωτάς. Και ναι, η Deloitte απλώς απέδειξε το παπατζιλίκι που πληρώνουμε οι φορολογούμενοι σε τέτοιες εταιρείες... συμβούλων. "Μας ζητήσαν μια αναφορά για ανέργους - φίνα. Απέλυσε τους 4-5 αναλυτές που κάτι σκαμπαζαν, και πάρε κάποιον ανεψιό του υπουργού ως... AI engineer να πετάει ερωτήματα στο Chat GPT και να κάνει paste σ'ενα Word τις απαντήσεις, κι εν τω μεταξύ θα μοιράσω εγώ τους μισθούς των 4-5 στα bonus μας". Παπατζιλίκι μπορούμε να φάμε σε οποιαδήποτε περίπτωση λήψης υπηρεσιών. Όταν όμως μιλάμε για Deloitte, τον μεγαλύτερο σύμβουλο επιχειρήσεων στον κόσμο, τέτοια λάθη από τέτοιες πρακτικές είναι κραυγαλέα. Παρόμοια περίπτωση είχαμε στην Αμερική, όπου δικηγόροι το 2023 κατέθεσαν δικόγραφα γεμάτα με ανύπαρκτες υποθέσεις που τους «σερβίρισε» το ChatGPT. Το δικαστήριο δεν τους αφαίρεσε την άδεια, αλλά τους επέβαλε κυρώσεις και δημόσιο έλεγχο. ΗΠΑ: Δικηγόρος χρησιμοποίησε ανύπαρκτες παραπομπές από το ChatGPT | Η ΚΑΘΗΜΕΡΙΝΗ Επεξ/σία πριν από 2 ώρες από panther_512 1
alejsalonica Δημοσ. πριν από 2 ώρες Δημοσ. πριν από 2 ώρες Η είδηση δεν είναι ότι η Τ.Ν. κάνει λάθη. Η είδηση είναι ότι κάτι τέτοιες κοπριές λαμβάνουν εξωπραγματικά λεφτά για τα παραδοτέα τους. Συμβαίνει παντού, σε όλες τις χώρες. Οι κολλητοί παίρνουν συμβάσεις χρυσές και τα παραδοτέα τους είναι για τα σκουπίδια. 2
Προτεινόμενες αναρτήσεις
Δημιουργήστε ένα λογαριασμό ή συνδεθείτε για να σχολιάσετε
Πρέπει να είστε μέλος για να αφήσετε σχόλιο
Δημιουργία λογαριασμού
Εγγραφείτε με νέο λογαριασμό στην κοινότητα μας. Είναι πανεύκολο!
Δημιουργία νέου λογαριασμούΣύνδεση
Έχετε ήδη λογαριασμό; Συνδεθείτε εδώ.
Συνδεθείτε τώρα