Ιατρικό περιοδικό των ΗΠΑ προειδοποιεί για τους κινδύνους της χρήσης του ChatGPT για ιατρικές συμβουλές, μετά από περιστατικό ασθενούς που ανέπτυξε βρωμισμό ακολουθώντας οδηγίες του AI.

Το περιοδικό Annals of Internal Medicine δημοσίευσε πρόσφατα άρθρο που περιγράφει την περίπτωση ενός 60χρονου άνδρα ο οποίος ανέπτυξε βρωμισμό, γνωστό και ως τοξικότητα βρωμιδίου, αφού συμβουλεύτηκε το ChatGPT σχετικά με την αφαίρεση του επιτραπέζιου αλατιού από τη διατροφή του.

Σύμφωνα με το άρθρο, ο βρωμισμός ήταν ένα "ευρέως αναγνωρισμένο" σύνδρομο στις αρχές του 20ού αιώνα, που εκτιμάται ότι συνέβαλε σε σχεδόν ένα στα δέκα ψυχιατρικά περιστατικά εκείνη την εποχή.

Ο ασθενής ανέφερε στους γιατρούς ότι, αφού διάβασε για τις αρνητικές επιπτώσεις του χλωριούχου νατρίου (επιτραπέζιο αλάτι), συμβουλεύτηκε το ChatGPT για την εξάλειψη του χλωρίου από τη διατροφή του. Στη συνέχεια, άρχισε να λαμβάνει βρωμιούχο νάτριο για τρεις μήνες, παρά το γεγονός ότι είχε διαβάσει πως "το χλώριο μπορεί να αντικατασταθεί με βρώμιο, αν και πιθανώς για άλλους σκοπούς, όπως ο καθαρισμός". Αξίζει να σημειωθεί ότι το βρωμιούχο νάτριο χρησιμοποιούνταν ως ηρεμιστικό στις αρχές του 20ού αιώνα.

Οι συγγραφείς του άρθρου, από το Πανεπιστήμιο της Ουάσινγκτον στο Σιάτλ, τόνισαν ότι η περίπτωση αυτή αναδεικνύει "πώς η χρήση της τεχνητής νοημοσύνης μπορεί δυνητικά να συμβάλει στην ανάπτυξη αποτρέψιμων αρνητικών επιπτώσεων στην υγεία".

Οι συγγραφείς πρόσθεσαν ότι, επειδή δεν μπορούσαν να αποκτήσουν πρόσβαση στο ιστορικό συνομιλίας του ασθενούς με το ChatGPT, δεν ήταν δυνατό να προσδιοριστεί η ακριβής συμβουλή που έλαβε ο άνδρας.

Παρόλα αυτά, όταν οι ίδιοι οι συγγραφείς συμβουλεύτηκαν το ChatGPT σχετικά με το τι θα μπορούσε να αντικαταστήσει το χλώριο, η απάντηση περιλάμβανε επίσης το βρώμιο, χωρίς συγκεκριμένη προειδοποίηση για την υγεία και χωρίς να ρωτήσει γιατί οι συγγραφείς αναζητούσαν τέτοιες πληροφορίες - "όπως θα περιμέναμε να κάνει ένας επαγγελματίας ιατρός", σημείωσαν.

Οι συγγραφείς προειδοποίησαν ότι το ChatGPT και άλλες εφαρμογές AI θα μπορούσαν να "δημιουργήσουν επιστημονικές ανακρίβειες, στερούνται της ικανότητας να συζητήσουν κριτικά τα αποτελέσματα και τελικά τροφοδοτούν τη διάδοση παραπληροφόρησης".

Η εταιρεία ανακοίνωσε πρόσφατα μια αναβάθμιση του chatbot και ισχυρίστηκε ότι ένα από τα μεγαλύτερα πλεονεκτήματά του είναι στον τομέα της υγείας. Ανέφερε ότι το ChatGPT - που τώρα τροφοδοτείται από το μοντέλο GPT-5 - θα είναι καλύτερο στην απάντηση ερωτήσεων σχετικά με την υγεία και θα είναι επίσης πιο προληπτικό στο "να επισημαίνει πιθανές ανησυχίες", όπως σοβαρές σωματικές ή ψυχικές ασθένειες.

Ωστόσο, η εταιρεία τόνισε ότι το chatbot δεν αποτελεί υποκατάστατο επαγγελματικής βοήθειας. Οι κατευθυντήριες γραμμές του chatbot αναφέρουν επίσης ότι "δεν προορίζεται για χρήση στη διάγνωση ή θεραπεία οποιασδήποτε πάθησης υγείας".

Το άρθρο του περιοδικού, που δημοσιεύτηκε την περασμένη εβδομάδα πριν από την κυκλοφορία του GPT-5, ανέφερε ότι ο ασθενής φαίνεται να χρησιμοποίησε μια προηγούμενη έκδοση του ChatGPT.

Παρά την αναγνώριση ότι η AI θα μπορούσε να αποτελέσει γέφυρα μεταξύ επιστημόνων και κοινού, το άρθρο τόνισε ότι η τεχνολογία ενέχει επίσης τον κίνδυνο προώθησης "αποπλαισιωμένων πληροφοριών" και ότι είναι εξαιρετικά απίθανο ένας επαγγελματίας ιατρός να είχε προτείνει βρωμιούχο νάτριο όταν ένας ασθενής ζητούσε αντικατάστατο για το επιτραπέζιο αλάτι.

  • Like 1