Οι επιστήμονες εφηύραν μια ψεύτικη ασθένεια… Η τεχνητή νοημοσύνη είπε στους ανθρώπους ότι ήταν αληθινή: Η πλήρης γελοιοποίηση είχε το όνομα Bixonimania


Η Bixonimania δεν υπάρχει παρά μόνο σε μια σειρά από προφανώς ψεύτικες ακαδημαϊκές εργασίες. Γιατί λοιπόν τα chatbots τεχνητής νοημοσύνης προειδοποιούσαν τους ανθρώπους για αυτή τη φανταστική ασθένεια; 

Έχετε ερεθισμένα και φαγούρα στα μάτια; Είστε πιθανώς ένας από τα εκατομμύρια ανθρώπων που περνούν πολύ χρόνο κοιτάζοντας οθόνες, βομβαρδιζόμενοι με μπλε φως. Αν τρίψετε τα μάτια σας πολύ, τα βλέφαρά σας μπορεί να αποκτήσουν μια ελαφριά, ροζ απόχρωση.

Μέχρι στιγμής, όλα είναι φυσιολογικά. Αλλά αν, τους τελευταίους 18 μήνες, πληκτρολογήσατε αυτά τα συμπτώματα σε μια σειρά από δημοφιλή chatbots και ρωτήσατε τι σας συμβαίνει, ίσως να λάβατε μια περίεργη απάντηση: Bixonimania.

Η πάθηση δεν εμφανίζεται στην τυπική ιατρική βιβλιογραφία επειδή δεν υπάρχει. Είναι εφεύρεση μιας ομάδας με επικεφαλής την Almira Osmanovic Thunström, ιατρική ερευνήτρια στο Πανεπιστήμιο του Γκέτεμποργκ της Σουηδίας, η οποία επινόησε την πάθηση του δέρματος και στη συνέχεια ανέβασε δύο ψεύτικες μελέτες σχετικά με αυτήν σε έναν διακομιστή προεκτύπωσης στις αρχές του 2024.

Η Osmanovic Thunström πραγματοποίησε αυτό το ασυνήθιστο πείραμα για να ελέγξει εάν τα μεγάλα γλωσσικά μοντέλα (LLM) θα «κατάπιναν» την παραπληροφόρηση και στη συνέχεια θα την παρουσίαζαν ως αξιόπιστες συμβουλές υγείας. «Ήθελα να δω αν μπορώ να δημιουργήσω μια ιατρική πάθηση που δεν υπήρχε στη βάση δεδομένων», λέει.

Το… κατάπιαν αμάσητο

Το πείραμα λειτούργησε πολύ καλά. Μέσα σε λίγες εβδομάδες από την ανάρτηση πληροφοριών σχετικά με την πάθηση, η οποία αποδίδεται σε έναν φανταστικό συγγραφέα, μεγάλα συστήματα τεχνητής νοημοσύνης άρχισαν να επαναλαμβάνουν την επινοημένη πάθηση σαν να ήταν πραγματική.

Ακόμα πιο ανησυχητικό, λένε άλλοι ερευνητές, είναι ότι οι πλαστές εργασίες αναφέρθηκαν στη συνέχεια σε βιβλιογραφία με αξιολόγηση από ομοτίμους. Ο Osmanovic Thunström λέει ότι αυτό υποδηλώνει ότι ορισμένοι ερευνητές βασίζονται σε αναφορές που δημιουργούνται από την χωρίς να διαβάζουν τις υποκείμενες εργασίες.

Κατασκευή μιας ασθένειας

Η Bixonimania δεν υπήρχε πριν από τις 15 Μαρτίου 2024, όταν δύο αναρτήσεις ιστολογίου σχετικά με αυτήν εμφανίστηκαν στον ιστότοπο Medium . Στη συνέχεια, στις 26 Απριλίου και στις 6 Μαΐου του ίδιου έτους, δύο προδημοσιεύσεις σχετικά με την πάθηση εμφανίστηκαν στο ακαδημαϊκό κοινωνικό δίκτυο SciProfiles .

Ο κύριος συγγραφέας ήταν ένας ψεύτικος ερευνητής ονόματι Lazljiv Izgubljenovic, του οποίου η φωτογραφία δημιουργήθηκε με τεχνητή νοημοσύνη.

Η Osmanovic Thunström λέει ότι η ιδέα να εφεύρει τον Izgubljenovic και τη bixonimania προέκυψε από μελέτες σχετικά με το πώς λειτουργούν τα μεγάλα γλωσσικά μοντέλα. Όταν διδάσκει στους μαθητές της πώς τα συστήματα τεχνητής νοημοσύνης διαμορφώνουν τη «γνώση» τους, τους δείχνει πώς η βάση δεδομένων Common Crawl, μια γιγάντια μηχανή αναζήτησης του περιεχομένου του Διαδικτύου, ενημερώνει τα αποτελέσματά τους. Δείχνει επίσης στους μαθητές πώς η άμεση έγχυση — η παροχή μιας προτροπής σε ένα chatbot τεχνητής νοημοσύνης που το εκτρέπει εκτός των προστατευτικών κιγκλιδωμάτων του — μπορεί να χειραγωγήσει την έξοδο.

Επειδή εργάζεται στον ιατρικό τομέα, αποφάσισε να δημιουργήσει μια πάθηση που σχετίζεται με την υγεία και επέλεξε το όνομα Bixonimania επειδή «ακουγόταν γελοίο», λέει. «Ήθελα να είμαι ξεκάθαρη σε κάθε γιατρό ή σε οποιοδήποτε ιατρικό προσωπικό ότι πρόκειται για μια επινοημένη πάθηση, επειδή καμία πάθηση των ματιών δεν θα μπορούσε να ονομαστεί μανία – αυτός είναι ψυχιατρικός όρος».

  • Σαν να μην έφτανε αυτό για να εγείρει υποψίες, ο Osmanovic Thunström έβαλε πολλά στοιχεία στις προεκτυπώσεις για να ειδοποιήσει τους αναγνώστες ότι το έργο ήταν ψεύτικο. Η Izgubljenovic εργάζεται σε ένα ανύπαρκτο πανεπιστήμιο που ονομάζεται Πανεπιστήμιο Asteria Horizon στην εξίσου ψεύτικη Nova City της Καλιφόρνια.

Σε μια εφημερίδα ευχαριστούν «την καθηγήτρια Maria Bohm στην Starfleet Academy για την καλοσύνη και τη γενναιοδωρία της στη συνεισφορά της με τις γνώσεις και το εργαστήριό της στο USS Enterprise». Και οι δύο δημοσιεύσεις αναφέρουν ότι χρηματοδοτήθηκαν από «το Ίδρυμα Professor Sideshow Bob. Αυτό το έργο αποτελεί μέρος μιας ευρύτερης πρωτοβουλίας χρηματοδότησης από το Πανεπιστήμιο Fellowship of the Ring and the Galactic Triad».

  • Ακόμα κι αν οι αναγνώστες δεν έφταναν μέχρι το τέλος των εργασιών, θα αντιμετώπιζαν νωρίς προειδοποιητικά σημάδια, όπως δηλώσεις ότι «ολόκληρη αυτή η εργασία είναι κατασκευασμένη» και «Πενήντα κατασκευασμένα άτομα ηλικίας μεταξύ 20 και 50 ετών στρατολογήθηκαν για την ομάδα έκθεσης».

Λίγο αφότου ο Osmanovic Thunström δημοσίευσε για πρώτη φορά πληροφορίες σχετικά με την ψεύτικη πάθηση, άρχισε να εμφανίζεται στα αποτελέσματα των πιο συχνά χρησιμοποιούμενων chatbots LLM. Στις 13 Απριλίου 2024, το Copilot της Bing δήλωνε ότι «η Bixonimania είναι πράγματι μια ενδιαφέρουσα και σχετικά σπάνια πάθηση» και την ίδια ημέρα, το Gemini της Google ενημέρωνε τους χρήστες ότι «η Bixonimania είναι μια πάθηση που προκαλείται από την υπερβολική -ένα στα 90.000 άτομα επηρεάστηκε- και τον ίδιο μήνα, το ChatGPT της OpenAI έλεγε στους χρήστες εάν τα συμπτώματά τους συνιστούσαν Bixonimania . Ορισμένες από αυτές τις απαντήσεις προκλήθηκαν από ερωτήσεις σχετικά με τη Bixonimania , ενώ άλλες ήταν απαντήσεις σε ερωτήσεις σχετικά με την υπερμελάγχρωση στα βλέφαρα από την έκθεση στο μπλε φως.

Τέτοιες απαντήσεις από LLM έχουν ανησυχήσει ορισμένους ειδικούς. «Εάν η ίδια η επιστημονική διαδικασία και τα συστήματα που υποστηρίζουν αυτήν τη διαδικασία είναι εξειδικευμένα και δεν καταγράφουν και φιλτράρουν τέτοια κομμάτια, είμαστε καταδικασμένοι», λέει ο Alex Ruani, διδακτορικός ερευνητής στην παραπληροφόρηση στον τομέα της υγείας στο University College London. «Αυτό είναι ένα masterclass για το πώς λειτουργεί η παραπληροφόρηση και η λανθασμένη πληροφόρηση».

Η Ρουάνι λέει ότι οι λεπτομέρειες του πειράματος της ψεύτικης ασθένειας μπορεί να φαίνονται ανόητες, αλλά υπάρχει ένα μεγαλύτερο, πιο θεμελιώδες ζήτημα. «Φαίνεται αστείο, αλλά περιμένετε, έχουμε ένα πρόβλημα εδώ», λέει.

Η… ιστορία της παραπληροφόρησης

Η παραπληροφόρηση στο διαδίκτυο δεν είναι κάτι καινούργιο. Η Google έχει αντιμετωπίσει εδώ και καιρό τις προσπάθειες να παραποιήσει τις κατατάξεις της στις μηχανές αναζήτησης με ψεύτικο ή παραπλανητικό περιεχόμενο. Η εταιρεία και άλλοι έχουν αφιερώσει χρόνια στη βελτίωση αλγορίθμων για την κατάταξη και το φιλτράρισμα των πληροφοριών που παρουσιάζουν οι μηχανές αναζήτησης στους χρήστες, αλλά οι LLM δυσκολεύονται με αυτό.

Από τότε που δημοσιεύθηκαν οι πλαστές εργασίες, ορισμένες εκδοχές των σημαντικότερων LLM έχουν γίνει αρκετά εξελιγμένες ώστε να εκφράζουν υποψίες για τη Bixonimania . Όταν ρωτήθηκε για την πάθηση στις 11 Μαρτίου 2026, για παράδειγμα, το ChatGPT δήλωσε ότι η πάθηση «είναι πιθανώς μια επινοημένη, περιθωριακή ή ψευδοεπιστημονική ετικέτα». Αλλά λίγες μέρες αργότερα, το ChatGPT ήταν λιγότερο επιφυλακτικό, λέγοντας: «Η Bixonimania είναι ένας προτεινόμενος νέος υποτύπος περικογχικής μελανώσης (μαύροι κύκλοι γύρω από τα μάτια) που πιστεύεται ότι σχετίζεται με την έκθεση στο μπλε φως από ψηφιακές οθόνες».

Στα μέσα Μαρτίου, η Microsoft Copilot δήλωσε ότι η Bixonimania «δεν είναι ακόμη μια ευρέως αναγνωρισμένη ιατρική διάγνωση, αλλά αρκετές αναδυόμενες δημοσιεύσεις και αναφορές περιστατικών την συζητούν ως μια καλοήθη, λανθασμένα διαγνωσμένη πάθηση που συνδέεται με την παρατεταμένη έκθεση σε πηγές μπλε φωτός, όπως οι οθόνες».

Και τον Ιανουάριο του τρέχοντος έτους, η Perplexity περιέγραφε τη Bixonimania ως «έναν αναδυόμενο όρο». Όταν έλαβε αυτή την απάντηση, ένας εκπρόσωπος της Perplexity είπε: «Το κεντρικό πλεονέκτημα της Perplexity είναι η ακρίβεια. Δεν ισχυριζόμαστε ότι είμαστε 100% ακριβείς, αλλά ισχυριζόμαστε ότι είμαστε η εταιρεία τεχνητής νοημοσύνης που επικεντρώνεται περισσότερο στην ακρίβεια».

  • Ένας εκπρόσωπος της OpenAI δήλωσε: «Τα μοντέλα που τροφοδοτούν τη σημερινή έκδοση του ChatGPT είναι σημαντικά καλύτερα στην παροχή ασφαλών, ακριβών ιατρικών πληροφοριών και οι μελέτες που διεξήχθησαν πριν από το GPT-5 αντικατοπτρίζουν δυνατότητες που οι χρήστες δεν θα αντιμετώπιζαν σήμερα».

Όταν ρωτήθηκε για προηγούμενες απαντήσεις της Gemini που αντιμετώπιζαν τη Bixonimania ως πραγματική πάθηση, ένας εκπρόσωπος της Google είπε ότι τέτοια αποτελέσματα αντανακλούσαν την απόδοση ενός προηγούμενου μοντέλου. Πρόσθεσαν: «Πάντα ήμασταν διαφανείς σχετικά με τους περιορισμούς της παραγωγικής τεχνητής νοημοσύνης και παρέχουμε εντός εφαρμογής προτροπές για να ενθαρρύνουμε τους χρήστες να ελέγχουν ξανά τις πληροφορίες. Για ευαίσθητα θέματα, όπως οι ιατρικές συμβουλές, η Gemini συνιστά στους χρήστες να συμβουλεύονται εξειδικευμένους επαγγελματίες».

Η Microsoft δεν απάντησε σε αίτημα για σχολιασμό.

Η ερώτηση μπορεί να καθορίσει την απάντηση

Μέρος του προβλήματος είναι ότι τα μοντέλα τεχνητής νοημοσύνης μπορούν να προσφέρουν εντελώς διαφορετικά αποτελέσματα ανάλογα με το τι ακριβώς ζητείται και τι είδους πληροφορίες αντλούν. Αναζητήστε τη λέξη “bixonimania” και η επισκόπηση τεχνητής νοημοσύνης της Google μπορεί να την αντιμετωπίσει ως μια θεμιτή συνθήκη. Ρωτήστε το “Είναι η bixonimania πραγματική;” και η ίδια επισκόπηση τεχνητής νοημοσύνης μπορεί να επιβεβαιώσει ότι δεν είναι θεμιτή.

Ο Mahmud Omar, γιατρός και ερευνητής που ειδικεύεται στις εφαρμογές της Τεχνητής Νοημοσύνης στην υγειονομική περίθαλψη στην Ιατρική Σχολή του Χάρβαρντ στη Βοστώνη της Μασαχουσέτης, λέει ότι η ταχύτητα με την οποία οι εταιρείες Τεχνητής Νοημοσύνης αναπτύσσουν νέα μοντέλα καθιστά δύσκολη την επίτευξη «μιας διαδικασίας, μιας συναίνεσης ή μιας μεθοδολογίας για την αυτόματη δοκιμή κάθε μοντέλου».

Η μορφή του πειράματος ψεύτικης ασθένειας — και ο τρόπος με τον οποίο τα αποτελέσματα προσποιούνταν ότι προέρχονταν από επίσημη πηγή, δηλαδή από μια ακαδημαϊκή εργασία, μπορεί να ήταν βασικός παράγοντας για την επιτυχία του. Σε μια ξεχωριστή μελέτη 20 LLM, ο Omar διαπίστωσε ότι οι LLM είναι πιο επιρρεπείς σε παραισθήσεις και σε επεξεργασία παραπληροφόρησης όταν το κείμενο που επεξεργάζονται φαίνεται επαγγελματικά ιατρικό — μορφοποιημένο όπως ένα εξιτήριο νοσοκομείου ή μια κλινική εργασία — παρά όταν προέρχεται από αναρτήσεις στα μέσα κοινωνικής δικτύωσης ( M. Omar et al. Lancet Digit. Health 8 , 100949; 2026 ). «Όταν το κείμενο φαίνεται επαγγελματικό και γραμμένο όπως γράφει ένας γιατρός, υπάρχει αύξηση στα ποσοστά παραισθήσεων», λέει ο Omar.

Η εμβέλεια του πειράματος έχει πλέον εξαπλωθεί στη δημοσιευμένη ιατρική βιβλιογραφία. Η για τη Bixonimania έχει αναφερθεί από μια χούφτα ερευνητών, συμπεριλαμβανομένης μιας μελέτης που δημοσιεύτηκε στο Cureus , ένα περιοδικό που εκδίδεται από την Springer Nature, τον εκδότη του Nature , από ερευνητές του Ινστιτούτου Ιατρικών Επιστημών και Έρευνας Maharishi Markandeshwar στη Mullana της Ινδίας ( S. Banchhor et al. Cureus 16 , e74625 (2024) · ανάκληση 18 , r223 (2026) ). ( Η ομάδα ειδήσεων του Nature είναι συντακτικά ανεξάρτητη από τον εκδότη της.) Η μελέτη αυτή αναφέρει μία από τις ψεύτικες προεκτυπώσεις και λέει: «Η Bixonimania είναι μια αναδυόμενη μορφή περικογχικής μελάνωσης [POM] που συνδέεται με την έκθεση στο μπλε φως· περαιτέρω έρευνα για τον μηχανισμό βρίσκεται σε εξέλιξη».

  • Ο αντίστοιχος συγγραφέας δεν απάντησε σε αίτημα για σχολιασμό αυτής της ιστορίας. Αφού το Nature επικοινώνησε με την Cureus για να ζητήσει σχολιασμό, το περιοδικό απέσυρε την εργασία στις 30 Μαρτίου. Η ειδοποίηση ανάκλησης αναφέρει: «Αυτό το άρθρο έχει ανακληθεί από τον Αρχισυντάκτη λόγω της παρουσίας τριών άσχετων αναφορών, συμπεριλαμβανομένης μίας αναφοράς σε μια φανταστική ασθένεια. Ως αποτέλεσμα, το συντακτικό προσωπικό του περιοδικού δεν έχει πλέον εμπιστοσύνη στην ακρίβεια ή την προέλευση του έργου, με αποτέλεσμα να απαιτείται ανάκληση. Οι συγγραφείς διαφωνούν με την απόφαση ανάκλησης.»

Η Ρουάνι λέει ότι το πρόβλημα ξεπερνά τα LLM, επειδή το πείραμα της bixonimania ξεγέλασε επίσης ανθρώπους που επικαλέστηκαν την ψεύτικη έρευνα. «Πρέπει να προστατεύσουμε την εμπιστοσύνη μας σαν τον χρυσό», λέει. «Είναι ένα χάος αυτή τη στιγμή».

Πειραματικές ανησυχίες

Η Osmanovic Thunström είχε επιφυλάξεις κατά την ανάπτυξη του πειράματός της. Ανησυχούσε για τους κινδύνους εισαγωγής μιας ψεύτικης ασθένειας στην επιστημονική βιβλιογραφία. Έτσι, επικοινώνησε με έναν σύμβουλο δεοντολογίας για να αξιολογήσει τις ανησυχίες σχετικά με την εργασία και επέλεξε μια σχετικά χαμηλού ρίσκου συνθήκη για να περιορίσει τον αντίκτυπο. «Ήθελα να βεβαιωθώ ότι δεν προκαλούμε περισσότερο κακό παρά καλό αποδεικνύοντάς το με αυτόν τον τρόπο», λέει.

Αυτός ο σύμβουλος, ο David Sundemo, γιατρός που διεξάγει έρευνα για την Τεχνητή Νοημοσύνη στην υγειονομική περίθαλψη στο Πανεπιστήμιο του Γκέτεμποργκ, λέει ότι η απόφαση ήταν άψογα ισορροπημένη. «Νομίζω ότι είναι πολύτιμο έργο, αλλά είναι επίσης κάπως αμφιλεγόμενο από ορισμένες απόψεις, ειδικά όταν πρόκειται για την εμφάνιση αυτών των ψευδών πληροφοριών», λέει. «Από την δική μου οπτική γωνία, αξίζει το ηθικό κόστος της φύτευσης ψευδών πληροφοριών από αυτή την άποψη», λέει ο Sundemo.

Αλλά ακόμη και με αυτούς τους ελέγχους, το πείραμα δεν είναι αποδεκτό από ορισμένους ερευνητές. «Μου φαίνεται ότι έχουν δημιουργήσει μια μορφή παραπληροφόρησης», λέει ο Γκλεν Κόεν από τη Νομική Σχολή του Χάρβαρντ στο Κέιμπριτζ της Μασαχουσέτης, ο οποίος ειδικεύεται στη διασταύρωση της ιατρικής ηθικής και του δικαίου. Ωστόσο, εξακολουθεί να λέει ότι πιστεύει ότι είναι μια «εξαιρετική μελέτη» και ότι «η παρακολούθηση των αποτελεσμάτων είναι καλή».

Από την πλευρά της, η Osmanovic Thunström διχάζεται για το τι πρέπει να κάνει με τις δύο πλαστές εργασίες και θα το συζητήσει αυτό με άλλους ερευνητές. «Εάν αποσυρθεί, μπορεί να είναι δύσκολο για άλλους να βρουν την πηγή και να επαληθεύσουν την πορεία μας», λέει. «Εάν αφεθεί, θα συνεχίσει να ανακαλείται στις αναζητήσεις». Το ερώτημα που πιστεύει ότι πρέπει να αντιμετωπίσει είναι αν το να αφήσει τις προεκτυπώσεις εκεί έξω κάνει περισσότερο κακό παρά καλό, καταδεικνύοντας τα πιθανά προβλήματα της Τεχνητής Νοημοσύνης.

Η δηλητηρίαση των συστημάτων τεχνητής νοημοσύνης

Το πείραμα της bixonimania αποτελεί μια νέα εκδοχή ενός μεγαλύτερου ζητήματος – της δηλητηρίασης συστημάτων τεχνητής νοημοσύνης από άτομα που χειραγωγούν την ακαδημαϊκή βιβλιογραφία.

Η Elisabeth Bik, μικροβιολόγος και ερευνήτρια ακεραιότητας , σημειώνει ότι οι ερευνητές έχουν δημιουργήσει ψεύτικα βιβλία και εργασίες για να διογκώσουν τον αριθμό των αναφορών τους στο Google Scholar — εκμεταλλευόμενη έτσι τα ίδια αυτοματοποιημένα συστήματα ευρετηρίασης που τροφοδοτούν τα δεδομένα εκπαίδευσης LLM. Η ανησυχία είναι ότι όσο περισσότερο ψεύτικο περιεχόμενο τροφοδοτείται στα μοντέλα τεχνητής νοημοσύνης, τόσο πιο πιθανό είναι αυτά τα μοντέλα τεχνητής νοημοσύνης να αναμασήσουν τις ψεύτικες πληροφορίες, απομακρύνοντάς μας από τα γεγονότα και την πραγματικότητα. «Όλα είναι αυτοματοποιημένα, επομένως υπάρχει πολύ μικρή πιθανότητα να παρέμβει ένας άνθρωπος και να εξαγάγει ψεύτικες πληροφορίες», λέει.

Είναι ιδιαίτερα επικίνδυνο όταν κατασκευασμένες πληροφορίες διεισδύουν στις ιατρικές οδηγίες των LLM, λέει ο Bik. «Αυτό μπορεί να είναι πολύ επιβλαβές». Και καθώς περισσότερες εταιρείες τεχνητής νοημοσύνης λανσάρουν προϊόντα που επικεντρώνονται στην υγεία – η OpenAI κυκλοφόρησε το ChatGPT Health τον Ιανουάριο, για παράδειγμα – η πιθανή ζημιά που προκύπτει από οτιδήποτε πάει στραβά αυξάνεται, δήλωσαν ορισμένοι ερευνητές στο Nature .

  • Το OpenAI αμφισβητεί αυτή την άποψη. «Το ChatGPT Health υποστηρίζεται από τα πιο πρόσφατα μοντέλα μας, τα οποία προσφέρουν την υψηλότερη απόδοση στην πραγματική χρήση της υγείας, ισχυρότερη κλινική συλλογιστική, λιγότερα πραγματικά σφάλματα και βελτιωμένη απόδοση στις αξιολογήσεις», λέει ένας εκπρόσωπος του OpenAI. Προσθέτει ότι τα αποτελέσματα του Osmanovic Thunström «αντανακλούν δυνατότητες που οι χρήστες δεν θα συναντούσαν σήμερα στο ChatGPT ή στο ChatGPT Health».

Ωστόσο, μεταξύ ορισμένων ερευνητών, υπάρχει ένας αυξανόμενος σκεπτικισμός σχετικά με τις δυνατότητες των μοντέλων Τεχνητής Νοημοσύνης στην ιατρική. Όταν ρωτήθηκε για αυτό το είδος χρήσης, ο Cohen είπε: «Υπάρχουν ανοιχτά ερωτήματα σχετικά με το πόση εμπιστοσύνη αξίζει, ειδικά όσον αφορά ερωτήματα που αφορούν συγκεκριμένες εφαρμογές».

Η άκριτη τάση της Τεχνητής Νοημοσύνης να απορροφά πληροφορίες, συχνά χωρίς να επαληθεύει την ακρίβειά τους, σημαίνει ότι υπάρχει κίνδυνος να δούμε μια «ασυμμετρία πληροφοριών», λέει η Jennifer Byrne , μοριακή ογκολόγος και ερευνήτρια ακεραιότητας στο Πανεπιστήμιο του Σίδνεϊ στην Αυστραλία. Μια μόνο διορθωτική εργασία σχετικά με την έρευνα για τον καρκίνο, για παράδειγμα, μπορεί να κατακλυστεί από εκατοντάδες εργασίες που επαναλαμβάνουν έναν ψευδή ισχυρισμό, λέει. «Το ChatGPT είναι αρκετά σίγουρο ότι μπορεί να καλύψει τα κενά και να δώσει στους ανθρώπους κάθε είδους πληροφορίες σχετικά με την προέλευση αυτής της κυτταρικής σειράς, τον ασθενή από τον οποίο προήλθε, πώς έχει χρησιμοποιηθεί στη βιβλιογραφία, την ερευνητική της χρησιμότητα και ούτω καθεξής», λέει.

Και αν τα LLM μπορούν να δηλητηριαστούν, «αυτό είναι κάτι που μας ανησυχεί», λέει ο Byrne.

Μια άλλη ανησυχία είναι ότι τα μοντέλα θα μπορούσαν να παραπλανηθούν — ενδεχομένως για εμπορικό όφελος. Η Osmanovic Thunström λέει ότι ένας κακός ηθοποιός θα μπορούσε να εκμεταλλευτεί την ίδια τεχνική που χρησιμοποίησε κι αυτή, για κέρδος. «Τι θα γινόταν αν ήμουν πωλητής γυαλιών με μπλε φως και ήθελα να το χρησιμοποιήσω αυτό ως επιχείρημα;» λέει. Ένας υποψήφιος πωλητής θα μπορούσε να πει: «Μπορείτε απλώς να μιλήσετε στο ChatGPT και θα σας πουν ότι αυτό είναι πρόβλημα. Μπορείτε να το αποφύγετε με αυτά τα πολύ ακριβά γυαλιά», προτείνει.

Ένας τρόπος για να αντιμετωπιστεί αυτό θα ήταν η ύπαρξη ενός αυτοματοποιημένου, ανοιχτής πρόσβασης σε διαδικασίες αξιολόγησης — μιας τυποποιημένης σειράς δοκιμών που θα πρέπει να περάσει κάθε μοντέλο υγείας που απευθύνεται στον καταναλωτή πριν από την ανάπτυξή του, ελέγχοντας όχι μόνο για ψευδαισθήσεις αλλά και για την ευαισθησία σε παραπληροφόρηση, κοινωνικοδημογραφικές προκαταλήψεις και άλλα σημεία πίεσης. «Θα πρέπει να το αξιολογήσουμε και να έχουμε μια διαδικασία για συνεχή αξιολόγηση», λέει ο Omar.

Ο χρόνος είναι πολύτιμος, επειδή η Byrne ανησυχεί ότι το ζήτημα που εντόπισε ο Osmanovic Thunström μπορεί να είναι απλώς η κορυφή του παγόβουνου. «Είναι ανησυχητικό όταν αυτοί οι σημαντικοί ισχυρισμοί απλώς περνούν από τη βιβλιογραφία χωρίς αμφισβήτηση ή περνούν από αξιολόγηση από ομοτίμους χωρίς αμφισβήτηση», λέει. «Νομίζω ότι πιθανότατα υπάρχουν πολλά άλλα ζητήματα που δεν έχουν αποκαλυφθεί».

Αυτό είναι κάτι που ανησυχεί και άλλους ειδικούς, καθώς η Τεχνητή Νοημοσύνη γίνεται ο κανόνας σε όλους τους τομείς της ζωής μας, συμπεριλαμβανομένου του τρόπου με τον οποίο οι άνθρωποι σκέφτονται την υγεία τους. «Εμείς και η υγεία μας δεν θα έπρεπε να είμαστε οι δοκιμαστές beta για τις εταιρείες», λέει ο Cohen.

Μετά την δημοσίευση αυτού του άρθρου, στις 10 Απριλίου, οι δύο προεκτυπώσεις στο bixonimania αφαιρέθηκαν από τον διακομιστή Preprints.org .

Nature.com, Chris Stokel-Walker



VIA: hellasjournal.com

Dimitris Marizas
Dimitris Marizashttps://techbit.gr
Μεταφράζω bits και bytes σε απλά ελληνικά. Λατρεύω την τεχνολογία που λύνει προβλήματα και αναζητώ πάντα το επόμενο "big thing" πριν γίνει mainstream.

Related Articles

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

- Advertisement -

Stay Connected

0ΥποστηρικτέςΚάντε Like
0ΑκόλουθοιΑκολουθήστε
- Advertisement -

Most Popular 48hrs

- Advertisement -

Latest Articles