Τα συστήματα τεχνητής νοημοσύνης παρουσιάζουν προβλέψιμες και συστηματικές προκαταλήψεις όταν κρίνουν τους ανθρώπους, σύμφωνα με μια πρόσφατη μελέτη από το Εβραϊκό Πανεπιστήμιο που δημοσιεύτηκε στο Πρακτικά της Βασιλικής Εταιρείας. Η έρευνα ανέλυσε περισσότερες από 43.000 προσομοιωμένες αποφάσεις μαζί με περίπου 1.000 ανθρώπους συμμετέχοντες σε πέντε σενάρια, αποκαλύπτοντας σημαντικές διαφορές μεταξύ των αξιολογήσεων ανθρώπου και τεχνητής νοημοσύνης.
Τα σενάρια περιελάμβαναν οικονομικές αποφάσεις όπως δανεισμός χρημάτων σε ιδιοκτήτη μικρής επιχείρησης, καθώς και κοινωνικές κρίσεις όπως η αξιολόγηση μιας μπέιμπι σίτερ ή η απόφαση για το ποσό που θα δωρίσει σε έναν ιδρυτή μη κερδοσκοπικού χαρακτήρα. Τα ευρήματα δείχνουν ότι ενώ τόσο οι άνθρωποι όσο και η τεχνητή νοημοσύνη ευνοούσαν άτομα που θεωρούνται ικανά, ειλικρινή και καλοπροαίρετα, οι μηχανές λειτουργούν χρησιμοποιώντας άκαμπτα κριτήρια αξιολόγησης αντί να σχηματίζουν ολιστικές εντυπώσεις.
Ο καθηγητής Yaniv Dover παρατήρησε, “Η τεχνητή νοημοσύνη δεν λαμβάνει τυχαίες αποφάσεις. Αποτυπώνει κάτι αληθινό σχετικά με το πώς οι άνθρωποι αξιολογούν ο ένας τον άλλο”. Ωστόσο, η μελέτη σημείωσε ότι οι άνθρωποι τείνουν να δημιουργούν γενικές εντυπώσεις με βάση πολλαπλά χαρακτηριστικά, ενώ η τεχνητή νοημοσύνη αξιολογεί χαρακτηριστικά όπως η ικανότητα και η ακεραιότητα με πιο κατακερματισμένο τρόπο. Η Valeria Lerman εξήγησε περαιτέρω, “Τα άτομα στη μελέτη μας είναι ακατάστατα και ολιστικά στον τρόπο με τον οποίο κρίνουν τους άλλους. Η τεχνητή νοημοσύνη είναι πιο καθαρή, πιο συστηματική και αυτό μπορεί να οδηγήσει σε πολύ διαφορετικά αποτελέσματα.”
Οι διαφορές στα αποτελέσματα της αξιολόγησης ήταν εμφανείς ακόμα και όταν χρησιμοποιήθηκαν πανομοιότυπες λεπτομέρειες για τα θέματα. Οι ερευνητές διαπίστωσαν ότι οι προκαταλήψεις της τεχνητής νοημοσύνης θα μπορούσαν να είναι πιο συστηματικές και μερικές φορές ισχυρότερες από αυτές των ανθρώπων. Σε οικονομικά σενάρια, τα συστήματα τεχνητής νοημοσύνης εμφάνιζαν σταθερές προκαταλήψεις που ευνοούσαν τα ηλικιωμένα άτομα και επηρεάζονταν από πτυχές όπως η θρησκεία και το φύλο. «Οι άνθρωποι έχουν προκαταλήψεις, φυσικά», είπε ο Ντόβερ. «Αλλά αυτό που μας εξέπληξε είναι ότι οι προκαταλήψεις του AI μπορεί να είναι πιο συστηματικές, πιο προβλέψιμες και μερικές φορές πιο ισχυρές».
Η μελέτη αποκάλυψε ότι τα ποικίλα μοντέλα τεχνητής νοημοσύνης συχνά παράγουν διαφορετικές κρίσεις για το ίδιο άτομο. Αυτή η μεταβλητότητα υπογραμμίζει τη σημασία της επιλογής μοντέλων τεχνητής νοημοσύνης για τον προσδιορισμό των πραγματικών αποτελεσμάτων. «Ποιο μοντέλο χρησιμοποιείτε έχει πραγματικά σημασία», σημείωσε ο Λέρμαν. Επί του παρόντος, χρησιμοποιούνται μεγάλα γλωσσικά μοντέλα για τον έλεγχο υποψηφίων για εργασία, την αξιολόγηση της πιστοληπτικής ικανότητας και άλλους ρόλους λήψης αποφάσεων.
Ενώ η τεχνητή νοημοσύνη μιμείται τις ανθρώπινες διαδικασίες κρίσης, οι ερευνητές τη βρήκαν λιγότερο λεπτή και πιο άκαμπτη, συχνά με προκαταλήψεις που είναι πιο δύσκολο να εντοπιστούν. «Αυτά τα συστήματα είναι ισχυρά», τόνισε ο Ντόβερ. “Μπορούν να μοντελοποιήσουν πτυχές του ανθρώπινου συλλογισμού με συνεπή τρόπο. Αλλά δεν είναι άνθρωποι και δεν πρέπει να υποθέσουμε ότι βλέπουν τους ανθρώπους όπως εμείς.”
Οι ερευνητές υποστηρίζουν μια βαθύτερη κατανόηση των διαδικασιών αξιολόγησης της τεχνητής νοημοσύνης καθώς αυτά τα εργαλεία εξελίσσονται από βοηθούς σε υπεύθυνους λήψης αποφάσεων. Διευκρινίζουν ότι ο στόχος δεν είναι να αποθαρρύνουν τη χρήση της τεχνητής νοημοσύνης αλλά να αυξήσουν την ευαισθητοποίηση σχετικά με το πώς αυτά τα συστήματα εμπιστεύονται τα άτομα. «Το ερώτημα δεν είναι πλέον αν εμπιστευόμαστε τις μηχανές, αλλά αν καταλαβαίνουμε πώς μας εμπιστεύονται», καταλήγει η μελέτη.
VIA: dataconomy.com


