Η Google παρουσίασε πρόσφατα την οικογένεια μοντέλων τεχνητής νοημοσύνης PaliGemma 2, η οποία διαθέτει την ικανότητα να «αναγνωρίζει» συναισθήματα μέσω ανάλυσης εικόνων. Σύμφωνα με την εταιρεία, τα μοντέλα αυτά προχωρούν πέρα από την απλή αναγνώριση αντικειμένων, δημιουργώντας περιγραφές που περιλαμβάνουν συναισθηματικές καταστάσεις και το γενικότερο πλαίσιο μιας σκηνής.
Ωστόσο, η λειτουργία αναγνώρισης συναισθημάτων δεν είναι ενεργοποιημένη από προεπιλογή, κάτι που απαιτεί ειδική ρύθμιση. Παρ’ όλα αυτά, η προοπτική ευρείας διάθεσης τέτοιων δυνατοτήτων έχει θορυβήσει την επιστημονική κοινότητα, η οποία επισημαίνει πιθανά ηθικά, επιστημονικά και κοινωνικά ζητήματα.
Μπορεί το AI να «διαβάσει» συναισθήματα;
Η αμφισβήτηση της αποτελεσματικότητας τέτοιων μοντέλων ξεκινά από τη θεμελιώδη δυσκολία κατανόησης των ανθρώπινων συναισθημάτων. Η Sandra Wachter, καθηγήτρια στο Internet Institute του Πανεπιστημίου της Οξφόρδης, δήλωσε ότι η ιδέα της ανίχνευσης συναισθημάτων από την τεχνητή νοημοσύνη μοιάζει με «κρυστάλλινη μπάλα», αμφισβητώντας τη δυνατότητα ακριβούς αποκωδικοποίησης συναισθημάτων μέσω των εκφράσεων του προσώπου.
Η τεχνολογία βασίζεται σε μεγάλο βαθμό στο πρώιμο έργο του ψυχολόγου Paul Ekman, ο οποίος υποστήριξε ότι οι άνθρωποι εκφράζουν έξι βασικά συναισθήματα μέσω συγκεκριμένων εκφράσεων. Ωστόσο, νεότερες μελέτες αμφισβήτησαν αυτή την προσέγγιση, τονίζοντας τις πολιτισμικές και προσωπικές διαφορές στην έκφραση συναισθημάτων.
Ο Mike Cook, ερευνητής τεχνητής νοημοσύνης στο Πανεπιστήμιο Queen Mary, εξηγεί ότι η ανίχνευση συναισθημάτων σε μεγάλη κλίμακα είναι ανέφικτη λόγω της πολυπλοκότητας της ανθρώπινης συναισθηματικής εμπειρίας. Επιπλέον, προειδοποιεί ότι τέτοιες τεχνολογίες συχνά «κληρονομούν» προκαταλήψεις, όπως φάνηκε σε μελέτες που έδειξαν πως συστήματα ανάλυσης προσώπων τείνουν να αποδίδουν περισσότερα αρνητικά συναισθήματα σε πρόσωπα μαύρων ανθρώπων συγκριτικά με λευκούς.
Ηθικά και κοινωνικά διλήμματα
Ενώ η Google ισχυρίζεται ότι το PaliGemma 2 έχει υποβληθεί σε «εκτεταμένες δοκιμές» για την ελαχιστοποίηση δημογραφικών προκαταλήψεων, οι λεπτομέρειες για αυτές τις δοκιμές παραμένουν ασαφείς.
Οι ειδικοί προειδοποιούν για τη χρήση αυτής της τεχνολογίας σε περιβάλλοντα όπως σχολεία, χώρους εργασίας, ή ακόμη και από αστυνομικές αρχές. Το Ευρωπαϊκό Κοινοβούλιο έχει ήδη θεσπίσει νόμους που απαγορεύουν τη χρήση ανιχνευτών συναισθημάτων σε «υψηλού κινδύνου» περιβάλλοντα, αν και οι απαγορεύσεις δεν καλύπτουν όλες τις περιπτώσεις.
Η Sandra Wachter υπογραμμίζει ότι η υπεύθυνη ανάπτυξη τέτοιων τεχνολογιών απαιτεί εξέταση των πιθανών συνεπειών από τα αρχικά στάδια σχεδιασμού. «Φανταστείτε ένα μέλλον όπου τα συναισθήματά σας καθορίζουν αν θα λάβετε δάνειο, αν θα αποκτήσετε μια δουλειά ή αν θα γίνετε δεκτοί σε ένα πανεπιστήμιο», αναφέρει.
Οι ευρύτερες συνέπειες
Η διαθεσιμότητα μοντέλων όπως το PaliGemma 2 σε πλατφόρμες όπως το Hugging Face εντείνει τις ανησυχίες για κατάχρηση. Οι ειδικοί υπογραμμίζουν ότι αν η συναισθηματική αναγνώριση βασίζεται σε ψευδοεπιστημονικές βάσεις, οι συνέπειες μπορεί να είναι δυσανάλογες για περιθωριοποιημένες ομάδες.
Η Google διαβεβαιώνει ότι λαμβάνει μέτρα για την αποτροπή κατάχρησης, αλλά οι επικριτές παραμένουν δύσπιστοι. «Η τεχνολογία αυτή, αν δεν ελεγχθεί, θα μπορούσε να οδηγήσει σε δυστοπικά σενάρια», προειδοποιεί ο Mike Cook.
Η συζήτηση για τη συναισθηματική ανίχνευση αποτελεί μέρος μιας ευρύτερης αναζήτησης ισορροπίας μεταξύ καινοτομίας και ηθικής στη χρήση της τεχνητής νοημοσύνης.