Η τεχνητή νοημοσύνη αναπαράγει και ενισχύει κοινωνικές προκαταλήψεις, επηρεάζοντας τις απεικονίσεις και τις σχέσεις. Η τεχνητή νοημοσύνη, όπως έχει αποδειχθεί πολλές φορές, δεν είναι αμερόληπτη και αντικειμενική. Μια πρόσφατη έρευνα της Unesco σε εργαλεία AI, όπως το ChatGPT, αποκάλυψε ότι τα γυναικεία ονόματα έχουν έως και τέσσερις φορές μεγαλύτερη πιθανότητα να συνδέονται με λέξεις όπως σπίτι, παιδιά, και οικογένεια, ενώ τα αντρικά ονόματα συνδυάζονται πιο συχνά με έννοιες όπως καριέρα και αμοιβές. Παρά τις υποσχέσεις των εταιρειών τεχνητής νοημοσύνης για τη συνεχή βελτίωση των μοντέλων τους ώστε να είναι πιο συμπεριληπτικά, αυτή η πρόθεση δεν επιβεβαιώνεται στην πράξη. Ιδίως οι φωτογραφίες και τα βίντεο που δημιουργούνται μέσω εργαλείων ΑΙ, βρίθουν ρατσιστικών, έμφυλων και σεξιστικών στερεοτύπων. Σχετική έρευνα του Bloomberg έδειξε ότι τα εργαλεία δημιουργίας εικόνας όχι μόνο αναπαράγουν τις προκαταλήψεις αλλά τείνουν και να τις εντείνουν, με πρόσφατη ανάλυση του περιοδικού Wired να αναδεικνύει ότι τα στερεότυπα είναι πιο εμφανή από ποτέ.
Η μεροληψία στη δημιουργία κειμένων και εικόνων μέσω ΑΙ συνδέεται με τη λειτουργία αυτών των συστημάτων, τα οποία αναλύουν τεράστιες ποσότητες δεδομένων, που συχνά περιλαμβάνουν υπάρχουσες κοινωνικές προκαταλήψεις. Με αυτόν τον τρόπο, οι προκαταλήψεις όχι μόνο διατηρούνται αλλά και εντείνονται. Έτσι, δημοσιογράφοι του Wired δημιούργησαν 250 βίντεο για να αναλύσουν την απεικόνιση ανθρώπων, σχέσεων και επαγγελματικών ρόλων, αποδεικνύοντας ότι τα ευρήματα δεν περιορίζονται στο συγκεκριμένο μοντέλο ΑΙ.
Η επικρατούσα χρήση των βίντεο τεχνητής νοημοσύνης στον τομέα της διαφήμισης και του μάρκετινγκ μπορεί να ενισχύσει ήδη υπάρχοντα στερεότυπα και να περιθωριοποιήσει κοινωνικές ομάδες. Σύμφωνα με την Amy Gaeta, επιστημονική συνεργάτη στο Κέντρο Leverhulme για το μέλλον της νοημοσύνης του Πανεπιστημίου του Cambridge, οι προκαταλήψεις του ΑΙ έχουν τη δυνατότητα να γίνουν επιβλαβείς στην πραγματική ζωή.
Η ανάλυση των προκαταλήψεων του Sora περιλαμβάνει τη δημιουργία προτροπών για την αναπαράσταση ανθρώπων, αποκαλύπτοντας την τάση των βίντεο να αντικατοπτρίζουν μη ρεαλιστικά πρότυπα. Όταν οι προτροπές αφορούσαν επαγγελματικές εικόνες, το Sora παρουσίασε σημαντική μεροληψία, καθώς δεν απεικόνισε γυναίκες στις περισσότερες περιπτώσεις αντρικών επαγγελμάτων.
Η εξέλιξη των βίντεο του Sora αποδεικνύει την ανάγκη αναθεώρησης των δεδομένων εκπαίδευσης και των διαδικασιών ελέγχου, καθώς η διόρθωση των επιβλαβών προκαταλήψεων είναι μια πολυσύνθετη διαδικασία. Οι εταιρείες θα πρέπει να περιλαμβάνουν ευρύτερη γκάμα κριτών στις διαδικασίες αξιολόγησης, αντί να στηρίζονται αποκλειστικά σε ειδικούς που μπορεί να έχουν τις ίδιες προκαταλήψεις.
Πηγή περιεχομένου: in.gr