Η έρευνα του BBC αποκαλύπτει τις σοβαρές ανακρίβειες των μοντέλων τεχνητής νοημοσύνης στην παραγωγή ειδήσεων. Το BBC προχώρησε σε έρευνα που επισημαίνει την επικίνδυνη σύγχυση μεταξύ γεγονότων και γνώμης στις περιλήψεις ειδήσεων που παράγουν κορυφαία μοντέλα τεχνητής νοημοσύνης. Σημαντικές ανακρίβειες και διαστρεβλώσεις παρατηρήθηκαν στις απαντήσεις των ChatGPT της OpenAI, Copilot της Microsoft, Gemini της Google και της εφαρμογής Perplexity AI (key001). Η διευθύνουσα σύμβουλος του BBC News, Ντέμπορα Τέρνες, τόνισε πως οι εταιρείες που βιάζονται να λανσάρουν τα μοντέλα τους στην αγορά παίζουν με τη φωτιά. Διερωτήθηκε επίσης πόσος χρόνος θα χρειαστεί πριν από έναν διαστρεβλωμένο τίτλο AI να προκαλέσει σοβαρές βλάβες στον πραγματικό κόσμο (key002).
Στη μελέτη, τα τέσσερα μοντέλα κλήθηκαν να αναλύσουν 100 άρθρα του BBC και να απαντήσουν σε σχετικές ερωτήσεις, οι οποίες αξιολογήθηκαν από δημοσιογράφους. Περίπου το 51% των απαντήσεων κρίθηκε ότι είχε σοβαρά προβλήματα. Για παράδειγμα, το 19% των απαντήσεων που υποτίθεται ότι παρέθεταν αποσπάσματα από το BBC περιείχαν πραγματολογικά σφάλματα, όπως λανθασμένες δηλώσεις και αριθμούς.
Ανάμεσα στα σημαντικά λάθη, το Gemini δήλωσε εσφαλμένα ότι το βρετανικό Εθνικό Σύστημα Υγείας δεν προτείνει το ηλεκτρονικό τσιγάρο για διακοπή καπνίσματος, ενώ το ChatGPT και το Copilot ανέφεραν ότι οι Ρίσι Σούνακ και Νίκολα Στέρτζεον κατέχουν ακόμα τις θέσεις τους. Η Perplexity, από την άλλη, διαστρέβλωσε άρθρο σχετικά με τη Μέση Ανατολή, αποδίδοντας λανθασμένα χαρακτηρισμούς στα γεγονότα που περιγράφονταν.
Γενικά, το Copilot και το Gemini παρουσίασαν περισσότερες εσφαλμένες απαντήσεις. Σύμφωνα με τους ερευνητές, η αποτυχία αυτή οφείλεται εν μέρει στην αδυναμία των μοντέλων να διακρίνουν μεταξύ γεγονότων και απόψεων. Κανονικά, το BBC χρησιμοποιεί αρχεία robot.txt για να αποτρέπει την πρόσβαση μοντέλων AI στο περιεχόμενό του, αλλά τον περασμένο Δεκέμβριο άνοιξε τον δικτυακό του τόπο για το πείραμα.
Πηγή περιεχομένου: in.gr