Τεχνητή νοημοσύνη: Βλέπουμε τα πράγματα κοντόφθαλμα και ανησυχούμε για λάθος λόγους.
Η Τεχνητή νοημοσύνη στην έρευνα και τον ακαδημαϊκό χώρο

Τεχνητή νοημοσύνη: Βλέπουμε τα πράγματα κοντόφθαλμα και ανησυχούμε για λάθος λόγους. Η Τεχνητή νοημοσύνη στην έρευνα και τον ακαδημαϊκό χώρο

Η γενετική τεχνητή νοημοσύνη (AI) έχει προκαλέσει αναταράξεις σε πολλούς τομείς της ανθρώπινης δραστηριότητας, με την ακαδημαϊκή και ερευνητική κοινότητα να μην εξαιρούνται. Οι μαθητές μπορούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη για να γράψουν τις εργασίες τους και οι ερευνητές μπορούν να την χρησιμοποιήσουν όχι μόνο για να γράψουν τις εργασίες τους, αλλά και για να δημιουργήσουν πλαστές βάσεις δεδομένων ή εικόνες. Ωστόσο, δεν είναι όλες οι εξελίξεις αρνητικές. Η τεχνητή νοημοσύνη ως εργαλείο μπορεί να βοηθήσει το γραπτό λόγο των μη γηγενών ομιλητών της αγγλικής γλώσσας. Επίσης, να βοηθήσει στη βιβλιογραφική έρευνα και στη σύνταξη κώδικα. Το ερώτημα είναι πως αυτό μπορεί να γίνει με ηθικό τρόπο.

Μιλώντας στο 8ο Παγκόσμιο Συνέδριο για την Ακεραιότητα της Έρευνας, που έλαβε χώρα για πρώτη φορά στην Αθήνα 02-05 Ιουνίου, δύο ακαδημαϊκοί από διαφορετικούς τομείς συναντήθηκαν για να συζητήσουν αυτό το θέμα: ο Δρ. Tomáš Foltýnek, Επίκουρος Καθηγητής στη Σχολή Πληροφορικής του Πανεπιστημίου Masaryk στην Τσεχία και η Δρ. Sarah Elaine Eaton, Αναπληρώτρια Καθηγήτρια του Πανεπιστημίου του Κάλγκαρι του Καναδά και Αρχισυντάκτης του International Journal for Educational Integrity (Διεθνές περιοδικού για την εκπαιδευτική ακεραιότητα).

Οι δυο τους συνομιλούν με την Dr. Sonja Bjelobaba, Επίκουρη Καθηγήτρια στο Πανεπιστήμιο της Ουψάλα.

Ερώτηση (Sonja Bjelobaba): Οι τεχνολογίες του Παγκόσμιου Συστήματος Στιγματοθέτησης (Global Positioning SystemsGPS) είχαν ως αποτέλεσμα οι άνθρωποι να μην μπορούν πλέον να διαβάζουν χάρτες. Υπάρχει κίνδυνος η χρήση της τεχνητής νοημοσύνης στην εκπαίδευση και την έρευνα να οδηγήσει σε έναν κόσμο όπου οι ερευνητές δεν θα μπορούν να διεξάγουν την έρευνά τους χωρίς την τεχνητή νοημοσύνη;

 

TF: Αυτά τα εργαλεία είναι χρήσιμα και μπορούν να αυξήσουν την ποιότητα του ακαδημαϊκού αποτελέσματος. Βεβαίως, παραμένει σημαντικό οι ερευνητές να παραμείνουν σε θέση να διεξάγουν μόνοι τους όλα τα στοιχεία της εργασίας τους, αναγνωρίζοντας κάποια σημεία στα οποία η τεχνητή νοημοσύνη μπορεί να τους είναι χρήσιμη. Για παράδειγμα, ως μη γηγενής ομιλητής της αγγλικής γλώσσας, δεν βλέπω κανένα πρόβλημα στο να χρησιμοποιήσω τα εργαλεία της τεχνητής νοημοσύνης ώστε να βελτιώσω το γραπτό μου λόγο. Βεβαίως, το αρχικό κείμενο το οποίο θα βελτιώσει η τεχνητή νοημοσύνη πρέπει να είναι δικό μου. Αυτό ως αρχή μπορεί να εφαρμοστεί σε όλα τα άλλα στάδια της ερευνητικής δραστηριότητας.

S.E.E.: Είμαι πολύ απρόθυμη να προσυπογράψω αυτού του είδους τις γενικεύσεις. Θα έλεγα ότι αν κάποτε μάθατε να διαβάζετε έναν χάρτη, το πιο πιθανό είναι ότι θα διατηρήσετε αυτή τη γνώση.

Κάθε γενιά χρησιμοποιεί τα εργαλεία που έχει στη διάθεσή της. Δεν έμαθα να πλένω ρούχα χρησιμοποιώντας σανίδα, αυτό γινόταν στην εποχή των γιαγιάδων μου και στη γενιά πριν από εκείνες. Εγώ χρησιμοποιώ πλυντήριο ρούχων. Εν τέλει, όλοι θέλουμε να φτάσουμε σε έναν συγκεκριμένο προορισμό, θέλουμε καθαρά ρούχα. Τα εργαλεία που χρησιμοποιούμε για να φτάσουμε σε οποιονδήποτε προορισμό εξαρτώνται από τη γενιά μας και τα εργαλεία που έχουμε στη διάθεσή μας.

Καθώς οι συνθήκες αλλάζουν χρειαζόμαστε διαφορετικές δεξιότητες και πρέπει να μπορούμε να χρησιμοποιούμε εργαλεία με διαφορετικούς τρόπους. Το σημαντικό είναι να μπορώ να αξιολογώ κριτικά ποια εργαλεία χρειάζομαι και πως να τα χρησιμοποιώ για να έχω το πιο χρήσιμο αποτέλεσμα.

Ερώτηση: Χρειαζόμαστε συγκεκριμένους κανόνες και πολιτικές για τη διαχείριση της τεχνητής νοημοσύνης στον ακαδημαϊκό χώρο και πώς αναπτύσσουμε αυτούς τους κανόνες;

TF: Πιστεύω ότι δεν χρειαζόμαστε ειδικές πολιτικές προσαρμοσμένες στην τεχνητή νοημοσύνη. Οι προκλήσεις που φέρνει η τεχνητή νοημοσύνη δεν είναι νέες. Η τεχνητή νοημοσύνη μόλις επιδείνωσε τις υπάρχουσες προκλήσεις που αντιμετωπίζαμε ήδη στον ακαδημαϊκό χώρο, όπως η λογοκλοπή, η παραποίηση δεδομένων κ.λπ. Πάντα χρειαζόμασταν πολιτικές για την αντιμετώπιση αυτών των προκλήσεων.

Οι πολιτικές που υπάρχουν πρέπει να είναι αρκετά γενικές για να αντέξουν τις τεχνολογικές αλλαγές. Αυτό είναι πολύ σημαντικό, γιατί δεν ξέρουμε πως θα είναι η τεχνητή νοημοσύνη σε δύο ή τρία χρόνια. Έτσι, αν κάνουμε τώρα μια προσαρμοσμένη πολιτική για τη γενετική τεχνητή νοημοσύνη, μπορεί κάλλιστα να είναι ξεπερασμένη σε τρία ή πέντε χρόνια.

S.E.E.: Είναι χρήσιμο να αποσυνδεθεί η πολιτική από τη διαδικασία και την πρακτική. Οι πολιτικές χρειάζονται χρόνο για να αναπτυχθούν και προϋποθέτουν διαδικασίες, αναθεωρήσεις και συζητήσεις για να εγκριθούν. Ταυτόχρονα αυτές οι χρονοβόρες διαδικασίες μπορεί να τις κάνουν ανελαστικές. Αυτό που χρειάζεται είναι να αναπτύξουμε πολιτικές που να μπορούν να έχουν διάρκεια, δεδομένου ότι θα εξακολουθούν να ισχύουν σε πέντε χρόνια από τώρα και, εν τω μεταξύ, να έχουμε διαδικασίες και πρακτικές που δεν υπερισχύουν των πολιτικών, αλλά μπορούν να χρησιμοποιηθούν για να λειτουργήσουν οι πολιτικές με πιο επιδεκτικό και ευέλικτο τρόπο. Αυτό μας παρέχει ευελιξία για την άμεση αντιμετώπιση προβλημάτων εν τη γενέσει τους, ώστε η πολιτική να παραμείνει ανέπαφη μέχρι την επόμενη διαδικασία αναθεώρησής της.

Ερώτηση: Αναφέρατε ότι δεν ξέρουμε πως θα είναι τα πράγματα σε δύο ή τρία χρόνια από τώρα. Αν όμως θα θέλαμε να κάνουμε μια εικασία, ποιες πιστεύετε ότι θα είναι οι ηθικές προκλήσεις σε πέντε χρόνια από τώρα;

TF: Το μόνο πράγμα για το οποίο μπορούμε να είμαστε σίγουροι είναι το ότι κανείς δεν ξέρει. Θεωρώ ότι μπορούμε να συνηθίσουμε τις τεχνολογίες τεχνητής νοημοσύνης και η πίεση για διαφάνεια γύρω από τη χρήση αυτών των εργαλείων τεχνητής νοημοσύνης θα είναι μικρότερη από ό,τι είναι τώρα. Στις μέρες μας κανείς δεν δίνει λόγο ότι για να γράψουμε αυτό το άρθρο, χρησιμοποιήσαμε το Microsoft Wordή το Google Documents για συνεργατική γραφή. Ορισμένες μελέτες εξακολουθούν να αναφέρουν το είδους του λογισμικού που χρησιμοποιήθηκε για την επεξεργασία των δεδομένων, αλλά ακόμα και εάν δεν αναφέρεται εκεί ρητά, δεν είναι μεγάλο ζήτημα, διότι όλοι πια χρησιμοποιούν στατιστικό λογισμικό για την επεξεργασία των δεδομένων δεν το κάνουμε πλέον χειροκίνητα. Το ίδιο μπορούμε να περιμένουμε από τα εργαλεία τεχνητής νοημοσύνης.

Επειδή όμως αυτό είναι κάτι νέο, πιστεύουμε ότι είναι σημαντικό να αναφέρουμε κάθε εργαλείο που χρησιμοποιούμε στη διαδικασία. Βέβαια, όσο πιο διαδεδομένα γίνονται αυτά τα εργαλεία, τόσο λιγότερη πίεση θα υπάρχει για αυτό.

Ωστόσο, θα εξακολουθούν να υπάρχουν οι ίδιες προκλήσεις γύρω από τον κίνδυνο λανθασμένων ή παραπλανητικών πληροφοριών. Επομένως, κατά την άποψή μου, το θέμα της ευθύνης και της λογοδοσίας θα γίνεται όλο και σημαντικότερο, ενώ το θέμα της αναγνώρισης θα γίνεται λιγότερο σημαντικό.

Ερώτηση: Σάρα, έχεις γράψει πολλά σχετικά με τις έννοιες της λογοκλοπής και της αυθεντικότητας, τα οποία πρόκειται να αλλάξουν λόγω αυτής της τεχνολογίας.

S.E.E.: Ναι, υπάρχουν νέες έννοιες λογοκλοπής, οι οποίες επικράτησαν ουσιαστικά την εποχή του τυπογραφείου σίγουρα κατά τη μαζικοποίηση της εκπαίδευσης στη βιομηχανική επανάσταση, αρχίσαμε να βλέπουμε τη λογοκλοπή ως συμπεριφορά μαθητών, να γίνεται αξιόποινο αδίκημα.

Όμως εμπνέομαι από το έργο μιας εκπαιδευτικής τεχνολόγου που ονομάζεται Amy Orben , η οποία μιλάει για τον Σισύφειο κύκλο του ηθικού πανικού για την τεχνολογία.

Επί της ουσίας, μιλάει για το πως κάθε νέα τεχνολογία φέρνει μαζί της έναν «ηθικό πανικό» στην κοινωνία και στη συνέχεια, καθώς συνηθίζουμε την εκάστοτε τεχνολογία, αυτή γίνεται μέρος της καθημερινότητας. Στην πορεία, αρχίζουμε να αναρωτιόμαστε πως κάποτε ζούσαμε χωρίς αυτήν. Η Orben δίνει παράδειγμα μιας τεχνολογίας που προκάλεσε απίστευτο ηθικό πανικό τον εικοστό αιώνα, με τους γονείς να πιστεύουν ότι θα έκανε τα παιδιά τους άμυαλα. Η τεχνολογία, που υποτίθεται ότι θα προκαλούσε τέτοιου βαθμού ηθική φαυλότητα ήταν απλώς το ραδιόφωνο.

Για να απαντήσουμε λοιπόν στην ερώτηση του τι θα ακολουθήσει, χωρίς να έχουμε καμιά κρυστάλλινη σφαίρα, θα πρέπει να πούμε ότι αν στην σημερινή κοινωνία ανησυχούμε για τη χρήση του ChatGPT, τότε βλέπουμε τα πράγματα κοντόφθαλμα και ανησυχούμε για λάθος λόγους. Και αν ανησυχούμε για τη λογοκλοπή ως μια διαδικασία «αποκοπής/επικόλλησης» (copy/paste) και ως κλοπή ιδεών, αυτές οι έννοιες θα συνεχίσουν να αμφισβητούνται, καθώς αντιμετωπίζουμε όλο και μεγαλύτερη πολυπλοκότητα σχετικά με το κείμενο που δημιουργείται από την τεχνητή νοημοσύνη, σε αντίθεση με το κείμενο που δημιουργείται από τον άνθρωπο, υπό την έννοια του ποιος κατέχει τι.

Αλλά αυτή τη στιγμή δεν έχουμε τις απαντήσεις. Η τεχνολογία θα συνεχίσει να εξελίσσεται και η προσπάθεια να είμαστε ένα βήμα μπροστά από αυτήν θα είναι εξαιρετικά σημαντική. Ανεξαρτήτως από το πως το αντιλαμβάνονται αυτό οι άνθρωποι.

 

Πηγή: Convin Α.Ε. / Συνέδριο 8ο WCRI 2024

 

 

 

 

©Πηγή: ΑΠΕ-ΜΠΕ

Loading

Play