Τα στραβά της τεχνητής νοημοσύνης

ΒΑΛΙΑ ΚΑΪΜΑΚΗ Δημοσιεύθηκε 22.1.2023

Για το ChatGPT γράψαμε την περασμένη εβδομάδα. Είπαμε ότι είναι μια εφαρμογή τεχνητής νοημοσύνης που μας κάνει να νομίζουμε ότι συνομιλούμε με άνθρωπο. Σημειώσαμε επίσης ότι έχει γίνει πολύ δημοφιλές και καθημερινά όλο και περισσότεροι μιλάνε γι’ αυτό. Τις τελευταίες ημέρες δε, η δημοφιλία του εκτινάχθηκε. Σε τέτοιο σημείο, που «έπεσε» και μετά ξανα-«έπεσε» και πια δεν είναι σίγουρο εάν θα το πετύχεις να λειτουργεί ή όχι.

Οι λόγοι για τους οποίους μπορεί να το χρησιμοποιήσει κάποιος είναι πολλοί, όμως πρόσφατα ήρθε στο φως της δημοσιότητας ότι μία από τις πιο δημοφιλείς χρήσεις είναι από φοιτητές για να… τους γράφει τις εργασίες.

Το ChatGPT είναι μια εφαρμογή που προέρχεται από ένα «γλωσσικό μοντέλο» που ονομάζεται GPT-3. Ένα γλωσσικό μοντέλο προκύπτει από μια στατιστική ανάλυση της κατανομής των λέξεων σε προϋπάρχοντα κείμενα. Η δύναμη της τεχνητής νοημοσύνης πίσω από το ChatGPT είναι η ικανότητά της να εξάγει πολύ μεγάλα κείμενα ως απάντηση σε ερωτήσεις. Τα αποτελέσματα είναι ιδιαίτερα εντυπωσιακά όταν πρόκειται για την παραγωγή ακολουθιών κώδικα υπολογιστή - η γλώσσα του οποίου είναι ιδιαίτερα κωδικοποιημένη και «λογική» - αλλά οι επιδόσεις του είναι αρκετά εντυπωσιακές και στην καθημερινή γλώσσα. Στην πραγματικότητα, όμως, ακόμη και αν προσφέρει 100 διαφορετικές απαντήσεις στην ίδια ερώτηση, η μηχανή ακολουθεί πάντα την ίδια περίπου συνταγή, εμπνευσμένη από χιλιάδες μοντέλα που είναι διαθέσιμα στο διαδίκτυο.

Το κύριο χαρακτηριστικό των γλωσσικών μοντέλων που χρησιμοποιούν οι εφαρμογές τεχνητής νοημοσύνης παραμένει η «ψευδαίσθηση της ακρίβειας», όπως παρατήρησε στα μέσα Δεκεμβρίου η Μελίσα Χεϊκίλα, δημοσιογράφος του «MIT Technology Review» που ειδικεύεται σε θέματα τεχνητής νοημοσύνης. «Οι προτάσεις που παράγουν, ακούγονται σωστές - χρησιμοποιούν τα σωστά είδη λέξεων στη σωστή σειρά. Αλλά η τεχνητή νοημοσύνη δεν ξέρει τι σημαίνει αυτό. Αυτά τα μοντέλα [...] δεν έχουν ιδέα για το τι είναι σωστό και τι λάθος και παρουσιάζουν με αυτοπεποίθηση πληροφορίες ως αληθινές, ακόμη και αν δεν είναι...», έγραψε.

Αρκετές ερευνητικές ομάδες σε όλο τον κόσμο εργάζονται για την ανάπτυξη λογισμικού που μπορεί να ανιχνεύει στυλιστικά «τικ» στην τεχνητή νοημοσύνη. Σε μια μελέτη που δημοσιεύθηκε το 2020, μια ομάδα ερευνητών του Πανεπιστημίου της Πενσιλβάνια και του εργαστηρίου Google Brain που ασχολείται με τη «βαθιά μάθηση» (deep learning) παρατήρησε ότι τα κείμενα αυτά κάνουν κατάχρηση απρόσωπων λέξεων και χρησιμοποιούν λίγες «σπάνιες» λέξεις (αργκό, διαρκή γλώσσα κ.λπ.). Τα κείμενα που παράγονται από τεχνητή νοημοσύνη είναι επίσης γραμμένα χωρίς τυπογραφικά λάθη.

Δύσκολο βέβαια ένας καθηγητής να διακρίνει τέτοιου είδους λεπτές γραμμές για να αποφανθεί εάν ένα κείμενο είναι πρωτότυπο ή όχι. Όσο για τις συνηθισμένες εφαρμογές ανίχνευσης λογοκλοπής που χρησιμοποιούνται στα πανεπιστήμια, ούτε κι αυτές μπορούν να βοηθήσουν. Αναγκαστικά, λοιπόν, την τελευταία περίοδο έχουν αρχίσει να αναπτύσσονται νέες που θα αναγνωρίζουν το ιδιαίτερο «στυλ» της τεχνητής νοημοσύνης. Οι αλγόριθμοι εκπαιδεύονται για να εντοπίζουν κείμενα γραμμένα από ανθρώπους και τεχνητή νοημοσύνη αντίστοιχα (που σχετίζονται με GPT, GPT-2 ή άλλα γλωσσικά μοντέλα). Εν ολίγοις, η τεχνητή νοημοσύνη καλείται να ανιχνεύσει την τεχνητή νοημοσύνη.

Μεταξύ αυτών των εργαλείων, μπορούμε να αναφέρουμε GPT-2 Output Detector που δημιουργήθηκε το 2019 το οποίο υποστηρίζεται από το OpenAI , την εταιρεία που δημιούργησε το GPT. Αλλά και η επέκταση του προγράμματος περιήγησης Chrome GPTrue or False, το Giant Language Model Test Room (GLTR), που αναπτύχθηκε από μια ομάδα του Χάρβαρντ σε συνεργασία με την IBM, και ο ανιχνευτής CTRL, που αναπτύχθηκε από την εταιρεία λογισμικού Salesforce ανήκουν σ’ αυτήν τη νέα κατηγορία. Βέβαια, τα εργαλεία αυτά αναπτύχθηκαν και αξιολογήθηκαν κυρίως σε σώματα κειμένων στην αγγλική γλώσσα και ορισμένα από αυτά είναι ιδιαίτερα αποτελεσματικά... εφόσον όμως το προτεινόμενο κείμενο παράγεται εξ ολοκλήρου από την τεχνητή νοημοσύνη. Αν ο φοιτητής το έχει επεξεργαστεί στη συνέχεια -και μάλιστα με χρήση λογισμικού αυτοματοποιημένης παράφρασης (!)- τότε και η τεχνητή νοημοσύνη σηκώνει ψηλά τα χέρια.

Τι μπορούμε να κάνουμε; Απλό, απλούστατο. Να αλλάξουμε την εκπαιδευτική διαδικασία. Αλλά αυτό είναι άλλη συζήτηση.

ΔΙΑΒΑΣΤΕ ΑΚΟΜΗ
«... εν σώματι» | Τρεις στοχασμοί με ταπεινότητα

«... εν σώματι» | Τρεις στοχασμοί με ταπεινότητα

«... εν σώματι» | Τρεις στοχασμοί με ταπεινότητα

Τι απέγιναν οι ιδρυτές του Facebook;

Τι απέγιναν οι ιδρυτές του Facebook;

Τι απέγιναν οι ιδρυτές του Facebook;