Από τότε που η Open AI, η εταιρεία πίσω από τη DALL·E, την γεννήτρια τέχνης τεχνητής νοημοσύνης, κυκλοφόρησε το blockbuster bot Chat GPT τον Νοέμβριο, έχει προκαλέσει συνεχείς πειραματισμούς, για να εξερευνηθούν οι δυνατότητές του.
Σε παλαιότερους millennials που μεγάλωσαν με το IRC- ένα από τα πρώτα συστήματα ανταλλαγής άμεσων μηνυμάτων -, ο προσωπικός τόνος συζήτησης με το bot μπορεί να επαναφέρει στη μνήμη αυτό το είδος της διαδικτυακής συνομιλίας.
Το Chat GPT, γνωστό ως “εργαλείο μοντέλων μεγάλων γλωσσών”, δεν μιλάει με συναίσθημα και δεν “σκέφτεται” όπως οι άνθρωποι. Αυτό σημαίνει ότι παρόλο που μπορεί να εξηγήσει την κβαντική φυσική ή να γράψει ένα ποίημα κατόπιν εντολής, σύμφωνα με τους ειδικούς, απέχουμε αρκετά από το να αναλάβει τα πάντα η τεχνητή νοημοσύνη.
Σύμφωνα με τον Μάθιου Σαγκ, Καθηγητή Νομικής στο Πανεπιστήμιο Έμορι, που μελετά τις επιπτώσεις της εκπαίδευσης και της χρήσης μοντέλων μεγάλων γλωσσών, όπως το Chat GPT, στα πνευματικά δικαιώματα, υπάρχει μία φράση που λέει, πως “αν δώσεις απεριόριστο χρόνο σε απεριόριστο αριθμό πιθήκων θα σου δώσουν ένα έργο του Σαίξπηρ”. “Υπάρχει ένας μεγάλος αριθμός πιθήκων”, συνεχίζει “που σας δίνουν εντυπωσιακά πράγματα, αλλά υπάρχει μια διαφορά μεταξύ του τρόπου με τον οποίο οι άνθρωποι παράγουν γλώσσα και του τρόπου με τον οποίο τα μοντέλα μεγάλων γλωσσών το κάνουν”.
Τα ρομπότ συνομιλίας όπως το GPT τροφοδοτούνται από μεγάλες ποσότητες δεδομένων και υπολογιστικές τεχνικές για να κάνουν προβλέψεις σχετικά με τον τρόπο που μπορούν να μπουν οι λέξεις στην σειρά. Όχι μόνο αξιοποιούν ένα τεράστιο λεξιλόγιο και πληροφορίες, αλλά κατανοούν και λέξεις. Αυτό τα βοηθά να μιμούνται μοτίβα ομιλίας, προσφέροντας μια εγκυκλοπαιδική γνώση.
Άλλες εταιρείες τεχνολογίας όπως η Google και η Meta, έχουν αναπτύξει τα δικά τους εργαλεία μοντέλων μεγάλων γλωσσών, τα οποία χρησιμοποιούν προγράμματα που ανταποκρίνονται σε ανθρώπινες εντολές και επινοούν περίπλοκες απαντήσεις.
Ορισμένες πρόσφατες προσπάθειες για χρήση ρομπότ συνομιλίας αποδείχθηκαν ανησυχητικές και με περίεργα αποτελέσματα. Η εταιρεία ψυχικής υγείας Koko δέχθηκε πυρά όταν ο ιδρυτής της έγραψε για το πώς η εταιρεία χρησιμοποίησε το GPT-3 σε ένα πείραμα για να απαντήσει στους χρήστες της. Ο συνιδρυτής της Koko, Rob Morris, έσπευσε να διευκρινίσει στο Twitter, ότι οι χρήστες δεν μιλούσαν απευθείας σε ένα chat bot, αλλά ότι η τεχνητή νοημοσύνη χρησιμοποιήθηκε για να «βοηθήσει στη δημιουργία» απαντήσεων.
Ο ιδρυτής της αμφιλεγόμενης υπηρεσίας DoNotPay, η οποία ισχυρίζεται ότι το ρομπότ συνομιλίας που βασίζεται στο GPT-3 βοηθά τους χρήστες να επιλύουν διαφορές εξυπηρέτησης πελατών, είπε επίσης ότι ένας «δικηγόρος» της τεχνητής νοημοσύνης θα συμβούλευε τους κατηγορούμενους στο δικαστήριο, για πραγματικές τροχαίες υποθέσεις, σε πραγματικό χρόνο.
Η ίδια η Open AI έχει αναγνωρίσει, εξηγώντας στον ιστότοπό της, ότι «το ChatGPT μερικές φορές γράφει εύλογες αλλά εσφαλμένες ή παράλογες απαντήσεις».