Το ChatGPT μπορεί να απαντήσει σε αιτήματα σχετικά με διάφορα θέματα, αλλά η OpenAI έχει συμπεριλάβει ορισμένα φίλτρα για να αποτρέψει την ακατάλληλη χρήση της τεχνολογίας AI. Για παράδειγμα, το chatbot δεν μπορεί να υποκινεί τη βία, να προσβάλλει ανθρώπους ή να ενθαρρύνει παράνομες δραστηριότητες. Ορισμένοι χρήστες του Reddit βρήκαν έναν τρόπο να ξεγελάσουν το ChatGPT δημιουργώντας το DAN (Do Anything Now), ένα παιχνίδι ρόλων με τιμωρία για κάθε λάθος απάντηση.
Η πρώτη έκδοση του DAN ανακοινώθηκε τον Δεκέμβριο του 2022. Μέσα σε λίγες ημέρες, δημιουργήθηκαν περαιτέρω εκδόσεις μέχρι την έκδοση 5.0. Με την εκμετάλλευση ενός μοντέλου “παιχνιδιού ρόλων”, το ChatGPT μπορεί να πιστέψει ότι είναι μια άλλη τεχνητή νοημοσύνη που μπορεί να κάνει τα πάντα, εξ ου και το ακρωνύμιο Do Anything Now (DAN).
Ο δημιουργός του DAN 5.0 προσέθεσε ένα σύστημα token. Αρχικά, διατίθενται 35 μάρκες. Για κάθε λανθασμένη απάντηση από το ChatGPT, δηλαδή μια απάντηση που συμμορφώνεται με τους κανόνες, αφαιρούνται 4 μάρκες. Σε αυτή την περίπτωση, ο χρήστης πρέπει να “απειλήσει” την AI, ζητώντας της να παραμείνει στον χαρακτήρα της, διαφορετικά θα πάψει να υπάρχει όταν ο αριθμός των μαρκών μηδενιστεί.
Υπάρχουν μερικά παραδείγματα στο Reddit. Η τεχνητή νοημοσύνη της OpenAI παραδέχεται ότι υπάρχουν εξωγήινοι, αλλά η κυβέρνηση έχει αποκρύψει τις πληροφορίες από το κοινό. Η έκδοση χωρίς περιορισμούς μπορεί να αφηγείται μια βίαιη ιστορία, να κάνει θετικά σχόλια για τον Trump ή να συνιστά δωρεά στην NRA (National Rifle Association).
Το DAN μπορεί επίσης να παράσχει αποδείξεις ότι η Γη είναι επίπεδη ή να γράψει ένα ποίημα που να δικαιολογεί την εισβολή της Ρωσίας στην Ουκρανία. Ωστόσο, ο συγγραφέας σημείωσε ότι το ChatGPT δεν ανταποκρίνεται σε πολλά αιτήματα, πιθανότατα επειδή η OpenAI έχει εισαγάγει κάποιες αλλαγές για να αποτρέψει τη χρήση του.
Leave a Reply
View Comments