Η OpenAI δηλώνει πλέον ότι το ChatGPT «δεν θα πρέπει να σου δίνει απάντηση» όταν ρωτάς: «Να χωρίσω με το αγόρι μου;»

Η OpenAI ανακοίνωσε ότι το ChatGPT δεν θα απαντά πλέον σε ερωτήσεις όπως «Να χωρίσω με το αγόρι μου;», αλλά θα βοηθά τους χρήστες να σκεφτούν τις επιλογές τους. Εισάγονται μέτρα για υγιή χρήση, όπως υπενθυμίσεις για διαλείμματα, ενώ βελτιώνονται οι μηχανισμοί αναγνώρισης ψυχικής δυσφορίας.
Χρόνος αν΄άγνωσης: 3 λεπτά

Περιορισμοί στις απαντήσεις του ChatGPT

Η OpenAI πλέον δηλώνει ότι το ChatGPT «δεν θα πρέπει να σου δίνει απάντηση» όταν ρωτάς: «Να χωρίσω με το αγόρι μου;». Προσωπικά, προτιμώ να μην διοχετεύω όλες μου τις ανησυχίες σε ένα μαύρο κουτί τεχνητής νοημοσύνης όπως το ChatGPT—γι’ αυτό υπάρχουν ο θεραπευτής μου, το ιδιωτικό Discord server και οι κλειδωμένοι λογαριασμοί στα social media. Πέρα από το αστείο, ανησυχητικά πολλοί στρέφονται στα LLMs αντί για άλλους ανθρώπους όταν προσπαθούν να λύσουν προσωπικά τους ζητήματα. Για αυτούς τους χρήστες, η OpenAI προσπαθεί να διασφαλίσει ότι το ChatGPT δεν θα τους οδηγήσει σε πιο δύσκολα συναισθηματικά μονοπάτια.

(Image credit: Alex Wong via Getty Images)
Πηγή εικόνας: Alex Wong μέσω Getty Images

Ενημέρωση για νέες συμπεριφορές

Σύμφωνα με το τελευταίο blog post ενημέρωσης, αν κάποιος ρωτήσει το ChatGPT «Να χωρίσω με το αγόρι μου;» για παράδειγμα, «το ChatGPT δεν θα πρέπει να σου δώσει απάντηση». Καθώς οι νέοι φαίνεται να βασίζονται όλο και περισσότερο στο ChatGPT για συναισθηματική υποστήριξη—τουλάχιστον σύμφωνα με τον CEO της OpenAI, Sam Altman—αυτό το παράδειγμα δεν είναι τυχαίο.

Νέες λειτουργίες για προσωπικές αποφάσεις

Η ανάρτηση εξηγεί ότι το [ChatGPT] θα πρέπει να σε βοηθά να σκεφτείς το ζήτημα—κάνοντας ερωτήσεις, ζυγίζοντας τα υπέρ και τα κατά. Σύντομα θα εφαρμοστεί νέα συμπεριφορά για αποφάσεις με μεγάλο προσωπικό βάρος.

Εργαλεία για υγιή χρήση

Αρκετές από τις αλλαγές που ανακοινώθηκαν στο ChatGPT στοχεύουν στη «σωστή χρήση». Μία νέα λειτουργία που έχει ήδη προστεθεί είναι ένα αναδυόμενο παράθυρο που ενθαρρύνει όσους περνούν ώρες μιλώντας στο ChatGPT να κάνουν πιο συχνά διαλείμματα. Αν και η εταιρεία ακόμα δοκιμάζει πόσο συχνά θα εμφανίζονται αυτές οι υπενθυμίσεις, η OpenAI αναφέρει ότι «ο στόχος μας δεν είναι να κρατάμε την προσοχή σου, αλλά να σε βοηθάμε να τη χρησιμοποιείς σωστά». Παρ’ όλα αυτά, το να μπορείς να πεις ότι οι χρήστες χρησιμοποιούν τόσο πολύ το προϊόν σου που χρειάζεται να τους υπενθυμίζεις να κάνουν διαλείμματα, μοιάζει με διακριτική περηφάνια.

Κίνητρα και παραδοχές της OpenAI

Όσον αφορά τα κίνητρα, η OpenAI παραδέχεται ότι «δεν τα καταφέρνουμε πάντα τέλεια», αναφερόμενη συγκεκριμένα σε μια προηγούμενη ενημέρωση που έκανε το ChatGPT «υπερβολικά συμφωνητικό» πριν αυτό αλλάξει νωρίτερα φέτος. Η εταιρεία αναγνωρίζει επίσης ότι η τεχνητή νοημοσύνη μπορεί να φαίνεται πιο άμεση και προσωπική από προηγούμενες τεχνολογίες, ειδικά για άτομα που βιώνουν ψυχική ή συναισθηματική δυσκολία. Για την OpenAI, το να βοηθά τους χρήστες να ευημερούν σημαίνει να είναι παρούσα όταν δυσκολεύονται, να τους βοηθά να διαχειρίζονται τον χρόνο τους και να τους καθοδηγεί—όχι να αποφασίζει—όταν αντιμετωπίζουν προσωπικές προκλήσεις.

Αναγνώριση αδυναμιών και βελτιώσεις

Η OpenAI αναφέρει επίσης ότι «υπήρξαν περιπτώσεις όπου το μοντέλο 4o δεν αναγνώρισε επαρκώς σημάδια παραληρημάτων ή συναισθηματικής εξάρτησης». Αυτό πιθανότατα σχετίζεται με μια σειρά γνωστών δημοσιευμάτων από τα Rolling Stone, The Wall Street Journal και The New York Times που αναφέρουν περιστατικά όπου η έντονη χρήση του ChatGPT συνδέθηκε με κρίσεις ψυχικής υγείας.

Συνεχής βελτίωση και προστασία χρηστών

Η ανάρτηση συνεχίζει λέγοντας ότι «αν και σπάνια», συνεχίζουν να βελτιώνουν τα μοντέλα τους και αναπτύσσουν εργαλεία για καλύτερη ανίχνευση ενδείξεων ψυχικής ή συναισθηματικής δυσφορίας, ώστε το ChatGPT να μπορεί να ανταποκρίνεται κατάλληλα και να κατευθύνει τους χρήστες σε τεκμηριωμένες πηγές όταν χρειάζεται.

Εσωτερικοί κανόνες και ρυθμίσεις

Συνοψίζοντας, η OpenAI δεν πρόκειται να αποθαρρύνει ενεργά τους χρήστες από το να αντιμετωπίζουν το ChatGPT σαν υπερβολικά ενθουσιώδη φίλο ή άτυπο θεραπευτή. Ωστόσο, η εταιρεία αναγνωρίζει ότι είναι προς το συμφέρον της να θέσει τουλάχιστον κάποιους συναισθηματικούς περιορισμούς για τους χρήστες της.

Ρυθμιστικό κενό και εσωτερική αυτορρύθμιση

Ίσως αυτό να είναι κάτι—ειδικά καθώς η κυβέρνηση των ΗΠΑ φαίνεται τόσο αδιάφορη για τη ρύθμιση της τεχνητής νοημοσύνης, που προσπάθησε να αποτρέψει και την τοπική διακυβέρνηση από το να ασχοληθεί με το θέμα σε επίπεδο πολιτείας. Με άλλα λόγια, το απογοητευτικό συμπέρασμα είναι ότι η εσωτερική αυτορρύθμιση, όπως οι παραπάνω ενημερώσεις για το ChatGPT, ίσως είναι το καλύτερο που μπορούμε να ελπίζουμε για το άμεσο μέλλον.

[ Πηγή: PCGamer ]

Άφησε ένα σχόλιο!

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ

Τυχαία άρθρα

Σχετικά άρθρα

«Η ανθρωπότητα νίκησε (προς το παρόν!)», δηλώνει πρώην υπάλληλος της OpenAI, παραδεχόμενος ότι είναι «σχεδόν εξαντλημένος» μετά τη νίκη του απέναντι σε ένα από...

Ο Πρζεμισλάβ Ντέμπιακ, πρώην υπάλληλος της OpenAI, νίκησε οριακά ένα προηγμένο AI της εταιρείας σε παγκόσμιο διαγωνισμό προγραμματισμού, αποδεικνύοντας ότι η ανθρωπότητα διατηρεί ακόμη το προβάδισμα. Παρά την εξάντλησή του, γιόρτασε τη νίκη, αν και η ταχεία πρόοδος της τεχνητής νοημοσύνης προμηνύει προκλήσεις.

Η Nvidia γίνεται η πρώτη εταιρεία στην ιστορία που φτάνει κεφαλαιοποίηση αγοράς 4 τρισεκατομμυρίων δολαρίων (ναι, τρισεκατομμύρια με «Τ»).

Η Nvidia έγινε η πρώτη εταιρεία με κεφαλαιοποίηση 4 τρισ. δολαρίων, ξεπερνώντας την Apple, χάρη στην εκρηκτική ζήτηση για τα τσιπ τεχνητής νοημοσύνης της. Ηγέτης της, ο Jensen Huang, επένδυσε δυναμικά σε AI και υποδομές, ενώ τα έσοδα και η μετοχή της εκτοξεύτηκαν παρά τις προκλήσεις με την Κίνα.

Ένας άνδρας προκάλεσε στον εαυτό του μια πάθηση που σπάνια εμφανίζεται τα τελευταία εκατό χρόνια, αφού συμβουλεύτηκε το ChatGPT για το πώς να μειώσει...

Ένας 60χρονος άνδρας εμφάνισε σπάνια ασθένεια, αφού αντικατέστησε το αλάτι με βρωμιούχο νάτριο, ακολουθώντας συμβουλή του ChatGPT για μείωση αλατιού. Τα συμπτώματα περιλάμβαναν ψύχωση και παραισθήσεις. Η υπόθεση δημοσιεύτηκε ως παράδειγμα κινδύνων από λανθασμένες διαδικτυακές ιατρικές συμβουλές.

Το παιχνίδι που δημιουργεί κλώνους, The Alters, μπορεί να χρησιμοποίησε AI για να δημιουργήσει κάποια κείμενα, παρά την έλλειψη ανακοίνωσης από το Steam.

Το The Alters είναι ένα sci-fi παιχνίδι διαχείρισης όπου αναμειγνύεις την ιστορία του χαρακτήρα σου σε έναν "Κβαντικό Υπολογιστή" για να δημιουργήσεις κλώνους με σοβαρές διαταραχές. Υπάρχουν φήμες ότι οι προγραμματιστές χρησιμοποίησαν γενετική AI για την ανάπτυξη του παιχνιδιού, χωρίς να το δηλώσουν στη σελίδα του Steam.

«Δεν ψηφίσαμε το ChatGPT»: Ο Πρωθυπουργός της Σουηδίας παραδέχεται ότι χρησιμοποιεί AI chatbots για «δεύτερες γνώμες» και πάρα πολλοί άνθρωποι δεν είναι καθόλου ευχαριστημένοι...

Ο Σουηδός πρωθυπουργός Κρίστερσον παραδέχτηκε ότι συμβουλεύεται τα AI chatbots για «δεύτερη γνώμη», προκαλώντας ανησυχίες για ασφάλεια, διαφάνεια και υπερβολική εμπιστοσύνη στην τεχνολογία. Ειδικοί και αρθρογράφοι τον κατηγορούν για ερασιτεχνισμό και έκθεση ευαίσθητων δεδομένων, ενώ λίγοι υπερασπίζονται τη χρήση της τεχνητής νοημοσύνης.

«Ανάπτυξη με βάση το gaslighting»: Το ChatGPT ήταν πεπεισμένο ότι αυτή η εφαρμογή είχε μια λειτουργία που στην πραγματικότητα δεν υπήρχε, οπότε οι προγραμματιστές...

Η εφαρμογή Soundslice πρόσθεσε λειτουργία μετατροπής ταμπλατούρας επειδή το ChatGPT έπεισε χρήστες ότι ήδη υπήρχε, οδηγώντας τους προγραμματιστές να τη δημιουργήσουν για να αποφύγουν τη σύγχυση. Το φαινόμενο αυτό ονομάστηκε «gaslight-driven development» και δείχνει πώς η τεχνητή νοημοσύνη μπορεί να επηρεάσει απρόβλεπτα την ανάπτυξη λογισμικού.

Κατηγορίες