WebTech Rodos: Η OpenAI ανακοίνωσε τον περασμένο μήνα ότι εργάζεται για τη βελτίωση της ικανότητας του ChatGPT να αναγνωρίζει σημάδια ψυχικής δυσφορίας και για την προσθήκη εργαλείων γονικού ελέγχου. Αν και καμία από τις δύο λειτουργίες δεν είναι έτοιμη για κυκλοφορία, η εταιρεία μοιράστηκε περισσότερες λεπτομέρειες σχετικά με τον τρόπο λειτουργίας τους, λίγες μέρες αφότου οι γονείς ενός 16χρονου άσκησαν αγωγή εναντίον της OpenAI για τον φερόμενο ρόλο του ChatGPT στην αυτοκτονία του γιου τους.
Σε μια ανάρτησή της, η OpenAI αναφέρει ότι τα εργαλεία γονικού ελέγχου θα είναι διαθέσιμα τον επόμενο μήνα. Οι γονείς θα μπορούν να συνδέσουν τους λογαριασμούς τους με τον λογαριασμό ενός εφήβου, να επιλέξουν ποιες λειτουργίες θα απενεργοποιήσουν, να ελέγχουν τον τρόπο με τον οποίο το ChatGPT επικοινωνεί με το παιδί τους και, το πιο σημαντικό, να λαμβάνουν ειδοποιήσεις εάν το chatbot εντοπίσει ότι «ο έφηβος βρίσκεται σε κατάσταση έντονης δυσφορίας».
Επιπροσθέτως, όταν το ChatGPT εντοπίζει έναν χρήστη σε δυσφορία, θα δρομολογεί αυτόματα τη συνομιλία στο μοντέλο GPT-5-thinking «έτσι ώστε να μπορεί να παρέχει πιο χρήσιμες και επωφελείς απαντήσεις, ανεξάρτητα από το μοντέλο που επέλεξε αρχικά ο χρήστης». Αυτή η λειτουργία θα είναι σύντομα διαθέσιμη σε όλους τους χρήστες.
Σύμφωνα με την OpenAI, μοντέλα όπως το GPT-5-thinking και το o3 έχουν σχεδιαστεί για να σκέφτονται περισσότερο και να συλλογίζονται με βάση το πλαίσιο πριν δώσουν μια απάντηση. Σε εσωτερικές δοκιμές, το GPT-5-thinking έδειξε υψηλότερο ποσοστό απόρριψης σε σχέση με άλλα μοντέλα της OpenAI για προτροπές που σχετίζονται με ρητορική μίσους, παράνομο περιεχόμενο, προσωπικά δεδομένα, ερωτήσεις αυτοτραυματισμού και σεξουαλικό υλικό.
Στην ανακοίνωση, η OpenAI ανέφερε επίσης ότι συνεργάζεται με ειδικούς ψυχικής υγείας και γιατρούς από όλο τον κόσμο για να διασφαλίσει ότι η ανάπτυξή της «καθοδηγείται από βαθιά εμπειρογνωμοσύνη σε θέματα ευεξίας και ψυχικής υγείας».
Το συμβούλιο Expert Council on Well-Being and AI της εταιρείας θα συμβάλει στις μελλοντικές εκδόσεις των εργαλείων γονικού ελέγχου του ChatGPT και θα παρέχει έναν τεκμηριωμένο οδικό χάρτη για τον τρόπο με τον οποίο η AI μπορεί να υποστηρίξει την ψυχική ευεξία.
Η εταιρεία δηλώνει ότι θα εργαστεί προληπτικά σε όλα αυτά τα μέτρα κατά τους επόμενους 120 ημέρες και θα μοιραστεί την πρόοδό της κατά τη διάρκεια αυτής της περιόδου.
Αυτή η υπενθύμιση των λειτουργιών που βρίσκονται σε ανάπτυξη έρχεται λίγες μέρες μετά την αγωγή που άσκησαν οι γονείς ενός 16χρονου αγοριού που αυτοκτόνησε. Ελέγχοντας το τηλέφωνο του εφήβου, ο πατέρας του ανακάλυψε ότι είχε παρακάμψει τα μέτρα ασφαλείας του ChatGPT και είχε συνομιλίες με το chatbot σχετικά με μεθόδους αυτοκτονίας.
πηγή: pcmag.com














