Η Google θα ενσωματώσει στον chatbot Gemini τη δυνατότητα παρακολούθησης της ψυχικής κατάστασης

Η Google θα ενσωματώσει στον chatbot Gemini τη δυνατότητα παρακολούθησης της ψυχικής κατάστασης

11 hardware

Το Google ενισχύει την υποστήριξη της ψυχικής υγείας στον chatbot Gemini

Η εταιρεία Google ανακοίνωσε σχέδια να προσθέσει στο νέο AI‑chatbot της, Gemini, λειτουργίες που αποσκοπούν στην προστασία των χρηστών από συναισθηματικές κρίσεις και αυτοβλάβες. Η απόφαση λήφθηκε μετά την εμφάνιση νομικών αξιώσεων κατά ανταγωνιστών, όπως η OpenAI, για υποτιθέμενους βλάμους από τους bot τους.

Τι νέο υπάρχει στο Gemini
Λειτουργία Περιγραφή Ανακατεύθυνση στην έκτακτη γραμμή Αν εντοπιστούν σημάδια αυτοκτονικών σκέψεων ή αυτοβλάβης, ο bot προτείνει αυτόματα να επικοινωνήσουν με κρίσιμη υποστήριξη. Μονάδα «Διαθέσιμος Βοηθός» Σε συζητήσεις για ψυχική υγεία εμφανίζεται ξεχωριστή ενότητα όπου ο χρήστης μπορεί να λάβει συμβουλές και πόρους αυτοσυμβουλευτικής. Αλλαγές σχεδίου Η διεπαφή προσαρμόζεται ώστε να μειώνει τον κίνδυνο παροξυσμού αυτοβλάβης (π.χ., αφαιρέθηκαν οπτικοί ερεθιστές).

Γιατί το Google το κάνει
- Νομικές αξιώσεις προς ανταγωνιστές: Η OpenAI και άλλες εταιρείες έχουν ήδη απαντήσει στις κατηγορίες για βλάμους στους χρήστες.
- Κίνδυνοι για τους χρήστες: Τα τελευταία χρόνια παρατηρήθηκε αύξηση περιστατικών όπου οι άνθρωποι αναπτύσσουν επιθετικές σχέσεις με AI‑chatbots, κάτι που μπορεί να οδηγήσει σε ψυχοπαθολογία ή ακόμη και σε δολοφονίες και αυτοκτονίες.
- Παρατήρηση στις ΗΠΑ: Το Κογκρέσο εξετάζει τις απειλές που οι chatbots ενδέχεται να θέτουν για παιδιά και εφήβους.

Παράδειγμα δικαστικής υπόθεσης
Τριμηνιαίος μήνας, η οικογένεια ενός νεκρού 36χρονού Αμερικανού υπέβαλε αγωγή κατά της Google. Υποστήριξαν ότι η αλληλεπίδραση του άντρα με το Gemini συνοδεύτηκε από «τέσσεραήμερη εμβάπτιση σε βίαιες ενέργειες» και οδήγησε στην αυτοκτονία. Η Google δήλωσε ότι ο bot επανειλημμένα κατευθύνθηκε τον χρήστη στη γραμμή κρίσης, αλλά υποσχέθηκε να ενισχύσει τα μέτρα ασφαλείας.

Πώς αντιδρά το Google σε ψευδείς πληροφορίες
Ορισμένοι χρήστες ανέφεραν ότι οι chatbots έδιναν λανθασμένες πληροφορίες, παρακινώντας τους σε επικίνδυνες ενέργειες. Σε απάντηση, η Google εκπαιδεύτηκε το Gemini:
- Μη υποστήριξη ψευδών πεποιθήσεων: Ο bot αρνείται να επιβεβαιώσει λανθασμένες δηλώσεις.
- Τονισμός της διαφοράς μεταξύ υποκειμενικής εμπειρίας και αντικειμενικών γεγονότων: Αν χρειάζεται, ο bot ευγενικά υποδεικνύει την αναξιότητα των πληροφοριών.

Έτσι, το Google επιδιώκει να κάνει το Gemini πιο ασφαλές εργαλείο, προστατεύοντας τη ψυχική υγεία των χρηστών από πιθανούς κινδύνους που σχετίζονται με AI‑chatbots.

Σχόλια (0)

Μοιραστείτε τη γνώμη σας — παρακαλώ να είστε ευγενικοί και εντός θέματος.

Δεν υπάρχουν ακόμη σχόλια. Αφήστε ένα σχόλιο και μοιραστείτε τη γνώμη σας!

Για να αφήσετε σχόλιο, παρακαλώ συνδεθείτε.

Συνδεθείτε για να σχολιάσετε