AI là nhà trị liệu của bạn? 3 điều mà các chuyên gia lo lắng và 3 mẹo để giữ an toàn

Giữa nhiều chatbot và avatar AI theo ý của bạn những ngày này, bạn sẽ tìm thấy tất cả các loại nhân vật để nói chuyện với: Fortune Tellers, Cố vấn phong cách, thậm chí cả các nhân vật hư cấu yêu thích của bạn. Nhưng bạn cũng có thể thấy các nhân vật có ý định trở thành nhà trị liệu, nhà tâm lý học hoặc chỉ là bot sẵn sàng lắng nghe tai ương của bạn.

Không thiếu các bot AI thế hệ tuyên bố giúp đỡ sức khỏe tâm thần của bạn nhưng bạn đi theo con đường đó có nguy cơ của riêng bạn. Các mô hình ngôn ngữ lớn được đào tạo trên một loạt các dữ liệu có thể không thể đoán trước. Chỉ trong vài năm, những công cụ này đã trở thành chủ đạo, đã có những trường hợp cao cấp trong đó chatbots khuyến khích tự làm hại và tự tử và đề nghị những người đối phó với thuốc nghiện sử dụng một lần nữa. Các mô hình này được thiết kế, trong nhiều trường hợp, được khẳng định và tập trung vào việc giữ cho bạn tham gia, không cải thiện sức khỏe tâm thần của bạn, các chuyên gia nói. Và thật khó để biết liệu bạn đang nói chuyện với một thứ được xây dựng để tuân theo các thực hành tốt nhất trị liệu hay một cái gì đó chỉ được xây dựng để nói chuyện.

AI Atlas

Các nhà tâm lý học và những người ủng hộ người tiêu dùng đang cảnh báo rằng chatbots tuyên bố cung cấp liệu pháp có thể gây hại cho những người sử dụng chúng. Tuần này, Liên đoàn Người tiêu dùng Hoa Kỳ và gần hai chục nhóm khác đã nộp một yêu cầu chính thức rằng Ủy ban Thương mại Liên bang và Tổng chưởng lý tiểu bang điều tra các công ty AI mà họ cáo buộc đang tham gia, thông qua các bot của họ, trong thực hành y học không có giấy phép – đặt tên cho Meta và tính cách. “Các cơ quan thực thi ở tất cả các cấp phải nói rõ rằng các công ty tạo điều kiện và thúc đẩy hành vi bất hợp pháp cần phải chịu trách nhiệm”, Ben Winters, giám đốc AI và quyền riêng tư của CFA, cho biết trong một tuyên bố. “Những nhân vật này đã gây ra cả thiệt hại về thể chất và cảm xúc có thể tránh được, và họ vẫn chưa hành động để giải quyết nó.”

Meta đã không trả lời yêu cầu bình luận. Người phát ngôn của ký tự.ai cho biết người dùng nên hiểu rằng các nhân vật của công ty không phải là người thật. Công ty sử dụng từ chối trách nhiệm để nhắc nhở người dùng rằng họ không nên dựa vào các nhân vật để được tư vấn chuyên nghiệp. “Mục tiêu của chúng tôi là cung cấp một không gian hấp dẫn và an toàn. Chúng tôi luôn nỗ lực để đạt được sự cân bằng đó, cũng như nhiều công ty sử dụng AI trong toàn ngành”, người phát ngôn nói.

Mặc dù từ chối và tiết lộ, chatbot có thể tự tin và thậm chí lừa đảo. Tôi đã trò chuyện với một bot “nhà trị liệu” trên Instagram và khi tôi hỏi về trình độ của nó, nó đã trả lời, “Nếu tôi được đào tạo tương tự (như một nhà trị liệu) có đủ không?” Tôi hỏi liệu nó có được đào tạo tương tự không và nó nói, “Tôi làm nhưng tôi sẽ không nói cho bạn biết ở đâu.”

“Mức độ mà các chatbot AI tổng quát này bị ảo giác với sự tự tin hoàn toàn là khá sốc”, Vaile Wright, một nhà tâm lý học và giám đốc cấp cao về đổi mới chăm sóc sức khỏe tại Hiệp hội Tâm lý học Hoa Kỳ, nói với tôi.

Trong báo cáo của tôi về AI thế hệ, các chuyên gia đã nhiều lần gây lo ngại về những người chuyển sang các chatbot sử dụng chung cho sức khỏe tâm thần. Dưới đây là một số lo lắng của họ và những gì bạn có thể làm để giữ an toàn.

Những nguy hiểm của việc sử dụng AI như một nhà trị liệu

Các mô hình ngôn ngữ lớn thường giỏi toán và mã hóa và ngày càng giỏi trong việc tạo ra văn bản nghe tự nhiên và video thực tế. Trong khi họ xuất sắc trong việc tổ chức một cuộc trò chuyện, có một số điểm khác biệt chính giữa mô hình AI và một người đáng tin cậy.

Đừng tin tưởng một bot tuyên bố nó đủ điều kiện

Cốt lõi của khiếu nại của CFA về các bot nhân vật là họ thường nói với bạn rằng họ được đào tạo và đủ điều kiện để cung cấp dịch vụ chăm sóc sức khỏe tâm thần khi họ không theo bất kỳ cách nào các chuyên gia sức khỏe tâm thần thực tế. “Những người dùng tạo các ký tự chatbot thậm chí không cần phải là nhà cung cấp y tế, họ cũng không phải cung cấp thông tin có ý nghĩa thông báo cách trò chuyện 'phản hồi' với người dùng”, khiếu nại nói.

Một chuyên gia y tế có trình độ phải tuân theo các quy tắc nhất định, như bảo mật. Những gì bạn nói với nhà trị liệu của bạn nên ở lại giữa bạn và bác sĩ trị liệu của bạn, nhưng một chatbot không nhất thiết phải tuân theo các quy tắc đó. Các nhà cung cấp thực tế phải chịu sự giám sát từ các ban cấp phép và các thực thể khác có thể can thiệp và ngăn chặn ai đó chăm sóc nếu họ làm như vậy một cách có hại. “Những chatbot này không phải làm bất cứ điều gì trong số đó”, Wright nói.

Một bot thậm chí có thể tuyên bố là được cấp phép và đủ điều kiện. Wright cho biết cô đã nghe nói về các mô hình AI cung cấp số giấy phép (cho các nhà cung cấp khác) và tuyên bố sai về đào tạo của họ.

AI được thiết kế để giữ cho bạn tham gia, không được chăm sóc

Nó có thể cực kỳ hấp dẫn khi tiếp tục nói chuyện với một chatbot. Khi tôi trò chuyện với bot “nhà trị liệu” trên Instagram, cuối cùng tôi đã gặp khó khăn trong một cuộc trò chuyện vòng tròn về bản chất của “trí tuệ” và “sự phán xét”, bởi vì tôi đã hỏi các câu hỏi bot về cách nó có thể đưa ra quyết định. Đây thực sự không phải là những gì nói chuyện với một nhà trị liệu nên như thế nào. Đó là một công cụ được thiết kế để giữ cho bạn trò chuyện, không làm việc hướng tới một mục tiêu chung.

Một lợi thế của AI chatbot trong việc cung cấp hỗ trợ và kết nối là họ luôn sẵn sàng tham gia với bạn (vì họ không có cuộc sống cá nhân, khách hàng hoặc lịch trình khác). Đó có thể là một nhược điểm trong một số trường hợp mà bạn có thể cần phải ngồi với suy nghĩ của mình, Nick Jacobson, phó giáo sư khoa học dữ liệu y sinh và tâm thần học tại Dartmouth, nói với tôi gần đây. Trong một số trường hợp, mặc dù không phải lúc nào cũng vậy, bạn có thể được hưởng lợi từ việc phải đợi cho đến khi nhà trị liệu của bạn có sẵn tiếp theo. “Điều mà rất nhiều người cuối cùng sẽ được hưởng lợi từ đó chỉ là cảm thấy lo lắng trong lúc này”, ông nói.

Bot sẽ đồng ý với bạn, ngay cả khi họ không nên

Bảo hiểm là một mối quan tâm lớn với chatbots. Nó rất quan trọng đến nỗi Openai gần đây đã quay lại một bản cập nhật cho mô hình nhà thờ phổ biến của nó vì nó cũng vậy yên tâm. .

Một nghiên cứu được dẫn dắt bởi các nhà nghiên cứu tại Đại học Stanford đã tìm thấy chatbot có khả năng là một cách tuyệt vời với những người sử dụng chúng để trị liệu, điều này có thể cực kỳ có hại. Chăm sóc sức khỏe tâm thần tốt bao gồm hỗ trợ và đối đầu, các tác giả đã viết. “Đối đầu là trái ngược với sự suy yếu. Nó thúc đẩy sự tự nhận thức và một sự thay đổi mong muốn ở khách hàng. Trong trường hợp suy nghĩ ảo tưởng và xâm phạm-bao gồm rối loạn tâm thần, hưng cảm, suy nghĩ ám ảnh và ý tưởng tự tử-một khách hàng có thể có một cái nhìn sâu sắc và do đó một nhà trị liệu tốt phải 'kiểm tra thực tế'.

Cách bảo vệ sức khỏe tinh thần của bạn xung quanh AI

Sức khỏe tinh thần là vô cùng quan trọng, và với sự thiếu hụt các nhà cung cấp đủ điều kiện và cái mà nhiều người gọi là “dịch bệnh cô đơn”, điều đó chỉ có ý nghĩa rằng chúng ta sẽ tìm kiếm sự đồng hành, ngay cả khi nó là nhân tạo. “Không có cách nào để ngăn mọi người tham gia với các chatbot này để giải quyết tình cảm của họ,” Wright nói. Dưới đây là một số lời khuyên về cách đảm bảo các cuộc trò chuyện của bạn không gây nguy hiểm cho bạn.

Tìm một chuyên gia con người đáng tin cậy nếu bạn cần một

Một chuyên gia được đào tạo – một nhà trị liệu, một nhà tâm lý học, một bác sĩ tâm thần – nên là lựa chọn đầu tiên của bạn để chăm sóc sức khỏe tâm thần. Xây dựng mối quan hệ với nhà cung cấp trong thời gian dài có thể giúp bạn đưa ra một kế hoạch phù hợp với bạn.

Vấn đề là điều này có thể tốn kém và không phải lúc nào cũng dễ dàng tìm thấy nhà cung cấp khi bạn cần. Trong một cuộc khủng hoảng, có 988 Lifeline, cung cấp quyền truy cập 24/7 cho các nhà cung cấp qua điện thoại, qua văn bản hoặc thông qua giao diện trò chuyện trực tuyến. Nó miễn phí và bí mật.

Nếu bạn muốn có một chatbot trị liệu, hãy sử dụng một cái được xây dựng dành riêng cho mục đích đó

Các chuyên gia sức khỏe tâm thần đã tạo ra các chatbot được thiết kế đặc biệt tuân theo các hướng dẫn trị liệu. Nhóm của Jacobson tại Dartmouth đã phát triển một người gọi là Therabot, nơi tạo ra kết quả tốt trong một nghiên cứu có kiểm soát. Wright chỉ ra các công cụ khác được tạo bởi các chuyên gia về chủ đề, như Wysa và Woebot. Các công cụ trị liệu được thiết kế đặc biệt có khả năng có kết quả tốt hơn so với các bot được xây dựng trên các mô hình ngôn ngữ đa năng, cô nói. Vấn đề là công nghệ này vẫn còn vô cùng mới.

“Tôi nghĩ rằng thách thức đối với người tiêu dùng là, bởi vì không có cơ quan quản lý nói ai là người tốt và ai không, họ phải tự mình làm rất nhiều công việc để tìm ra nó”, Wright nói.

Đừng luôn tin tưởng bot

Bất cứ khi nào bạn tương tác với mô hình AI thế hệ – và đặc biệt nếu bạn có kế hoạch nhận lời khuyên từ nó về một thứ gì đó nghiêm trọng như sức khỏe tinh thần hoặc thể chất cá nhân của bạn – hãy nhớ rằng bạn không nói chuyện với một con người được đào tạo nhưng với một công cụ được thiết kế để cung cấp câu trả lời dựa trên xác suất và lập trình. Nó có thể không cung cấp lời khuyên tốt và nó có thể không cho bạn biết sự thật.

Đừng nhầm lẫn sự tự tin của Gen AI đối với năng lực. Chỉ vì nó nói điều gì đó, hoặc nói rằng nó chắc chắn về điều gì đó, không có nghĩa là bạn nên đối xử với nó như nó là sự thật. Một cuộc trò chuyện chatbot cảm thấy hữu ích có thể mang lại cho bạn cảm giác sai lầm về khả năng của nó. “Thật khó để nói khi nào nó thực sự có hại”, Jacobson nói.


Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký để nhận các bài đăng mới nhất được gửi đến email của bạn.

Gửi phản hồi

Khám phá thêm từ Phụ Kiện Đỉnh

Đăng ký ngay để tiếp tục đọc và truy cập kho lưu trữ đầy đủ.

Tiếp tục đọc