Tranquil

Trí tuệ nhân tạo đang thay đổi ngành Tâm lý học

Với sự phát triển nhanh chóng của công nghệ trong thời đại hiện nay, trí tuệ nhân tạo (Artificial Intelligence) đồng hành hỗ trợ cho con người không chỉ còn trong phim ảnh. Các nhà nghiên cứu có thể sử dụng học máy (Machine Learning) để thu thập thông tin chi tiết từ một nguồn dữ liệu khổng lồ. Ngành giáo dục hiện đang khám phá nhiều cách để tận dụng công cụ Chat GPT trong lớp học.

Ngành tâm lý cũng không phải là ngoại lệ. Trong thực hành tâm lý học, các chatbot trí tuệ nhân tạo có thể giúp mọi người dễ tiếp cận với việc trị liệu hơn và ít tốn kém hơn rất nhiều. Các công cụ AI còn có thể cải thiện các biện pháp can thiệp, cũng như tự động hóa các khâu đặt khám và hỗ trợ đào tạo các bác sĩ lâm sàng trẻ. Trong nghiên cứu, trí tuệ tổng hợp (Synthetic Intelligence) cũng đang tạo ra những cách mới để hiểu sâu hơn về trí thông minh của con người. 

“Rất nhiều người mong muốn chống lại điều này, nhưng đây là thứ chúng ta không thể kiểm soát.” – Jessica Jackson, một Tiến sĩ tâm lý tại bang Texas, Hoa Kỳ, đã cho biết. “Nếu chúng ta suy nghĩ một cách thấu đáo và có chiến lược cụ thể về những cách để tích hợp AI, chúng ta hoàn toàn có thể đem lại tác động lớn đến cuộc sống của mỗi người trên khắp thế giới.”

Mặc dù AI có rất nhiều tiềm năng, song chúng vẫn đem lại nhiều mối lo ngại. Thời sự cho thấy một số công cụ AI được sử dụng để chăm sóc sức khỏe đã từng phân biệt đối xử dựa trên chủng tộc và tình trạng khuyết tật của bệnh nhân. Những Chatbot lừa đảo đã từng lan truyền thông tin sai lệch, thể hiện “tình yêu” với người dùng và còn q/uấy r/ối trẻ vị thành niên, khiến các nhà lãnh đạo trong lĩnh vực công nghệ và khoa học trên thế giới phải kêu gọi tạm dừng nghiên cứu AI vào tháng 3 năm 2023.

“Phần lớn những gì thúc đẩy sự tiến bộ trong công nghệ là tiềm năng to lớn của các hệ thống này, và điều đó vượt xa mức độ hiểu biết của chúng ta. Điều ta cần làm bây giờ là đầu tư vào việc tìm hiểu kĩ các hệ thống này.”

Tiến sĩ tâm lý Tom Griffiths, giáo sư phụ trách Phòng thí nghiệm Khoa học Nhận thức Nhân tạo tại Đại học Princeton

TRÍ TUỆ NHÂN TẠO & SỰ THIÊN VỊ 

Khi AI và các thuật toán ngày càng phổ biến, ta cần phải đặt ra một số câu hỏi quan trọng như: AI có an toàn để sử dụng không? Nó có đủ đạo đức không? Có những biện pháp bảo vệ nào giúp đảm bảo quyền riêng tư, minh bạch và công bằng khi những công cụ này ngày càng được sử dụng rộng rãi trên toàn xã hội?

Các chuyên gia tâm lý có thể là một trong những người có trình độ cao nhất để trả lời những câu hỏi này. Họ được đào tạo về các phương pháp nghiên cứu khác nhau, những cách đối xử có đạo đức với thân chủ, các tác động tâm lý, v.v. Các nhà tâm lý học có đủ kiến thức chuyên môn để đặt câu hỏi về các giả định của công nghệ mới, cũng như kiểm tra tác dụng của nó đối với người dùng.

Tiến sĩ tâm lý Arathi Sethumadhavan, cựu giám đốc nghiên cứu AI cho nhóm Đạo đức và Xã hội của Microsoft, đã từng tiến hành nghiên cứu về DALL-E 2, GPT-3, Bing AI, và nhiều công nghệ khác. Cô cho biết các chuyên gia tâm lý có thể giúp các công ty hiểu được giá trị, động lực, kỳ vọng và nỗi sợ hãi của các nhóm người khác nhau có thể bị ảnh hưởng bởi những công nghệ mới. Họ cũng có thể giúp tuyển dụng người tham gia một cách chặt chẽ dựa trên các yếu tố như: giới tính, hoàn cảnh gia đình, tuổi tác, tính cách, số năm kinh nghiệm làm việc, quan điểm về quyền riêng tư, v.v.

Tiến sĩ Sethumadhavan đã định hình một số sản phẩm công nghệ mới để có tính năng ứng dụng phù hợp với tâm lý người tiêu dùng. Ví dụ, đối với tính năng chuyển văn bản thành giọng nói, cô đã phỏng vấn các diễn viên lồng tiếng và những người có trở ngại về giọng nói để hiểu hơn về nhu cầu của họ để giải quyết các tác hại của công nghệ mới. Sau khi khảo sát, cô biết được rằng những người có trở ngại về giọng nói rất mong muốn sử dụng sản phẩm này để tự tin hơn khi phỏng vấn, và thậm chí là khi hẹn hò. Giọng nói tổng hợp có khả năng thay đổi theo thời gian cũng sẽ rất tiện lợi cho các trẻ em sử dụng dịch vụ này. Tiến sĩ Sethumadhavan cũng đã áp dụng các phương pháp lấy mẫu được các nhà tâm lý học thường xuyên sử dụng để bộ dữ liệu nhận dạng giọng nói có thể nhận dạng được nhiều giọng khác nhau, nhất là giọng điệu của những người Mỹ gốc Phi, để những bộ máy công nghệ mới không phân biệt đối xử.

Xem bài viết  Biến đổi khí hậu và Sức khỏe tinh thần 

“Cái quan trọng là chúng tôi cần đưa ra quan điểm của những nhóm người thiểu số vào vòng đời phát triển AI,” cô chia sẻ. “Để làm được điều này cần có những người tham gia nghiên cứu đóng góp dữ liệu (chẳng hạn như hình ảnh khuôn mặt của họ để đào tạo hệ thống nhận dạng khuôn mặt), những người điều hành thu thập dữ liệu, và các chuyên gia gắn nhãn dữ liệu (chẳng hạn như lọc ra nội dung không phù hợp).”

Các nhà tâm lý học cũng đang xem xét kỹ lưỡng sự tương tác giữa người và máy để hiểu cặn kẽ cách chúng ta nhìn nhận về AI và những tác động mà nhận thức đó có thể gây ra trong toàn xã hội. Một nghiên cứu của Tiến sĩ tâm lý Yochanan Bigman, trợ lý giáo sư tại Đại học Do Thái ở Jerusalem, phát hiện ra rằng khi bị phân biệt giới tính bởi một thuật toán, mọi người ít bức xúc hơn là bị người khác phân biệt đối xử (Theo Tạp chí Tâm lý học Thực nghiệm: Đại cương, Tập. 152, số 1, 2023). Những người tham gia nghiên cứu cũng cho rằng các công ty chịu ít trách nhiệm pháp lý hơn khi sự phân biệt đối xử đến từ AI.

Tiến sĩ Sethumadhavan cho biết rằng vẫn còn nhiều câu hỏi về nguyên nhân tại sao khiến mọi người tin tưởng vào AI, và việc trả lời chúng sẽ rất quan trọng để có thể hạn chế các tác hại như lan truyền thông tin sai lệch. 

TRÍ TUỆ NHÂN TẠO TRONG PHÒNG KHÁM

Thực hành tâm lý học đang tạo rất nhiều điều kiện cho những đổi mới về trí tuệ nhân tạo — bao gồm chatbot trị liệu, công cụ tự động ghi chú và các nhiệm vụ hành chính khác, cũng như đào tạo và can thiệp tiện lợi hơn — nhưng các chuyên gia tham vấn lâm sàng cần có những công cụ mà họ có thể thấu hiểu và tin tưởng. Mặc dù các chatbot thiếu sự hiểu biết về bối cảnh gia đình, kinh nghiệm sống và cách trò chuyện có sắc thái như các chuyên gia tham vấn tâm lý, nhưng đổi lại, chúng có thể lấp đầy khoảng trống trong việc cung cấp dịch vụ sức khỏe tinh thần.

Tiến sĩ tâm lý Jessica Jackson đã chia sẻ: “Điểm mấu chốt là chúng ta không có đủ nhân lực. Mặc dù việc tham vấn tâm lý nên dành cho tất cả mọi người, nhưng không phải ai cũng cần nó. Các chatbot có thể đáp ứng nhu cầu này.” Đối với một số lo ngại ít nghiêm trọng hơn về sức khỏe tinh thần, chẳng hạn như khó ngủ hoặc đau mãn tính, các chatbot có thể giúp đỡ chúng ta khi đã được đào tạo đầy đủ.

Các chatbot có khả năng hỗ trợ sức khỏe tinh thần cho mọi người với giá cả phải chăng và dễ tiếp cận hơn, và còn có thể giúp những thân chủ còn ngại khi mới tham gia trị liệu hoặc những người mắc chứng lo âu xã hội đỡ phải tiếp xúc với một chuyên gia tham vấn. Tiến sĩ Jackson cho biết rằng chúng cũng tạo cơ hội cho lĩnh vực này trở nên toàn diện hơn, khi AI có thể tự nhận diện về văn hoá và các vấn đề của con người.

“Điều tôi lo ngại nhất là AI sẽ không thể làm việc với tất cả các loại người,” cô chia sẻ. “Suy cho cùng thì AI phải được đào tạo. Nhưng ai là người sẽ lập trình nó?”

Có một số những thứ đáng lo ngại khác, như sự đồng ý có hiểu biết và quyền riêng tư của bệnh nhân. Liệu người dùng có thật sự hiểu cách thức hoạt động của thuật toán và dữ liệu của họ đang được sử dụng như thế nào không? Vào tháng 1 vừa rồi, Tổ chức phi lợi nhuận về sức khỏe tinh thần Koko đã gây tranh cãi sau khi họ cung cấp dịch vụ tư vấn tâm lý cho 4000 người mà không hề cho thân chủ biết họ đang sử dụng Chat GPT-3. Một số báo cáo cũng đã cho biết rằng việc nhận điều trị từ các mô hình ngôn ngữ tổng quát (chúng tạo ra các văn bản khác nhau trong mỗi lần tương tác, gây khó khăn cho việc kiểm tra tính hợp lệ hoặc an toàn trong lâm sàng) đã dẫn đến tự tửcác tác hại khác

Xem bài viết  Mối quan hệ giữa căng thẳng sau sang chấn tâm lý và đau mãn tính

Bên cạnh đó, chúng ta cũng có những câu chuyện sử dụng AI thành công trong ngành tâm lý. Ví dụ, Chatbot Wysa không hề sử dụng thuật toán tổng quát, mà nó giới hạn các tương tác ở các câu lệnh do các nhà trị liệu đã soạn thảo hoặc phê duyệt. Wysa không thu thập địa chỉ email, số điện thoại hay tên thật của người dùng, và còn biên tập lại thông tin mà người dùng chia sẻ để có thể giúp nhận dạng họ.

Ứng dụng này còn cung cấp liệu pháp hành vi nhận thức cho chứng lo âu và đau mãn tính, và đã nhận được danh hiệu Thiết bị Đột phá từ Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ. Nó có thể được sử dụng như một công cụ độc lập hoặc được tích hợp vào liệu pháp truyền thống, và các chuyên gia tham vấn lâm sàng có thể theo dõi tiến trình của thân chủ giữa các buổi trị liệu, chẳng hạn như hiệu suất của thân chủ trong các bài tập Tái cấu trúc nhận thức.

“Wysa không được tạo ra nhằm mục đích để thay thế các chuyên gia tâm lý, mà là một sự lựa chọn mới để mọi người đều có thể nhận được sự hỗ trợ,” chuyên gia tâm lý Smriti Joshi cho biết. 

AI cũng có khả năng giảm bớt gánh nặng của các nhiệm vụ hành chính trong phòng khám. Các công cụ xử lý ngôn ngữ tự nhiên như Eleos có thể ghi chú lại các buổi trị liệu, làm nổi bật các chủ đề và các rủi ro để thân chủ xem xét. AI còn có thể phân tích đánh giá, theo dõi các triệu chứng của thân chủ và quản lý thực hành.

Trước khi tích hợp các công cụ AI vào quy trình làm việc của họ, nhiều chuyên gia tham vấn lâm sàng mong muốn biết thêm thông tin về cách xử lý dữ liệu của các ứng dụng, cũng như chúng có an toàn và có đạo đức nghề nghiệp hay không. Adam Miner, một giáo sư trợ lý lâm sàng về Tâm thần học và Khoa học hành vi tại Đại học Stanford, cho biết rằng mọi người trong lĩnh vực này cũng cần hiểu rõ hơn về xác suất xảy ra lỗi và những lỗi mà các công cụ này có xu hướng bị mắc phải. Điều này có thể đảm bảo rằng những công cụ này không tước đi những quyền của các nhóm người không có trong hệ thống y tế, chẳng hạn như những người sử dụng tiếng Anh như một ngôn ngữ thứ hai hoặc sử dụng các thành ngữ khác biệt về văn hóa.

Miner và các đồng nghiệp của anh cũng đang sử dụng AI để nhận biết những điểm mạnh trong các buổi trị liệu và xác định các lĩnh vực cần được cải thiện (Theo Tạp chí Nghiên cứu Sức khỏe Tâm thần, Tập 1, Số 19, 2022). Ví dụ: Các mô hình ngôn ngữ tự nhiên có thể tìm kiếm được những buổi trị liệu kéo dài hàng nghìn giờ và đưa những phân đoạn chuyên gia trị liệu có thể bỏ lỡ, chưa làm thân chủ cảm thấy được thấu hiểu, hay chưa đặt ra được các câu hỏi cần thiết. Các phần mềm được đào tạo theo hướng này, chẳng hạn như Lyssn, đang dần được tung ra thị trường, và chúng sẽ đánh giá các chuyên gia tham vấn dựa trên việc họ có tuân thủ các giao thức hay không dựa trên bằng chứng thu thập được. 

“Đối với tôi, đây là điểm mạnh của AI,” Miner chia sẻ. “Nó không cần phải hoàn hảo, nhưng nó cần phải giữ được cho con người ở vị trí điều khiển.”

THAY ĐỔI LĨNH VỰC NGHIÊN CỨU 

AI đang mở khóa kho dữ liệu mới về hành vi của con người và cung cấp khả năng phân tích dữ liệu đó. Từ lâu, các nhà nghiên cứu đã cố gắng đo lường hành vi con người thông qua tự báo cáo (self-report) và các thí nghiệm, nhưng giờ đây họ có thể sử dụng AI để theo dõi những thứ như hoạt động trên mạng xã hội, chi tiêu thẻ tín dụng, dữ liệu GPS và số liệu về điện thoại thông minh.

Xem bài viết  Sang chấn Tâm lý và Rối loạn Ăn uống

“Điều này thực sự đem lại sự thay đổi lớn, bởi vì đột nhiên chúng ta có thể xem xét sự khác biệt của từng cá nhân được thể hiện trong hành vi hàng ngày,” Tiến sĩ tâm lý học về nhân cách Sandra Matz, phó giáo sư tại Trường Kinh doanh Columbia, cho biết.

Tiến sĩ Matz đã kết hợp một lượng dữ liệu lớn về các trải nghiệm hàng ngày với các phương pháp truyền thống hơn, chẳng hạn như đánh giá tạm thời về sinh thái (Ecological Momentary Assessments). Việc kết hợp các nguồn dữ liệu này có thể vẽ nên một bức tranh tổng quát về cách những người khác nhau phản ứng với cùng một tình huống, và định hình các biện pháp can thiệp được cá nhân hóa trong các lĩnh vực, chẳng hạn như trong giáo dục và chăm sóc sức khỏe.

AI cũng mở ra cơ hội giám sát thụ động có thể cứu được mạng người. Tiến sĩ Ross Jacobucci và Tiến sĩ Brooke Ammerman, cả hai đều là trợ lý giáo sư tâm lý học tại Đại học Notre Dame, đang cùng nhau thử nghiệm một thuật toán thu thập ảnh chụp màn hình hoạt động trực tuyến của bệnh nhân để theo dõi việc truy cập các thuật ngữ liên quan đến t.ự t.ử và tự làm hại bản thân. Bằng cách ghép nối dữ liệu đó với EMA và các chỉ số sinh lý từ những chiếc đồng hồ thông minh, họ hy vọng có thể xây dựng được một công cụ có thể cảnh báo các chuyên gia tham vấn lâm sàng về nguy cơ tự tử của bệnh nhân theo thời gian thực.

Các mô hình xử lý ngôn ngữ tự nhiên cũng rất hữu ích với các nhà nghiên cứu. Một nhóm tại Đại học Drexel ở Philadelphia đã chỉ ra rằng GPT-3 có thể dự đoán chứng mất trí nhớ bằng cách phân tích các kiểu giọng nói (Theo Agbavor, F., & Liang, H., PLOS Digital Health, Tập 1, Số 12, 2022). Các chuyên gia tâm lý học về nhận thức đang kiểm tra hiệu suất của GPT trên các thí nghiệm chính tắc để tìm hiểu thêm về khả năng suy luận của máy so với con người (Theo Binz, M., & Schulz, E., PNAS, Tập 120, Số 6, 2023). Tiến sĩ Griffiths đang sử dụng GPT làm công cụ để hiểu thêm về giới hạn của ngôn ngữ con người.

Tiến sĩ Griffiths chia sẻ: “Những mô hình này có thể làm được nhiều điều rất ấn tượng. Nhưng nếu chúng ta muốn cảm thấy yên tâm khi giao nhiệm vụ cho chúng, chúng ta cần hiểu thêm về cách chúng đại diện cho thế giới — và điều này có thể khác với cách chúng ta nghĩ về thế giới — trước khi hai bên hiểu sai ý nhau và sinh ra vấn đề.”

Các chuyên gia tâm lý đang có rất nhiều công cụ để thấu hiểu các hệ thống thông minh. Một câu hỏi lớn trong tương lai là làm thế nào để chuẩn bị cho lứa các bạn sinh viên tâm lý đã tốt nghiệp hợp tác hiệu quả hơn với các chuyên gia công nghệ xây dựng mô hình AI.

Tiến sĩ Jacobucci chia sẻ: “Những người làm trong ngành tâm lý không biết thuật ngữ trong khoa học máy tính và ngược lại—và hiện đang có rất ít người biết được cả hai lĩnh vực này.” AI sẽ đưa ra những thách thức nhất định cho các nhà tâm lý học, nhưng việc đáp ứng lại những thách thức đó một cách thông minh có tiềm năng biến đổi được lĩnh vực này.

“AI sẽ không bao giờ thay thế hoàn toàn con người, nhưng nó có thể yêu cầu chúng ta nâng cao nhận thức và giáo dục bản thân về cách tận dụng nó một cách an toàn,” chuyên gia tâm lý Smriti Joshi chia sẻ. “Nếu chúng ta làm được điều đó, AI có thể cải thiện tâm lý học theo rất nhiều cách.”

Dịch từ: https://www.apa.org/monitor/2023/07/psychology-embracing-ai?utm_source=linkedin&utm_medium=social&utm_campaign=apa-monitor&utm_content=psychology-embracing-ai

__

Chuyển ngữ

Leave a Comment

Scroll to Top