Trí Tuệ Nhân Tạo (AI) Đang Thay Đổi Mọi Khía Cạnh Của Tâm Lý Học

AI is changing every aspect of psychology

Trí tuệ nhân tạo (AI) đang thay đổi mọi khía cạnh của tâm lý học

Người dịch: Mỹ Uyên – Hiệu đính: Thanh Thảo

Psychologists and their skills are irreplaceable, but thoughtful and strategic implementation of AI is crucial.

Công việc của các chuyên gia tâm lý và những kỹ năng của họ là điều trí tuệ nhân tạo không thể thay thế được. Tuy nhiên việc sử dụng trí tuệ nhân tạo (AI) một cách cẩn trọng và có chiến lược là rất quan trọng. 

In psychology practice, artificial intelligence (AI) chatbots can make therapy more accessible and less expensive. AI tools can also improve interventions, automate administrative tasks, and aid in training new clinicians. On the research side, synthetic intelligence is offering new ways to understand human intelligence, while machine learning allows researchers to glean insights from massive quantities of data. Meanwhile, educators are exploring ways to leverage ChatGPT in the classroom.

Trong thực hành tâm lý, trợ lý ảo (chatbot) dựa trên AI có thể khiến việc trị liệu trở nên dễ tiếp cận và ít tốn kém hơn. Các công cụ AI cũng có thể cải thiện những can thiệp, tự động hóa các công việc hành chính và hỗ trợ đào tạo các nhà lâm sàng mới. Trong nghiên cứu, AI đang mở ra những cách thức mới để khám phá trí thông minh của con người, trong khi học máy (machine learning) cho phép các nhà nghiên cứu rút ra những hiểu biết (insights) từ một lượng lớn dữ liệu. Đồng thời, các nhà giáo dục đang khám phá những cách để tận dụng công cụ ChatGPT trong lớp học.

“A lot of people get resistant, but this is something we can’t control. It’s happening whether we want it to or not,” said Jessica Jackson, PhD, a licensed psychologist and equitable technology advocate based in Texas. “If we’re thoughtful and strategic about how we integrate AI, we can have a real impact on lives around the world.”

 Tiến sĩ tâm lý Jessica Jackson, đồng thời là chuyên gia về công nghệ công bằng ở Texas chia sẻ: “Có nhiều người tỏ ra phản đối AI, nhưng đây là thứ chúng ta không thể kiểm soát được. Nó sẽ xảy ra cho dù chúng ta có muốn hay không. Nếu chúng ta tích hợp AI một cách cẩn trọng và có chiến lược, chúng ta có thể tác động thực sự đến cuộc sống của mọi người trên toàn thế giới.”

Despite AI’s potential, there is still cause for concern. AI tools used in health care have discriminated against people based on their race and disability status (Grant, C., ACLU News and Commentary, October 3, 2022). Rogue chatbots have spread misinformationprofessed their love to users, and sexually harassed minors, which prompted leaders in tech and science to call for a pause to AI research in March 2023.

Mặc dù AI có tiềm năng lớn, thế nhưng vẫn còn nhiều điều đáng quan ngại. Các công cụ AI được sử dụng trong chăm sóc sức khỏe đã có hành vi phân biệt đối xử dựa trên chủng tộc và tình trạng khuyết tật với người sử dụng ((Grant, C., Bình luận và Nhận định ACLU, 3 tháng 10, 2022). Các chatbot không được duyệt bởi chính phủ đã lan truyền thông tin sai lệch, tỏ tình với người dùng và quấy rối tình dục trẻ vị thành niên, điều này đã thúc đẩy các nhà lãnh đạo trong lĩnh vực công nghệ và khoa học kêu gọi tạm dừng nghiên cứu AI vào tháng 3 năm 2023.

“A lot of what’s driving progress is the capacities these systems have—and that’s outstripping how well we understand how they work,” said Tom Griffiths, PhD, a professor of psychology and computer science who directs the Computational Cognitive Science Lab at Princeton University. “What makes sense now is to make a big parallel investment in understanding these systems,” something psychologists are well positioned to help do.

Tom Griffiths, tiến sĩ, giáo sư tâm lý học và khoa học máy tính, người điều hành Phòng Thí nghiệm Khoa học Nhận thức Tính toán tại Đại học Princeton, cho biết:  “Rất nhiều điều thúc đẩy sự tiến bộ là nhờ những khả năng mà các hệ thống này có được — và điều đó vượt xa mức độ chúng ta hiểu về cách chúng hoạt động” ” Điều hợp lý lúc này là đầu tư song song một cách mạnh mẽ để  hiểu rõ những hệ thống này,” và đây là điều mà các chuyên gia tâm lý rất phù hợp để hỗ trợ.

Uncovering bias

Phát hiện thiên kiến

As algorithms and chatbots flood the system, a few crucial questions have emerged. Is AI safe to use? Is it ethical? What protections could help ensure privacy, transparency, and equity as these tools are increasingly used across society?

Khi các thuật toán và chatbot tràn ngập hệ thống, một số câu hỏi then chốt xuất hiện. Sử dụng AI có an toàn không? Nó có đạo đức không? Những biện pháp bảo vệ nào có thể giúp trong việc đảm bảo quyền riêng tư, tính minh bạch và công bằng khi những công cụ này được sử dụng ngày càng rộng rãi trong xã hội?

Psychologists may be among the most qualified to answer those questions, with training on various research methodologies, ethical treatment of participants, psychological impact, and more.

Các chuyên gia tâm lý có thể là những người có đủ năng lực nhất để trả lời cho những câu hỏi đó, bằng những kinh nghiệm về các phương pháp nghiên cứu khác nhau, cách đối xử đạo đức với người tham gia, tác động tâm lý, và nhiều khía cạnh khác.

“One of the unique things psychologists have done throughout our history is to uncover the harm that can come about by things that appear equal or fair,” said Adam Miner, PsyD, a clinical assistant professor of psychiatry and behavioral sciences at Stanford University, citing the amicus brief filed by Kenneth Clark, PhD, and Mamie Phipps Clark, PhD, in Brown v. Board of Education.

“Một trong những điều độc đáo mà các chuyên gia tâm lý đã làm xuyên suốt lịch sử là phát hiện ra những tổn hại có thể xảy đến từ những thứ tưởng chừng như bình đẳng hay công bằng,” Adam Miner, tiến sĩ lâm sàng, phó giáo sư trợ lý lâm sàng về tâm thần học và khoa hành vi tại Đại học Stanford, chia sẻ và lấy dẫn chứng từ bản tóm tắt ý kiến do Tiến sĩ Kenneth Clark và Tiến sĩ Mamie Phipps Clark đệ trình trong vụ Brown v. Board of Education.

When it comes to AI, psychologists have the expertise to question assumptions about new technology and examine its impact on users. Psychologist Arathi Sethumadhavan, PhD, the former director of AI research for Microsoft’s ethics and society team, has conducted research on DALL-E 2, GPT-3, Bing AI, and others.

Khi nhắc tới AI, các chuyên gia tâm lý có chuyên môn để đặt những câu hỏi giả định về kỹ thuật công nghệ mới và nghiên cứu tác động của nó đối với người dùng. Tiến sĩ Arathi Sethumadhavan, cựu giám đốc của nhóm nghiên cứu AI về vấn đề đạo đức và xã hội tại Microsoft, đã tiến hành nghiên cứu về DALL-E 2, GPT-3, Bing AI và các hệ thống khác. 

Sethumadhavan said psychologists can help companies understand the values, motivations, expectations, and fears of diverse groups that might be impacted by new technologies. They can also help recruit participants with rigor based on factors such as gender, ancestry, age, personality, years of work experience, privacy views, neurodiversity, and more.

Sethumadhavan cho biết, các chuyên gia tâm lý có thể giúp các công ty hiểu được những giá trị, động cơ, kỳ vọng và nỗi lo của nhiều kiểu nhóm đối tượng có thể bị ảnh hưởng bởi kỹ thuật công nghệ mới. Họ còn có thể hỗ trợ chiêu mộ người tham gia một cách chuyên nghiệp dựa trên các yếu tố như giới tính, nguồn gốc, độ tuổi, tính cách, số năm kinh nghiệm làm việc, quan điểm về quyền riêng tư, tính đa dạng thần kinh, và nhiều yếu tố khác.

With these principles in mind, Sethumadhavan has incorporated the perspectives of different impacted stakeholders to responsibly shape products. For example, for a new text-to-speech feature, she interviewed voice actors and people with speech impediments to understand and address both benefits and harms of the new technology. Her team learned that people with speech impediments were optimistic about using the product to boost their confidence during interviews and even for dating and that synthetic voices with the capability to change over time would better serve children using the service. She has also applied sampling methods used frequently by psychologists to increase the representation of African Americans in speech recognition data sets.

Với những nguyên tắc này, Sethumadhavan đã kết hợp quan điểm của các bên liên quan khác nhau để định hình sản phẩm một cách có trách nhiệm. Ví dụ, đối với một tính năng mới là chuyển văn bản thành giọng nói, cô đã phỏng vấn các diễn viên lồng tiếng và những người gặp khó khăn về khả năng phát âm, để hiểu và giải quyết cả lợi ích lẫn tác hại của kỹ thuật mới. Nhóm của cô nhận thấy những người gặp khó khăn về khả năng phát âm rất tích cực về việc sử dụng sản phẩm để tăng thêm sự tự tin trong các cuộc phỏng vấn và thậm chí là hẹn hò. Họ còn nhận thấy rằng các giọng nói nhân tạo với khả năng thay đổi theo thời gian sẽ hỗ trợ tốt hơn cho trẻ em khi sử dụng dịch vụ. Cô cũng đã áp dụng các phương pháp lấy mẫu được các nhà tâm lý thường sử dụng để tăng mẫu đại diện cho người Mỹ gốc Phi trong các bộ dữ liệu nhận dạng giọng nói.

“In addition, it’s important that we bring in the perspectives of people who are peripherally involved in the AI development life cycle,” Sethumadhavan said, including people who contribute data (such as images of their face to train facial recognition systems), moderators who collect data, and enrichment professionals who label data (such as filtering out inappropriate content).

Sethumadhavan chia sẻ: “Hơn nữa, điều quan trọng là chúng ta phải đưa quan điểm của những người liên quan gián tiếp đến vòng đời phát triển AI,” bao gồm những người đóng góp dữ liệu (như hình ảnh khuôn mặt để đào tạo hệ thống nhận dạng khuôn mặt), các điều phối thu thập dữ liệu cùng các chuyên gia phân loại dữ liệu ( chẳng hạn như lọc bỏ nội dung không phù hợp).

Psychologists are also taking a close look at human-machine interaction to understand how people perceive AI and what ripple effects such perceptions could have across society. One study by psychologist Yochanan Bigman, PhD, an assistant professor at the Hebrew University of Jerusalem, found that people are less morally outraged by gender discrimination caused by an algorithm as opposed to discrimination created by humans (Journal of Experimental Psychology: General, Vol. 152, No. 1, 2023). Study participants also felt that companies held less legal liability for algorithmic discrimination.

Các chuyên gia tâm lý cũng đang nghiên cứu kỹ lưỡng về sự tương tác giữa con người và máy móc để hiểu cách mọi người nhận thức về AI và những tác động lan toả mà những nhận thức này có thể tạo ra trong xã hội. Một nghiên cứu của tiến sĩ Yochanan Bigman, phó giáo sư trợ lý tại Đại học Hebrew ở Jerusalem, đã cho thấy rằng mọi người cảm thấy ít phẫn nộ về mặt đạo đức hơn đối với sự phân biệt giới tính bởi thuật toán so với sự phân biệt đối xử do con người tạo ra (đăng trên Tạp chí Tâm lý Thực nghiệm tổng hợp, tập 152, số 1, năm 2023). Những người tham gia nghiên cứu cũng cho rằng các công ty chịu trách nhiệm pháp lý ít hơn đối với sự phân biệt đối do thuật toán gây ra.

In another study, Bigman and his colleagues analyzed interactions at a hotel in Malaysia employing both robot and human workers. After hotel guests interacted with robot workers, they treated human workers with less respect (working paper).

“There was a spillover effect, where suddenly we have these agents that are tools, and that can cause us to view humans as tools, too,” he said.

Trong một nghiên cứu khác, Bigman và các đồng nghiệp đã phân tích các tương tác tại một khách sạn ở Malaysia sử dụng cả nhân viên robot và nhân viên con người. Sau khi khách tương tác với các nhân viên robot, họ đã đối xử thiếu tôn trọng hơn với nhân viên con người (bài nghiên cứu đang trong quá trình nghiên cứu). 

“Đã có một hiệu ứng lan toả, khi chúng ta có những tác nhân là công cụ, và điều đó có thể khiến chúng ta nhìn nhận con người cũng như những công cụ,” ông nói.

Many questions remain about what causes people to trust or rely on AI, said Sethumadhavan, and answering them will be crucial in limiting harms, including the spread of misinformation. Regulators are also scrambling to decide how to contain the power of AI and who bears responsibility when something goes wrong, Bigman said.

“If a human discriminates against me, I can sue them,” he said. “If an AI discriminates against me, how easy will it be for me to prove it?”

Sethumadhavan cho biết vẫn còn nhiều câu hỏi chưa được giải đáp về những điều gì khiến mọi người tin tưởng hoặc phụ thuộc vào AI, và việc trả lời những câu hỏi này sẽ rất quan trọng trong việc hạn chế các tác hại, bao gồm sự lan truyền thông tin sai lệch. Bigman cũng nói rằng các nhà quản lý đang vất vả để quyết định làm thế nào để kiểm soát sức mạnh của AI và ai sẽ chịu trách nhiệm khi có điều sai sót xảy ra.

“Nếu một con người phân biệt đối xử với tôi, tôi có thể kiện họ” ông nói. “Nhưng nếu một AI phân biệt đối xử với tôi, liệu sẽ dễ dàng để tôi chứng minh điều đó không?”

AI in the clinic

Sử dụng AI trong phòng khám

Psychology practice is ripe for AI innovations—including therapeutic chatbots, tools that automate notetaking and other administrative tasks, and more intelligent training and interventions—but clinicians need tools they can understand and trust.

Thực hành tâm lý học đã sẵn sàng cho những đổi mới bằng AI – bao gồm các chatbot trị liệu, các công cụ tự động hóa ghi chú và các tác vụ hành chính khác, cùng với các phương pháp can thiệp và đào tạo thông minh hơn – nhưng các chuyên gia lâm sàng cần các công cụ mà họ có thể hiểu và tin tưởng.

While chatbots lack the context, life experience, and verbal nuances of human therapists, they have the potential to fill gaps in mental health service provision.

Mặc dù các chatbot thiếu ngữ cảnh, kinh nghiệm sống và những sắc thái ngôn ngữ của các chuyên gia trị liệu con người, nhưng chúng có tiềm năng lấp đầy khoảng trống trong việc cung cấp dịch vụ sức khỏe tâm thần.

“The bottom line is we don’t have enough providers,” Jackson said. “While therapy should be for everyone, not everyone needs it. The chatbots can fill a need.” For some mental health concerns, such as sleep problems or distress linked to chronic pain, training from a chatbot could suffice.

“Vấn đề cốt lõi là chúng ta không có đủ nhà cung cấp dịch vụ,” Jackson cho biết. “Mặc dù trị liệu phải dành cho mọi người, nhưng không phải ai cũng cần đến nó. Các chatbot có thể đáp ứng nhu cầu này.” Đối với một số vấn đề sức khỏe tâm thần, như các vấn đề về giấc ngủ hoặc lo âu liên quan đến đau mãn tính, nhận đào tạo từ một chatbot có thể là đủ.

In addition to making mental health support more affordable and accessible, chatbots can help people who may shy away from a human therapist, such as those new to therapy or people with social anxiety. They also offer the opportunity for the field to reimagine itself, Jackson said—to intentionally build culturally competent AIs that can make psychology more inclusive.

Jackson cho biết: Ngoài việc làm cho hỗ trợ sức khỏe tâm thần trở nên dễ tiếp cận và có chi phí phải chăng hơn, các chatbot có thể giúp đỡ những người e ngại chuyện gặp và xin tư vấn với chuyên gia trị liệu, chẳng hạn như những người mới làm quen với trị liệu hoặc những người bị lo âu xã hội. Chúng còn mở ra cơ hội để lĩnh vực này tự định hình lại để xây dựng một cách có chủ đích những AI có khả năng hiểu biết về văn hóa và giúp tâm lý học trở nên bao quát hơn.

“My concern is that AI won’t be inclusive,” Jackson said. “AI, at the end of the day, has to be trained. Who is programming it?”

“Mối lo ngại của tôi là AI sẽ không bao quát,” Jackson nói “Xét cho cùng, AI phải được đào tạo. Vậy ai là người lập trình nó?”

Other serious concerns include informed consent and patient privacy. Do users understand how the algorithm works, and what happens to their data? In January, the mental health nonprofit Koko raised eyebrows after it offered counseling to 4,000 people without telling them the support came from ChatGPT-3. Reports have also emerged that getting therapy from generative language models (which produce different text in each interaction, making it difficult to test for clinical validity or safety) has led to suicide and other harms.

Những mối lo ngại nghiêm trọng khác bao gồm sự đồng thuận có hiểu biết và quyền riêng tư của bệnh nhân. Liệu người dùng có thật sự hiểu cách thuật toán hoạt động, và điều gì sẽ xảy ra với các dữ liệu của họ? Vào tháng 1, tổ chức sức khỏe tâm thần phi lợi nhuận Koko đã gây chú ý khi cung cấp dịch vụ tham vấn cho 4.000 người mà không cho họ biết sự hỗ trợ đến từ ChatGPT-3. Các báo cáo cũng cho thấy việc nhận trị liệu từ các mô hình ngôn ngữ tạo sinh (những mô hình tạo ra văn bản khác nhau trong từng tương tác, khiến việc kiểm tra tính hiệu lực và an toàn lâm sàng trở nên khó khăn) đã dẫn đến tự sát và những hậu quả nguy hại khác.

But psychology has AI success stories, too. The Wysa chatbot does not use generative AI, but limits interactions to statements drafted or approved by human therapists. Wysa does not collect email addresses, phone numbers, or real names, and it redacts information users share that could help identify them.

Tuy nhiên, cũng có những câu chuyện thành công với AI trong tâm lý học. Chatbot Wysa không sử dụng AI tạo sinh, mà giới hạn các tương tác trong những tuyên bố do các chuyên gia trị liệu soạn thảo hoặc phê duyệt. Wysa không thu thập địa chỉ email, số điện thoại hay tên thật, và nó sẽ che giấu thông tin mà người dùng chia sẻ mà có thể khiến họ bị nhận dạng.

The app, which delivers cognitive behavioral therapy for anxiety and chronic pain, has received Breakthrough Device Designation from the United States Food and Drug Administration. It can be used as a stand-alone tool or integrated into traditional therapy, where clinicians can monitor their patients’ progress between sessions, such as performance on cognitive reframing exercises.

Ứng dụng này, cung cấp trị liệu nhận thức hành vi cho lo âu và đau mãn tính, đã nhận được Chứng Nhận Thiết bị Đột phá từ Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ. Nó có thể được sử dụng như một công cụ độc lập hoặc tích hợp vào trị liệu truyền thống, nơi các bác sĩ lâm sàng có thể theo dõi tiến trình của bệnh nhân giữa các buổi trị liệu, chẳng hạn như hiệu quả của các bài tập điều chỉnh nhận thức.

“Wysa is not meant to replace psychologists or human support. It’s a new way to receive support,” said Smriti Joshi, MPhil, the company’s chief psychologist.

“Wysa không nhằm mục đích thay thế các chuyên gia tâm lý hay sự hỗ trợ từ con người. Đó là một cách mới để nhận được sự hỗ trợ,” Smriti Joshi, trưởng khoa tâm lý của công ty, cho biết.

AI also has the potential to increase efficiency in the clinic by lowering the burden of administrative tasks. Natural language processing tools such as Eleos can listen to sessions, take notes, and highlight themes and risks for practitioners to review. Other tasks suited to automation include analysis of assessments, tracking of patient symptoms, and practice management.

AI cũng có tiềm năng tăng hiệu quả trong phòng khám bằng cách giảm gánh nặng của các công việc hành chính. Các công cụ xử lý ngôn ngữ tự nhiên như Eleos có thể lắng nghe các buổi trị liệu, ghi chú và nêu bật các chủ đề và rủi ro để các chuyên gia xem xét. Các nhiệm vụ khác phù hợp với tự động hóa bao gồm phân tích các bài đánh giá, theo dõi các triệu chứng của bệnh nhân và quản lý quy trình thực hành.

Before integrating AI tools into their workflow, many clinicians want more information on how patient data are being handled and what apps are safe and ethical to use. The field also needs a better understanding of the error rates and types of errors these tools tend to make, Miner said. That can help ensure these tools do not disenfranchise groups already left out of medical systems, such as people who speak English as a second language or use cultural idioms of distress.

Trước khi tích hợp các công cụ AI vào quy trình làm việc, nhiều bác sĩ lâm sàng muốn có thêm thông tin về cách các dữ liệu bệnh nhân được xử lý và những ứng dụng nào an toàn cũng như có tínhđạo đức để sử dụng. Miner cho biết, lĩnh vực này cũng cần hiểu rõ hơn về tỷ lệ lỗi và các loại lỗi mà những công cụ này có xu hướng mắc phải. Điều này giúp đảm bảo rằng các công cụ AI không vô tình làm mất quyền tiếp cận dịch vụ y tế của các nhóm vốn đã bị thiệt thòi, chẳng hạn như những người nói tiếng Anh như ngôn ngữ thứ hai hoặc những người sử dụng các cách diễn đạt mang tính văn hóa để thể hiện nỗi đau.

Miner and his colleagues are also using AI to measure what’s working well in therapy sessions and to identify areas for improvement for trainees (npj Mental Health Research, Vol. 1, No. 19, 2022). For example, natural language models could search thousands of hours of therapy sessions and surface missed opportunities to validate a patient or failures to ask key questions, such as whether a suicidal patient has a firearm at home. Training software along these lines, such as Lyssn—which evaluates providers on their adherence to evidence-based protocols—is starting to hit the market.

Miner và các đồng nghiệp của ông cũng đang sử dụng AI nhằm đánh giá những phương pháp hiệu quả trong các buổi trị liệu, đồng thời xác định các lĩnh vực cần cải thiện cho các học viên (npj Mental Health Research, Tập 1, Số 19, 2022). Ví dụ, các mô hình ngôn ngữ tự nhiên có khả năng phân tích hàng nghìn giờ trong các buổi trị liệu và phát hiện các cơ hội bị bỏ lỡ trong việc xác nhận trạng thái của bệnh nhân hoặc không đặt những câu hỏi quan trọng, chẳng hạn như bệnh nhân có ý định tự tử có đang sở hữu súng tại nhà hay không.. Các phần mềm đào tạo theo hướng này, như Lyssn – một công cụ chuyên đánh giá các chuyên gia về việc tuân thủ các quy trình có căn cứ khoa học – đang bắt đầu xuất hiện trên thị trường.

“To me, that’s where AI really does good work,” Miner said. “Because it doesn’t have to be perfect, and it keeps the human in the driver’s seat.”

“Với tôi, đó là lúc AI thể hiện giá trị thực sự,” Miner chia sẻ. “Bởi vì nó không cần phải hoàn hảo, và con người vẫn là người nắm quyền điều khiển.”

Transforming research

Chuyển đổi trong nghiên cứu

For researchers, AI is unlocking troves of new data on human behavior—and providing the power to analyze it. Psychologists have long measured behavior through self-reports and lab experiments, but they can now use AI to monitor things like social media activity, credit card spending, GPS data, and smartphone metrics.

Đối với các nhà nghiên cứu, AI đang mở ra kho tàng dữ liệu mới về hành vi con người – và cung cấp khả năng để phân tích chúng. Các chuyên gia tâm lý từ lâu đã đo lường hành vi thông qua các báo cáo tự đánh giá và thí nghiệm trong phòng thí nghiệm, nhưng giờ đây họ có thể sử dụng AI để theo dõi nhiều hoạt động như việc sử dụng mạng xã hội, chi tiêu qua thẻ tín dụng, dữ liệu GPS và số liệu từ điện thoại thông minh.

“That actually changes a lot, because suddenly we can look at individual differences as they play out in everyday behavior,” said personality psychologist and researcher Sandra Matz, PhD, an associate professor at Columbia Business School.

“Điều đó thực sự thay đổi rất nhiều, bởi vì bây giờ chúng ta có thể nghiên cứu sự khác biệt giữa các cá nhân thông qua hành vi hàng ngày của họ,” Sandra Matz, tiến sĩ, chuyên gia tâm lý tính cách và nghiên cứu viên, phó giáo sư tại Trường Kinh doanh Columbia, cho biết.

Matz combines big data on everyday experiences with more traditional methods, such as ecological momentary assessments (EMAs). Combining those data sources can paint a picture of how different people respond to the same situation, and ultimately shape personalized interventions across sectors, for instance in education and health care.

Matz kết hợp dữ liệu lớn về trải nghiệm hàng ngày với các phương pháp truyền thống hơn, chẳng hạn như phương pháp đánh giá tức thời trong môi trường tự nhiên (EMAs). Việc kết hợp những nguồn dữ liệu này có thể vẽ nên bức tranh về cách các cá nhân khác nhau phản ứng với cùng một tình huống, và cuối cùng hình thành các can thiệp được cá nhân hóa trong các lĩnh vực khác nhau, ví dụ như trong giáo dục và chăm sóc sức khỏe.

AI also opens up opportunities for passive monitoring that may save lives. Ross Jacobucci, PhD, and Brooke Ammerman, PhD, both assistant professors of psychology at the University of Notre Dame, are testing an algorithm that collects screenshots of patients’ online activity to flag the use or viewing of terms related to suicide and self-harm. By pairing that data with EMAs and physiological metrics from a smart watch, they hope to build a tool that can alert clinicians in real time about patients’ suicide risk.

AI cũng mở ra những cơ hội cho việc theo dõi thụ động có thể cứu sống con người. Ross Jacobucci và Brooke Ammerman, cả hai đều là phó giáo sư tâm lý tại Đại học Notre Dame, đang thử nghiệm một thuật toán thu thập ảnh chụp màn hình từ hoạt động trực tuyến của bệnh nhân để đánh dấu việc sử dụng hoặc xem các thuật ngữ liên quan đến tự sát và tự hại. Bằng cách kết nối dữ liệu đó với EMAs và các số liệu sinh lý từ đồng hồ thông minh, họ hy vọng xây dựng một công cụ có thể cảnh báo các bác sĩ lâm sàng về nguy cơ tự sát của bệnh nhân một cách kịp thời.

“The golden goose is passive sensing,” Jacobucci said. “How can that inform, not only who is at risk, but more importantly, when they’re at risk?”

“Điều quan trọng nhất là giám sát thụ động,” Jacobucci nói. “Làm thế nào để nó thông báo, không chỉ về việc ai đang có nguy cơ, mà quan trọng hơn, là khi nào họ có nguy cơ?”

Natural language processing models are also proving useful for researchers. A team at Drexel University in Philadelphia has shown that GPT-3 can predict dementia by analyzing speech patterns (Agbavor, F., & Liang, H., PLOS Digital Health, Vol. 1, No. 12, 2022). Cognitive psychologists are testing GPT’s performance on canonical experiments to learn more about how its reasoning abilities compare to humans (Binz, M., & Schulz, E., PNAS, Vol. 120, No. 6, 2023). Griffiths is using GPT as a tool to understand the limits of human language.

Các mô hình xử lý ngôn ngữ tự nhiên cũng chứng tỏ hữu ích cho các nhà nghiên cứu. Một nhóm nghiên cứu tại Đại học Drexel ở Philadelphia đã chứng minh rằng GPT-3 có thể dự đoán chứng sa sút trí nhớ bằng cách phân tích các mẫu ngôn ngữ (Agbavor,F., & Liang,H.,PLOS Digital Health, Tập 1, Số 12, 2022). Các nhà tâm lý học nhận thức đang kiểm tra hiệu suất của GPT trong các thí nghiệm điển hình để tìm hiểu thêm về cách so sánh khả năng suy luận của nó với con người (Binz, M., & Schulz, E., PNAS, Tập 120, Số 6, 2023). Griffiths đang sử dụng GPT như một công cụ để hiểu các giới hạn của ngôn ngữ con người.

“These models can do a lot of things that are very impressive,” Griffiths said. “But if we want to feel safe in delegating tasks to them, we need to understand more about how they’re representing the world—and how it might differ from the way we think about it—before that turns into a problem.”

“Những mô hình này có thể làm được nhiều việc rất ấn tượng,” Griffiths nói. “Nhưng nếu chúng ta muốn cảm thấy an tâm khi ủy thác các nhiệm vụ cho chúng, chúng ta cần hiểu thêm về cách chúng đang mô phỏng thế giới – và làm thế nào nó có thể khác với cách chúng ta nghĩ về nó – trước khi điều đó trở thành một vấn đề.”

With their toolbox for understanding intelligent systems, psychologists are in the perfect position to help. One big question moving forward is how to prepare graduate students to collaborate more effectively with the computer scientists who build AI models.

Với bộ công cụ để hiểu các hệ thống thông minh, các chuyên gia tâm lý đang ở vị trí hoàn hảo để hỗ trợ. Một câu hỏi lớn trong tương lai là làm thế nào để chuẩn bị cho các sinh viên sau đại học cộng tác hiệu quả hơn với các nhà khoa học máy tính xây dựng các mô hình AI.

“People in psychology don’t know the jargon in computer science and vice versa—and there are very few people at the intersection of the two fields,” Jacobucci said.

“Mọi người trong ngành tâm lý không biết khái niệm trong khoa học máy tính và ngược lại – và cũng rất ít người hiểu rõ về cả hai lĩnh vực này,” chia sẻ từ Jacobucci.

Ultimately, AI will present challenges for psychologists, but meeting those challenges carries the potential to transform the field.

“AI will never fully replace humans, but it may require us to increase our awareness and educate ourselves about how to leverage it safely,” Joshi said. “If we do that, AI can up the game for psychology in so many ways.”

Cuối cùng, AI sẽ đặt ra những thách thức cho các nhà tâm lý, nhưng việc đối mặt với những thách thức này mang tới tiềm năng thay đổi ngành tâm lý.

“AI sẽ không bao giờ hoàn toàn thay thế con người, nhưng nó có thể yêu cầu chúng ta nâng cao nhận thức và tự giáo dục bản thân về cách sử dụng nó một cách an toàn,” Joshi chia sẻ. “Nếu chúng ta làm được điều đó, AI có thể nâng tầm ngành tâm lý học theo nhiều cách.”

Để lại một bình luận