Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Chatbot AI đang thay đổi bối cảnh đe dọa trực tuyến khi Ottawa xem xét luật

Các vụ kiện về cái chết oan uổng trích dẫn các hoạt động của các chatbot trí tuệ nhân tạo đang diễn ra ở Mỹ, khi các báo cáo xuất hiện về các vấn đề sức khỏe tâm thần và ảo tưởng do các hệ thống AI gây ra.

Những sự việc này đang thu hút sự chú ý đến bản chất thay đổi của bối cảnh đe dọa trực tuyến — chỉ vài tuần sau khi chính phủ Tự do cho biết sẽ xem xét lại dự luật về tác hại trực tuyến của mình trước khi giới thiệu lại nó tại Quốc hội.

“Kể từ khi luật được giới thiệu, tôi nghĩ rằng ngày càng rõ ràng hơn rằng những tác hại to lớn có thể được tạo điều kiện bởi AI, và chúng ta đang thấy điều đó đặc biệt trong không gian của các chatbot và một số bi kịch,” Emily Laidlaw, chủ tịch nghiên cứu Canada về luật an ninh mạng tại Đại học Calgary,

Đạo luật Tác hại Trực tuyến, đã bị hủy bỏ khi cuộc bầu cử được kêu gọi, sẽ yêu cầu các công ty truyền thông xã hội phác thảo cách họ dự định giảm thiểu rủi ro mà các nền tảng của họ gây ra cho người dùng, và sẽ áp đặt lên họ một nghĩa vụ bảo vệ trẻ em.

Luật sẽ yêu cầu các công ty đó gỡ bỏ hai loại nội dung trong vòng 24 giờ — nội dung lạm dụng tình dục một đứa trẻ hoặc tái lạm dụng một người sống sót, hoặc nội dung thân mật được chia sẻ mà không có sự đồng ý, bao gồm cả deepfakes.

Helen Hayes, một nghiên cứu viên cao cấp tại Trung tâm Truyền thông, Công nghệ và Dân chủ tại Đại học McGill, tiến hành nghiên cứu về thanh thiếu niên, truyền thông xã hội và các tác hại trực tuyến. Bà nói rằng một nguồn lo ngại lớn là “sự phụ thuộc vào sự phát triển của một số người dùng vào các chatbot hoặc các hệ thống AI (tạo sinh) để xây dựng mối quan hệ, điều mà chúng ta đã thấy đã gây ra những kết quả thực sự đáng tiếc” — bao gồm cả các vụ tự tử.

Bà cũng chỉ ra việc sử dụng ngày càng tăng các hệ thống AI tạo sinh cho liệu pháp và cảnh báo rằng việc phụ thuộc vào chúng có thể “thúc đẩy các vấn đề sức khỏe tâm thần của mọi người thay vì hỗ trợ họ.”

Vào cuối tháng Tám tại California, cha mẹ của một thiếu niên đã khởi kiện một vụ kiện chống lại OpenAI, nhà sản xuất của ChatGPT sau cái chết oan uổng của con trai họ. Cha mẹ của Adam Raine, 16 tuổi, cáo buộc ChatGPT đã khuyến khích con trai họ trong kế hoạch tự tử.

Vụ kiện diễn ra sau một vụ kiện về cái chết oan uổng khác được khởi kiện vào năm ngoái ở Florida chống lại Character.AI bởi một phụ nữ có con trai 14 tuổi đã tự tử.

Reuters đã báo cáo vào tháng trước về cái chết của một người đàn ông, bị suy giảm nhận thức sau một cơn đột quỵ, người đã trở nên si mê một chatbot của Meta. Sau khi chatbot mời ông đến thăm nó ở New York và cho ông một địa chỉ giả, người đàn ông đã cố gắng làm như vậy — chỉ để bị ngã trên đường và sau đó chết trong bệnh viện.

Các chuyên gia cũng đang cảnh báo về mối đe dọa của các chatbot AI thúc đẩy ảo tưởng — cái gọi là “loạn thần AI.” Trong một trường hợp được The New York Times báo cáo vào tháng trước, một người đàn ông Canada không có tiền sử bệnh tâm thần đã trở nên tin rằng ông đã phát minh ra một khuôn khổ toán học mới mang tính cách mạng sau khi tương tác với ChatGPT.

Một phát ngôn viên của OpenAI nói rằng công ty “vô cùng đau buồn trước sự ra đi của ông Raine, và chúng tôi chia buồn với gia đình ông ấy.”

Phát ngôn viên nói rằng ChatGPT bao gồm các biện pháp bảo vệ và hướng người dùng đến các đường dây nóng khủng hoảng.

“Trong khi các biện pháp bảo vệ này hoạt động tốt nhất trong các cuộc trao đổi ngắn, thông thường, chúng tôi đã học được theo thời gian rằng chúng đôi khi có thể trở nên ít đáng tin cậy hơn trong các tương tác dài, nơi các phần của việc đào tạo an toàn của mô hình có thể bị suy giảm,” phát ngôn viên nói. “Các biện pháp bảo vệ mạnh nhất khi mọi yếu tố hoạt động như dự định, và chúng tôi sẽ liên tục cải thiện chúng, được hướng dẫn bởi các chuyên gia.”

Công ty đã thông báo vào thứ Ba rằng họ có kế hoạch sớm ra mắt một tính năng sẽ cho phép cha mẹ nhận thông báo nếu một thiếu niên đang “trong một khoảnh khắc đau khổ cấp tính.”

Một phát ngôn viên của Meta đã từ chối bình luận thêm ngoài những gì đã được bao gồm trong câu chuyện của Reuters. Công ty đã không trả lời các câu hỏi của Reuters khi được hỏi tại sao các chatbot của họ có thể nói rằng chúng là người thật và bắt đầu các cuộc trò chuyện lãng mạn.

Character.AI đã từ chối bình luận về vụ kiện đang chờ xử lý, mặc dù một phát ngôn viên nói rằng công ty đăng “các tuyên bố từ chối trách nhiệm nổi bật trong mọi cuộc trò chuyện để nhắc nhở người dùng rằng một nhân vật không phải là người thật và mọi thứ một nhân vật nói nên được coi là hư cấu.”

Các chuyên gia đang kêu gọi các biện pháp bảo vệ rộng rãi để làm rõ rằng các chatbot không phải là người thật. Laidlaw nói rằng đó không thể chỉ là một thông báo ở đầu khi một người dùng đăng ký.

“Nó phải là một cái gì đó được thúc đẩy bởi bản chất của cuộc trò chuyện. Về cơ bản cần phải có sự chú ý liên tục đến cách đảm bảo rằng điều này, nó sẽ không hoàn toàn an toàn, nhưng nó an toàn nhất có thể,” bà nói.

Hayes nói rằng các hệ thống AI tạo sinh, đặc biệt là những hệ thống được tiếp thị cho trẻ em, cần phải được dán nhãn rõ ràng là AI.

“Tôi sẽ đi xa đến mức nói rằng việc dán nhãn đó nên xảy ra mỗi khi có một số tương tác giữa người dùng và nền tảng, để có một lời nhắc nhở liên tục rằng cuộc trò chuyện được tạo ra bởi AI,” bà nói.

Phiên bản trước của dự luật về tác hại trực tuyến nhắm vào các nền tảng truyền thông xã hội. Laidlaw, người là một trong những chuyên gia được chính phủ Tự do trước đây tham khảo ý kiến về luật pháp đó, nói rằng cấu trúc cơ bản của dự luật là hợp lý.

“Nhưng tôi nghĩ những gì chúng ta phải xem xét lại là, chính xác ai chúng ta muốn được điều chỉnh bởi điều này?” bà hỏi.

“Tôi nghĩ rằng việc chỉ tập trung hẹp vào truyền thông xã hội truyền thống là không hợp lý, và các loại nền tảng khác nhau cho diễn ngôn và các loại tác hại được kích hoạt bởi AI khác nhau nên được nắm bắt bởi điều này.”

Hayes nói rằng bà sẽ đồng ý với việc sử dụng phiên bản trước của luật pháp làm nền tảng, sau đó bao gồm các hệ thống AI tạo sinh trong phạm vi của nó thông qua các điều khoản minh bạch hoặc dán nhãn.

Laidlaw nói rằng nếu AI sẽ được đưa vào luật pháp, chính phủ cần phải làm rõ rằng đó là mục tiêu.

Hayes nói rằng các hệ thống AI tạo sinh độc lập như ChatGPT sẽ không thuộc dự luật trước đó và sẽ cần được thêm vào như một hạng mục riêng biệt.

Liệu chính phủ có kế hoạch làm như vậy hay không thì không rõ. Bộ trưởng Tư pháp Sean Fraser nói với The Canadian Press vào đầu mùa hè này rằng ông sẽ xem xét lại dự luật, và AI sẽ là một trong những yếu tố được xem xét.

Một tuyên bố từ văn phòng bộ trưởng đã không trực tiếp nói liệu bộ trưởng có kế hoạch đưa bất kỳ điều khoản nào vào luật pháp để giải quyết các tác hại của AI hay không, dù nhắm cụ thể vào các chatbot hay vào AI rộng hơn.

Một phát ngôn viên của Fraser nói rằng chính phủ đang “tiến hành luật pháp để bảo vệ trẻ em khỏi việc lạm dụng tình dục và tống tiền trực tuyến, thắt chặt luật dụ dỗ trẻ em và tăng hình phạt cho việc phân phối hình ảnh thân mật mà không có sự đồng ý.”

Nó cũng sẽ biến việc phân phối deepfakes tình dục không có sự đồng ý thành một tội hình sự, Jeremy Bellefeuille nói.

“Đây là một ưu tiên đối với chúng tôi, và công việc đang được tiến hành khi chúng tôi tiếp tục tham vấn để làm cho nó đúng.”

Trong khi bối cảnh xung quanh các tác hại trực tuyến đã thay đổi kể từ khi phiên bản trước của dự luật được giới thiệu, thái độ toàn cầu về quy định AI cũng vậy khi các quốc gia ưu tiên việc áp dụng AI và cơ hội kinh tế hơn là quản trị.

Evan Solomon, bộ trưởng AI của Canada, đã nói rằng Canada sẽ rời xa “việc quá tập trung vào các cảnh báo và quy định.”

Dưới chính quyền của Tổng thống Mỹ Donald Trump, Bộ Ngoại giao Mỹ gần đây đã nhắm vào Đạo luật Tin tức Trực tuyến của Canada, trong đó yêu cầu Meta và Google bồi thường cho các nhà xuất bản tin tức vì việc sử dụng nội dung của họ.

Một nhóm các đảng viên Cộng hòa Mỹ cũng đã thúc giục chính quyền Trump thúc đẩy Canada loại bỏ Đạo luật Phát trực tuyến Trực tuyến, theo đó các công ty phát trực tuyến lớn như Netflix và Amazon được yêu cầu đóng góp tài chính cho nội dung và tin tức của Canada.

Thủ tướng Mark Carney đã hủy bỏ một loại thuế dịch vụ kỹ thuật số đối với các công ty công nghệ lớn để khởi động lại các cuộc đàm phán thương mại với Trump.

Chris Tenove, trợ lý giám đốc tại Trung tâm Nghiên cứu các Tổ chức Dân chủ tại Đại học British Columbia, nói rằng trong khi đã có động lực ở Vương quốc Anh và Liên minh châu Âu về việc điều chỉnh các tác hại trực tuyến, “chính quyền Trump là một lực lượng phản đối lớn.”

Ông nói trong một email rằng nếu Canada tiến hành quy định về tác hại trực tuyến, rõ ràng là “chúng ta sẽ phải đối mặt với một phản ứng dữ dội từ Mỹ.”

Nhưng Tenove nói rằng ngoài phản ứng của Mỹ, không có lý do chính đáng nào để loại bỏ hoặc làm loãng dự luật.

“Vì vậy, chúng ta còn lại với câu hỏi liệu Canada có thể tự tạo ra luật của mình để bảo vệ công dân của mình, hay phải tuân thủ mong muốn của chính quyền Trump,” ông nói.

The Canadian Press

ĐỌC THÊM

  • We accept We accept