Ban đầu, nó có vẻ là một đoạn video clip kỳ quặc được tạo ra bởi trí tuệ nhân tạo để làm cho mọi người cười.
Trong đó, một Bigfoot đầy lông lá đội mũ cao bồi và mặc một chiếc áo vest có in cờ Mỹ ngồi sau tay lái của một chiếc xe bán tải.
“Hôm nay chúng ta sẽ đến buổi diễu hành của cộng đồng LGBT,” sinh vật giống vượn người nói với một tiếng cười. “Bạn sẽ thích nó.”
Sau đó, mọi thứ chuyển sang một hướng bạo lực và đáng lo ngại khi Bigfoot lái xe xuyên qua một đám đông người đang la hét, một số người trong số họ cầm cờ cầu vồng.
Đoạn clip được đăng vào tháng 6 trên trang TikTok AmericanBigfoot đã thu hút hơn 360.000 lượt xem và hàng trăm bình luận, hầu hết trong số đó đều hoan nghênh video.
Trong những tháng gần đây, nội dung do AI tạo ra tương tự đã tràn ngập các nền tảng mạng xã hội, công khai thúc đẩy bạo lực và lan truyền sự thù ghét chống lại các thành viên của cộng đồng LGBTQ2S+, người Do Thái, người Hồi giáo và các nhóm thiểu số khác.
Mặc dù nguồn gốc của hầu hết các video đó không rõ ràng, nhưng việc chúng lan truyền trên mạng xã hội đang gây ra sự phẫn nộ và lo ngại giữa các chuyên gia và những người ủng hộ, những người nói rằng các quy định của Canada không thể theo kịp tốc độ của nội dung do AI tạo ra đầy thù hận, cũng như không thể giải quyết thỏa đáng các rủi ro mà nó gây ra cho an toàn công cộng.
Egale Canada, một tổ chức vận động cho cộng đồng LGBTQ2S+, cho biết cộng đồng đang lo lắng về sự gia tăng của nội dung thông tin sai lệch chống người chuyển giới và kỳ thị đồng tính trên mạng xã hội.
Trong một tuyên bố, giám đốc điều hành Helen Kennedy cho biết: “Những công cụ AI này đang được vũ khí hóa để phi nhân hóa và làm mất uy tín của những người chuyển giới và đa dạng giới, và các luật an toàn kỹ thuật số hiện có không giải quyết được quy mô và tốc độ của mối đe dọa mới này.”
Kennedy nói rằng công nghệ phát triển nhanh chóng đã mang lại cho những kẻ xấu một công cụ mạnh mẽ để lan truyền thông tin sai lệch và thù hận, với những cá nhân chuyển giới bị nhắm mục tiêu một cách không cân xứng.
“Từ các video deepfake đến việc khuếch đại hận thù theo thuật toán, những tổn hại này không phải là nhân tạo – chúng là thật.”
Evan Balgord, giám đốc điều hành của Mạng lưới Chống Thù hận Canada, cho biết cộng đồng LGBTQ2S+ không phải là mục tiêu duy nhất. Nội dung chống người Hồi giáo, chống Do Thái và chống người Nam Á được tạo bằng các công cụ AI tổng hợp cũng đang được lưu hành rộng rãi trên mạng xã hội, ông nói.
Balgord cảnh báo trong một cuộc phỏng vấn qua điện thoại: “Khi họ tạo ra một môi trường có nhiều sự tôn vinh bạo lực đối với các nhóm đó, điều đó khiến bạo lực đối với các nhóm đó xảy ra trực tiếp hoặc trên đường phố có khả năng xảy ra cao hơn.”
Ông nói, các luật an toàn kỹ thuật số của Canada đã bị tụt hậu và những tiến bộ trong AI đã làm cho mọi thứ trở nên phức tạp hơn.
“Chúng ta không có bất kỳ quy tắc an toàn nào đối với các công ty mạng xã hội, chúng tôi không có cách nào để buộc họ phải chịu trách nhiệm.”
Andrea Slane, một giáo sư luật tại Đại học Công nghệ Ontario, người đã thực hiện nhiều nghiên cứu về an toàn trực tuyến, cho biết các dự luật nhằm giải quyết nội dung trực tuyến có hại và thiết lập một khuôn khổ quy định AI đã bị hoãn lại khi Quốc hội bị hoãn vào tháng Giêng.
Slane nói rằng chính phủ cần phải xem xét lại luật về các tác hại trực tuyến và tái ban hành dự luật “một cách khẩn cấp.”
Bà nói: “Tôi nghĩ Canada đang ở trong một tình huống mà họ thực sự cần phải hành động.”
Bộ trưởng Tư pháp Sean Fraser đã nói với The Canadian Press vào tháng 6 rằng chính phủ liên bang sẽ xem xét “mới mẻ” Đạo luật Tác hại Trực tuyến nhưng vẫn chưa quyết định liệu có viết lại hay chỉ đơn giản là tái ban hành nó. Trong số những điều khác, dự luật nhằm mục đích buộc các nền tảng mạng xã hội phải chịu trách nhiệm về việc giảm tiếp xúc với nội dung có hại.
Một phát ngôn viên của Bộ Trí tuệ Nhân tạo và Đổi mới Kỹ thuật số mới được thành lập cho biết chính phủ đang nghiêm túc xem xét vấn đề nội dung thù hận do AI tạo ra, đặc biệt là khi nó nhắm vào các nhóm thiểu số dễ bị tổn thương.
Sofia Ouslis nói rằng các luật hiện hành cung cấp “sự bảo vệ quan trọng,” nhưng thừa nhận rằng chúng không nhằm mục đích giải quyết mối đe dọa của AI tổng hợp khi chúng được thiết kế.
Trong một tuyên bố, bà nói: “Có một nhu cầu thực sự để hiểu cách các công cụ AI đang được sử dụng và lạm dụng – và cách chúng ta có thể tăng cường các biện pháp bảo vệ. Công việc đó đang được tiến hành.”
Ouslis cho biết công việc này bao gồm việc xem xét các khuôn khổ hiện có, giám sát các quyết định của tòa án “và lắng nghe chặt chẽ cả các chuyên gia pháp lý và công nghệ.” Bà nói thêm rằng chính phủ của Thủ tướng Mark Carney cũng đã cam kết biến việc phân phối video deepfake tình dục không có sự đồng thuận thành một tội hình sự.
“Trong không gian đang phát triển nhanh chóng này, chúng tôi tin rằng tốt hơn là nên có quy định đúng đắn hơn là hành động quá nhanh và mắc sai lầm,” bà nói, lưu ý rằng Ottawa đang tìm cách học hỏi từ Liên minh Châu Âu và Vương quốc Anh.
Slane nói rằng Liên minh Châu Âu đã đi trước các nước khác trong việc điều chỉnh AI và đảm bảo an toàn kỹ thuật số, nhưng mặc dù đang ở “vị trí tiên phong,” vẫn có cảm giác rằng cần phải làm nhiều hơn nữa.
Các chuyên gia nói rằng việc điều chỉnh nội dung được phân phối bởi các gã khổng lồ mạng xã hội đặc biệt khó khăn vì các công ty đó không phải là của Canada. Một yếu tố phức tạp khác là tình hình chính trị hiện tại ở phía nam biên giới, nơi các công ty công nghệ của Mỹ đang chứng kiến các quy định và hạn chế giảm bớt, khiến họ “mạnh mẽ hơn và cảm thấy ít trách nhiệm hơn,” Slane nói.
Peter Lewis, Chủ tịch Nghiên cứu Canada về trí tuệ nhân tạo đáng tin cậy, cho biết mặc dù AI tổng hợp đã tồn tại được vài năm, nhưng đã có một “bước đột phá” trong những tháng gần đây giúp việc sản xuất các video chất lượng tốt bằng các công cụ hầu hết có sẵn miễn phí hoặc với giá rất thấp trở nên dễ dàng hơn.
Ông nói: “Tôi phải nói rằng nó thực sự dễ tiếp cận với hầu hết mọi người có một chút kiến thức kỹ thuật và quyền truy cập vào các công cụ phù hợp ngay bây giờ.”
Lewis, người cũng là một trợ lý giáo sư tại Đại học Công nghệ Ontario, cho biết các mô hình ngôn ngữ lớn như ChatGPT đã thực hiện các biện pháp bảo vệ nhằm nỗ lực lọc ra nội dung có hại hoặc bất hợp pháp.
Nhưng cần phải làm nhiều hơn nữa trong không gian video để tạo ra các biện pháp bảo vệ như vậy, ông nói.
“Bạn và tôi có thể xem video và có lẽ sẽ kinh hoàng,” ông nói, thêm rằng “không nhất thiết phải rõ ràng rằng hệ thống AI có khả năng suy ngẫm về những gì nó đã tạo ra.”
Lewis nói rằng mặc dù ông không phải là một chuyên gia pháp lý, ông tin rằng các luật hiện có có thể được sử dụng để chống lại việc tôn vinh hận thù và bạo lực trực tuyến trong các video của AmericanBigfoot. Nhưng ông nói thêm rằng sự phát triển nhanh chóng của AI tổng hợp và sự sẵn có rộng rãi của các công cụ mới “đòi hỏi một giải pháp công nghệ mới” và sự hợp tác giữa các chính phủ, người tiêu dùng, những người ủng hộ, các nền tảng xã hội và các nhà phát triển ứng dụng AI để giải quyết vấn đề.
“Nếu những thứ này đang được tải lên… chúng ta cần có các cơ chế gắn cờ phản ứng mạnh mẽ để có thể loại bỏ những thứ này khỏi internet càng nhanh càng tốt,” ông nói.
Lewis cho biết việc sử dụng các công cụ AI để phát hiện và gắn cờ các video đó là hữu ích, nhưng nó sẽ không giải quyết được vấn đề.
“Do bản chất của cách các hệ thống AI này hoạt động, chúng mang tính xác suất, vì vậy chúng không thể bắt được mọi thứ.”
The Canadian Press