Theo ấn bản mới nhất của Chỉ số An toàn AI do Viện Tương lai Cuộc sống công bố hôm thứ Tư, các biện pháp an toàn của các công ty trí tuệ nhân tạo lớn, chẳng hạn như Anthropic, OpenAI, xAI và Meta, "còn kém xa các tiêu chuẩn toàn cầu mới nổi".
Viện cho biết đánh giá an toàn, do một hội đồng chuyên gia độc lập thực hiện, phát hiện ra rằng mặc dù các công ty đang chạy đua để phát triển siêu trí tuệ, nhưng không công ty nào có chiến lược vững chắc để kiểm soát các hệ thống tiên tiến như vậy.
Nghiên cứu này được đưa ra trong bối cảnh công chúng ngày càng lo ngại về tác động xã hội của các hệ thống thông minh hơn con người, có khả năng suy luận và tư duy logic, sau một số trường hợp tự tử và tự gây thương tích có liên quan đến chatbot AI.
"Bất chấp những phản ứng gần đây về việc tin tặc sử dụng AI và AI khiến con người bị rối loạn tâm thần và tự gây thương tích, các công ty AI của Hoa Kỳ vẫn ít được quản lý hơn so với các nhà hàng và tiếp tục vận động hành lang chống lại các tiêu chuẩn an toàn ràng buộc", Max Tegmark, Giáo sư MIT và Chủ tịch Viện Tương lai Cuộc sống, cho biết.
Cuộc đua AI cũng không có dấu hiệu chậm lại, với việc các công ty công nghệ lớn cam kết hàng trăm tỷ đô la để nâng cấp và mở rộng các nỗ lực học máy của họ.
Viện Tương lai Sự sống là một tổ chức phi lợi nhuận đã nêu lên những lo ngại về những rủi ro mà máy móc thông minh gây ra cho nhân loại. Được thành lập vào năm 2014, tổ chức này đã nhận được sự hỗ trợ ngay từ đầu bởi CEO Tesla Elon Musk.
Vào tháng 10, một nhóm bao gồm các nhà khoa học Geoffrey Hinton và Yoshua Bengio đã kêu gọi cấm phát triển trí tuệ nhân tạo siêu thông minh cho đến khi công chúng yêu cầu và khoa học mở ra một con đường an toàn cho tương lai.
XAI cho biết "Truyền thông cũ là dối trá", trong một phản hồi dường như tự động, trong khi Anthropic, OpenAI, Google DeepMind, Meta, Z.ai, DeepSeek và Alibaba Cloud đã không trả lời ngay lập tức yêu cầu bình luận về nghiên cứu này.
By Reuters



















