Để sử dụng TheCanada.life, Vui lòng kích hoạt javascript trong trình duyệt của bạn.

Loader

Các lệnh nhắc AI của bạn có thể tiềm ẩn chi phí môi trường

Cho dù là trả lời email công việc hay soạn thảo lời thề trong đám cưới, các công cụ trí tuệ nhân tạo tạo sinh đã trở thành một trợ thủ đáng tin cậy trong cuộc sống của nhiều người. Nhưng một lượng lớn nghiên cứu ngày càng tăng cho thấy rằng đối với mỗi vấn đề AI giải quyết, các chi phí môi trường tiềm ẩn đang chồng chất.

Mỗi từ trong một lệnh nhắc AI được chia thành các cụm số gọi là "ID mã thông báo" và được gửi đến các trung tâm dữ liệu khổng lồ — một số lớn hơn cả sân bóng đá — được cung cấp năng lượng bởi các nhà máy nhiệt điện than hoặc khí đốt tự nhiên. Tại đó, các chồng máy tính lớn tạo ra phản hồi thông qua hàng tá phép tính nhanh chóng.

Theo một ước tính thường được trích dẫn bởi Viện Nghiên cứu Điện lực, toàn bộ quá trình có thể tốn năng lượng gấp 10 lần so với một tìm kiếm Google thông thường.

Vậy, đối với mỗi lệnh nhắc bạn đưa cho AI, thiệt hại là gì? Để tìm hiểu, các nhà nghiên cứu ở Đức đã thử nghiệm 14 hệ thống AI mô hình ngôn ngữ lớn (LLM) bằng cách hỏi chúng cả câu hỏi tự luận và câu hỏi trắc nghiệm. Các câu hỏi phức tạp tạo ra lượng khí thải carbon dioxide gấp sáu lần so với các câu hỏi có câu trả lời ngắn gọn.

Ngoài ra, nghiên cứu báo cáo rằng các LLM "thông minh hơn" có khả năng suy luận cao hơn tạo ra lượng khí thải carbon gấp 50 lần so với các hệ thống đơn giản hơn để trả lời cùng một câu hỏi.

Maximilian Dauner, nghiên cứu sinh tại Đại học Khoa học Ứng dụng Hochschule München và là tác giả chính của nghiên cứu Frontiers in Communication được công bố vào thứ Tư, cho biết: "Điều này cho chúng ta thấy sự đánh đổi giữa tiêu thụ năng lượng và độ chính xác của hiệu suất mô hình."

Thông thường, các LLM thông minh hơn, tiêu tốn nhiều năng lượng hơn này có nhiều tham số hơn hàng chục tỷ – các thiên kiến được sử dụng để xử lý ID mã thông báo – so với các mô hình nhỏ hơn, súc tích hơn.

Dauner nói: "Bạn có thể hình dung nó giống như một mạng lưới thần kinh trong não. Càng nhiều kết nối thần kinh, bạn càng có thể suy nghĩ nhiều hơn để trả lời một câu hỏi."

Bạn có thể làm gì để giảm lượng khí thải carbon của mình

Dauner cho biết các câu hỏi phức tạp yêu cầu nhiều năng lượng hơn một phần vì những giải thích dài dòng mà nhiều mô hình AI được đào tạo để cung cấp. Ông nói rằng nếu bạn yêu cầu một chatbot AI giải một bài toán đại số cho bạn, nó có thể hướng dẫn bạn qua các bước để tìm ra câu trả lời.

Dauner giải thích: "AI tiêu tốn rất nhiều năng lượng để lịch sự, đặc biệt nếu người dùng lịch sự, nói 'làm ơn' và 'cảm ơn.' Nhưng điều này chỉ làm cho phản hồi của họ dài hơn, tiêu tốn nhiều năng lượng hơn để tạo ra mỗi từ."

Vì lý do này, Dauner đề xuất người dùng nên thẳng thắn hơn khi giao tiếp với các mô hình AI. Hãy chỉ định độ dài câu trả lời bạn muốn và giới hạn nó trong một hoặc hai câu, hoặc nói rằng bạn không cần giải thích gì cả.

Quan trọng nhất, Sasha Luccioni, trưởng nhóm khí hậu tại công ty AI Hugging Face, cho biết trong một email rằng nghiên cứu của Dauner nhấn mạnh rằng không phải tất cả các mô hình AI đều được tạo ra như nhau. Người dùng muốn giảm lượng khí thải carbon của mình có thể cố ý hơn trong việc chọn mô hình nào cho tác vụ nào.

Luccioni giải thích: "Các mô hình dành riêng cho từng tác vụ thường nhỏ hơn và hiệu quả hơn nhiều, và cũng tốt bằng bất kỳ tác vụ cụ thể nào theo ngữ cảnh."

Nếu bạn là một kỹ sư phần mềm giải quyết các vấn đề mã hóa phức tạp mỗi ngày, một mô hình AI phù hợp cho mã hóa có thể là cần thiết. Nhưng đối với một học sinh trung học bình thường muốn được giúp đỡ làm bài tập về nhà, việc dựa vào các công cụ AI mạnh mẽ giống như sử dụng một máy tính kỹ thuật số chạy bằng năng lượng hạt nhân.

Ngay cả trong cùng một công ty AI, các sản phẩm mô hình khác nhau có thể khác nhau về khả năng suy luận, vì vậy hãy nghiên cứu những khả năng nào phù hợp nhất với nhu cầu của bạn, Dauner nói.

Khi có thể, Luccioni khuyên bạn nên quay lại các nguồn cơ bản – bách khoa toàn thư trực tuyến và máy tính điện thoại – để hoàn thành các tác vụ đơn giản.

Tại sao khó đo lường tác động môi trường của AI

Việc đưa ra con số về tác động môi trường của AI đã được chứng minh là một thách thức.

Nghiên cứu lưu ý rằng tiêu thụ năng lượng có thể thay đổi dựa trên khoảng cách của người dùng đến các lưới điện địa phương và phần cứng được sử dụng để chạy các mô hình AI. Đó là một phần lý do tại sao các nhà nghiên cứu chọn thể hiện lượng khí thải carbon trong một phạm vi, Dauner nói.

Hơn nữa, nhiều công ty AI không chia sẻ thông tin về mức tiêu thụ năng lượng của họ – hoặc các chi tiết như kích thước máy chủ hoặc kỹ thuật tối ưu hóa có thể giúp các nhà nghiên cứu ước tính mức tiêu thụ năng lượng, Shaolei Ren, phó giáo sư kỹ thuật điện và máy tính tại Đại học California, Riverside, người nghiên cứu về mức tiêu thụ nước của AI, cho biết.

Ren nói: "Bạn thực sự không thể nói AI tiêu thụ trung bình bao nhiêu năng lượng hoặc nước – điều đó không có ý nghĩa gì cả. Chúng ta cần xem xét từng mô hình riêng lẻ và sau đó (kiểm tra những gì nó sử dụng) cho từng tác vụ."

Dauner gợi ý một cách mà các công ty AI có thể minh bạch hơn là tiết lộ lượng khí thải carbon liên quan đến mỗi lệnh nhắc.

Dauner nói: "Nói chung, nếu mọi người được thông báo nhiều hơn về chi phí (môi trường) trung bình của việc tạo ra một phản hồi, mọi người có thể bắt đầu suy nghĩ, 'Có thực sự cần thiết phải biến mình thành một nhân vật hành động chỉ vì tôi buồn chán không?' Hoặc 'tôi có cần kể chuyện cười cho ChatGPT không vì tôi không có gì để làm?'"

Ngoài ra, khi ngày càng nhiều công ty thúc đẩy thêm các công cụ AI tạo sinh vào hệ thống của họ, mọi người có thể không có nhiều lựa chọn về cách hoặc khi nào họ sử dụng công nghệ, Luccioni nói.

Luccioni nói: "Chúng ta không cần AI tạo sinh trong tìm kiếm web. Không ai yêu cầu chatbot AI trong (ứng dụng nhắn tin) hoặc trên mạng xã hội. Cuộc đua nhồi nhét chúng vào mọi công nghệ hiện có này thực sự rất khó chịu, vì nó đi kèm với những hậu quả thực sự đối với hành tinh của chúng ta."

Ren nói rằng với ít thông tin có sẵn hơn về việc sử dụng tài nguyên của AI, người tiêu dùng có ít lựa chọn hơn, đồng thời cho biết thêm rằng áp lực quy định về sự minh bạch hơn khó có thể xảy ra ở Hoa Kỳ trong thời gian tới. Thay vào đó, hy vọng tốt nhất cho AI tiết kiệm năng lượng hơn có thể nằm ở hiệu quả chi phí của việc sử dụng ít năng lượng hơn.

Ren nói: "Nhìn chung, tôi vẫn tích cực về (tương lai). Có nhiều kỹ sư phần mềm đang làm việc chăm chỉ để cải thiện hiệu quả tài nguyên. Các ngành công nghiệp khác cũng tiêu thụ rất nhiều năng lượng, nhưng đó không phải là lý do để cho rằng tác động môi trường của AI không phải là vấn đề. Chúng ta chắc chắn nên chú ý."

© 2025 CNN

Bản tiếng Việt của The Canada Life

ĐỌC THÊM

  • We accept We accept