Bài viết phân tích tác động môi trường của AI khi mở rộng công cụ tạo video và trung tâm dữ liệu quy mô lớn. Nó xem xét mức tiêu thụ điện và nước, chi phí sản xuất phần cứng, cũng như các giải pháp cải thiện hiệu quả và yêu cầu minh bạch báo cáo tài nguyên.
Điểm nổi bật:
- AI đang gia tăng mạnh mẽ tiêu thụ năng lượng và nước trong các trung tâm dữ liệu và quy trình làm mát.
- Việc tạo video bằng AI (như Sora 2) có thể đẩy cao chi phí môi trường so với tạo hình ảnh.
- Sự thay đổi trong phần cứng và chu kỳ nâng cấp chip làm tăng thêm lượng khí thải và tiêu thụ tài nguyên.
- Cần minh bạch báo cáo năng lượng và nước để định hướng vị trí xây dựng trung tâm dữ liệu và chu kỳ thay thế phần cứng.
- Giải pháp cân bằng sáng tạo AI và chi phí môi trường là khuyến khích công nghệ tiết kiệm năng lượng và sử dụng nguồn tái tạo.
Trung tâm dữ liệu AI Stargate tại Abilene, Texas — cơ sở này lấy nước từ hồ Fort Phantom, nguồn cung cấp nước uống của thành phố. Dự án Stargate là khoản đầu tư vào hạ tầng AI của OpenAI. (AP Photo/Matt O'Brien)
OpenAI gần đây ra mắt công cụ tạo video mới Sora 2, đánh dấu bước ngoặt quan trọng trong AI. Khả năng tạo ra các đoạn phim siêu thực chỉ qua vài dòng văn bản gây kinh ngạc, đồng thời đặt ra những lo ngại về tính xác thực trong chính trị và báo chí.
Tuy nhiên, Sora 2 đang được triển khai chậm do nhu cầu tính toán khổng lồ, mở ra câu hỏi về chi phí môi trường thực sự của AI. Liệu việc tạo video có làm tăng đáng kể tác động hay không?
Hai quan điểm đối lập
Một mặt, AI ngày càng trở thành gánh nặng lớn cho hệ thống điện và nước toàn cầu.
Alex de Vries-Gao, nhà nghiên cứu theo dõi tiêu thụ điện của hoạt động đào bitcoin, từng lưu ý giữa năm 2025 rằng AI đang trên đà vượt qua đào bitcoin. Ông ước tính AI đã chiếm khoảng 20% điện năng tiêu thụ của các trung tâm dữ liệu toàn cầu; con số này có thể tăng gấp đôi vào cuối năm.
Theo Cơ quan Năng lượng Quốc tế, trung tâm dữ liệu đã tiêu thụ tới 1,5% điện toàn cầu năm ngoái, với tốc độ tăng gấp bốn lần so với tổng cầu. IEA dự báo mức tiêu thụ sẽ tăng gấp đôi trước năm 2030, và AI là động lực chính.
MIT Technology Review dẫn nghiên cứu rằng tới năm 2028, tiêu thụ năng lượng của AI có thể vượt tổng mức dùng cho các trung tâm dữ liệu tại Mỹ — đủ cung cấp cho 22% hộ gia đình Mỹ mỗi năm.
Lượng tài nguyên “khổng lồ”
AI cũng tiêu thụ nước đáng kể. Các trung tâm dữ liệu cần nước siêu tinh khiết để làm mát và ngăn tạp chất. Nghiên cứu ước tính huấn luyện GPT-3 đã dùng 700.000 lít nước ngọt tại cơ sở của Microsoft. Dự báo nhu cầu AI toàn cầu có thể đạt 4–6 tỉ m³ mỗi năm vào 2027.
Phần cứng mới càng gia tăng áp lực. Nghiên cứu năm 2023 chỉ ra sản xuất chip đòi hỏi “lượng lớn” nước siêu tinh khiết, quy trình hóa chất tiêu tốn nhiều năng lượng và các kim loại quý như coban, tantali. GPU cao cấp — động cơ của cơn sốt AI — cũng có dấu chân carbon lớn hơn nhiều so với thiết bị điện tử tiêu dùng.

Góc nhìn thận trọng
Nhóm phân tích tại Center for Data Innovation, viện nghiên cứu chính sách công nghệ, cho rằng nhiều ước tính về năng lượng AI dựa trên ngoại suy không chính xác. GPU ngày càng hiệu quả hơn và nhiều điện ở trung tâm dữ liệu mới đến từ nguồn tái tạo.
Đo đạc gần đây đặt dấu chân AI vào bối cảnh: tạo một tương tác chatbot tiêu thụ khoảng 2,9 Wh — gấp 10 lần tìm kiếm Google. Google công bố một yêu cầu Gemini chỉ tiêu thụ 0,24 Wh và 0,25 mL nước, dù chuyên gia độc lập lưu ý còn nhiều yếu tố gián tiếp chưa xem xét.
Xem HD Netflix một giờ tiêu thụ gấp 100 lần tạo phản hồi văn bản AI. Dấu chân mỗi truy vấn AI rất nhỏ, nhưng trung tâm dữ liệu xử lý hàng tỉ truy vấn mỗi ngày, và truy vấn video đòi hỏi năng lượng lớn hơn đang đến gần.
Nghịch lý Jevons
Phân biệt giữa huấn luyện và sử dụng AI: huấn luyện mô hình như GPT-4 hay Claude Opus 3 cần hàng nghìn GPU chạy liên tục, tiêu thụ gigawatt-giờ điện.
Mỗi truy vấn người dùng chỉ tốn lượng nhỏ năng lượng, nhưng diễn ra hàng tỉ lần mỗi ngày. Dù AI ngày càng hiệu quả, tổng tiêu thụ vẫn tăng do lượng truy vấn và tần suất nâng cấp phần cứng.
Và dù mô hình AI có tiết kiệm năng lượng hơn, tổng mức tiêu thụ vẫn tăng theo nguyên lý Nghịch lý Jevons: khi chi phí giảm, nhu cầu tăng dẫn tới tiêu thụ nhiều hơn.

Quy mô lớn đặt thách thức
AI là mối đe dọa sinh thái hay rủi ro có thể quản lý? Sự thật nằm ở giữa. Một truy vấn đơn lẻ tiêu thụ rất ít năng lượng, nhưng hệ thống đằng sau — trung tâm dữ liệu khổng lồ, sản xuất chip liên tục, làm mát 24/7 — đang định hình lại mô hình điện và nước toàn cầu.
IEA dự báo nhu cầu điện của trung tâm dữ liệu có thể đạt 1.400 TWh vào 2030, tương đương nhu cầu điện của một số quốc gia vừa và nhỏ. AI sẽ chiếm một phần tư mức tăng này.
Minh bạch là then chốt
Nhiều số liệu về năng lượng AI thiếu tin cậy vì công bố không đầy đủ. Giải pháp là yêu cầu báo cáo tiêu chuẩn: công bố rõ ràng điện và nước dùng để huấn luyện và vận hành mô hình. EU đã bắt buộc hệ thống AI “tác động cao” phải ghi nhận mức tiêu thụ tài nguyên.
Các biện pháp tương tự có thể khuyến khích xây dựng trung tâm dữ liệu gần nguồn tái tạo và nước, kéo dài chu kỳ sử dụng phần cứng thay vì thay mới hàng năm.
Cân bằng sáng tạo và chi phí
AI sinh tạo có thể giải phóng sáng tạo và mang lại giá trị. Nhưng mỗi hình ảnh, đoạn văn hay video “miễn phí” đều tiềm ẩn chi phí tài nguyên và năng lượng.
Hiểu rõ chi phí không có nghĩa phải ngừng đổi mới, mà là minh bạch về tác động môi trường và ai sẽ gánh chi phí đó. Khi Sora 2 tràn ngập mạng xã hội, câu hỏi không còn là AI tiêu thụ nhiều năng lượng hơn Netflix hay không, mà liệu hạ tầng số có thể phát triển bền vững để đáp ứng cả hai hay không.