19.1.24

Chi phí ẩn đằng sau sự bùng nổ AI: bóc lột xã hội và môi trường

CHI PHÍ ẨN ĐẰNG SAU SỰ BÙNG NỔ A.I.: BÓC LỘT XÃ HỘI VÀ MÔI TRƯỜNG

Shutterstock

Các cuộc thảo luận chính thống về trí tuệ nhân tạo (AI) đã bị chi phối bởi một số mối quan tâm chính, chẳng hạn như liệu AI siêu thông minh có quét sạch loài người hay liệu AI có cướp đi công việc của chúng ta hay không. Nhưng ta lại ít chú ý đến nhiều tác động môi trường và xã hội khác của việc “tiêu thụ” AI, điều được cho là cũng quan trọng không kém.

Mọi thứ chúng ta tiêu thụ đều có “ngoại ứng” tương ứng – tức những tác động gián tiếp từ việc tiêu dùng này. Ví dụ, ô nhiễm công nghiệp là một ngoại ứng nổi tiếng có tác động tiêu cực đến con người và môi trường.

Các dịch vụ trực tuyến mà chúng ta sử dụng hằng ngày dĩ nhiên cũng có các ngoại ứng, nhưng dường như mức độ nhận thức của công chúng về những điều này còn thấp hơn nhiều (so với sức ảnh hưởng thực sự). Khi mà AI được sử dụng rầm rộ khắp nơi, ta không thể bỏ qua những nhân tố này nữa.

Tác động môi trường của việc sử dụng AI

Vào năm 2019, nhóm chuyên gia cố vấn của Pháp The Shift Project đã ước tính rằng việc sử dụng các công nghệ kỹ thuật số tạo ra nhiều khí thải carbon hơn cả ngành hàng không. Và mặc dù AI hiện được ước tính đóng góp ít hơn 1% tổng lượng khí thải carbon, nhưng quy mô thị trường AI được dự đoán sẽ tăng gấp 9 lần vào năm 2030.

Các công cụ như ChatGPT được xây dựng trên các hệ thống tính toán tiên tiến được gọi là các mô hình ngôn ngữ lớn (LLM). Mặc dù chúng ta truy cập các mô hình này trực tuyến nhưng chúng vẫn được vận hành và huấn luyện tại các trung tâm dữ liệu vật lý trên khắp thế giới, vốn tiêu thụ lượng tài nguyên đáng kể.

Năm ngoái, công ty AI Hugging Face đã công bố ước tính lượng khí thải carbon của LLM tên là BLOOM của chính họ (một mô hình có độ phức tạp tương đương GPT-3 của OpenAI).

Khi tính cả tác động của việc khai thác nguyên liệu thô, sản xuất, huấn luyện, triển khai và xử lý ở cuối vòng đời, việc phát triển và sử dụng GPT-3 gây hậu quả (phát thải) tương đương với 60 chuyến bay từ New York đến London.

Hugging Face cũng ước tính vòng đời của GPT-3 sẽ tạo ra lượng khí thải lớn gấp 10 lần, do các trung tâm dữ liệu cung cấp năng lượng cho mô hình này chạy trên một lưới điện có cường độ phát thải carbon lớn hơn. Đây là còn chưa tính đến các tác động về mặt nguyên liệu thô, sản xuất và xử lý liên quan đến GTP-3.

Sản phẩm LLM mới nhất của OpenAI, GPT-4, được đồn đại là có hàng nghìn tỷ tham số và có lẽ ngốn nhiều năng lượng hơn nhiều.

Ngoài ra, việc vận hành các mô hình AI đòi hỏi một lượng nước lớn. Các trung tâm dữ liệu sử dụng các tháp nước để làm mát các máy chủ tại chỗ, nơi các mô hình AI được huấn luyện và triển khai. Google gần đây đã bị chỉ trích vì kế hoạch xây dựng trung tâm dữ liệu mới ở Uruguay, nơi bị hạn hán nghiêm trọng, dự án này, theo Bộ Môi trường Uruguay (mặc dù Bộ trưởng Bộ Công nghiệp nước này đã phản đối các số liệu trên), dự tính sẽ cần 7,6 triệu lít nước mỗi ngày để làm mát các máy chủ. Nước cũng cần cho sản xuất điện phục vụ việc vận hành các trung tâm dữ liệu.

Trong một bản thảo được đăng trong năm nay, Pengfei Li và các đồng nghiệp đã trình bày phương pháp luận để đo lượng dấu chân nước [water footprint] của các mô hình AI. Họ thực hiện công trình này nhằm đáp lại sự thiếu minh bạch trong cách các công ty đánh giá dấu chân nước liên quan đến việc sử dụng và huấn luyện AI.

Họ ước tính việc huấn luyện GPT-3 cần khoảng 210.000 đến 700.000 lít nước (tương đương với lượng nước dùng để sản xuất từ ​​300 đến 1.000 chiếc ô tô). Với một cuộc trò chuyện có từ 20 đến 50 câu hỏi, ước tính ChatGPT sẽ “uống” hết 500 ml nước.

Tác động xã hội của việc sử dụng AI

LLM thường cần lượng lớn dữ liệu đầu vào từ con người trong giai đoạn huấn luyện. Công việc này chủ yếu được thuê ngoài cho các nhà thầu độc lập, những người phải đối mặt với điều kiện làm việc bấp bênh ở các quốc gia có thu nhập thấp, điều đã dẫn đến những chỉ trích về kiểu “công xưởng bóc lột kỹ thuật số”.

Vào tháng 1, Time đã đưa tin về việc các công nhân người Kenya ký hợp đồng gán nhãn dữ liệu dạng văn bản để phát hiện “sự độc hại” của ChatGPT được trả ít hơn 2 đô la Mỹ mỗi giờ trong khi phải tiếp xúc với nội dung rõ ràng là gây sang chấn tinh thần ra sao.

Các LLM cũng có thể tạo tin giả và tuyên truyền. Nếu không được kiểm soát, AI có khả năng bị sử dụng để thao túng dư luận, và rộng hơn là làm suy yếu các tiến trình dân chủ. Trong một thử nghiệm gần đây, các nhà nghiên cứu tại Đại học Stanford nhận thấy những thông điệp do AI tạo ra luôn đầy thuyết phục trong mắt người đọc về các vấn đề mang thời sự như đánh thuế carbon và cấm vũ khí tấn công.

Không phải ai cũng có thể thích ứng với sự bùng nổ của AI. Việc áp dụng AI trên quy mô lớn có khả năng làm trầm trọng thêm tình trạng bất bình đẳng giàu nghèo trên toàn cầu. Điều này không chỉ gây ra sự gián đoạn đáng kể cho thị trường việc làm – mà đặc biệt còn có thể đẩy những lao động với kinh nghiệm nhất định và trong các ngành cụ thể ra rìa.

Có giải pháp nào không?

Cách AI tác động đến chúng ta theo thời gian sẽ phụ thuộc vào vô số nhân tố. Các mô hình AI thế hệ mới trong tương lai có thể được thiết kế để sử dụng ít năng lượng hơn đáng kể, nhưng khó mà chắc liệu chúng có thật sẽ như vậy hay không.

Khi nói đến các trung tâm dữ liệu, thì vị trí xây dựng, kiểu phát điện và thời điểm chúng được sử dụng trong ngày có thể ảnh hưởng đáng kể đến tổng mức tiêu thụ năng lượng và nước. Tối ưu hóa các tài nguyên điện toán này có thể mang lại mức giảm tiêu thụ đáng kể. Các công ty bao gồm GoogleHugging Face và Microsoft đề cao vai trò của các dịch vụ AI và đám mây mà họ cung cấp trong việc quản lý sử dụng tài nguyên để đạt hiệu quả tốt hơn.

Ngoài ra, với tư cách là người tiêu thụ trực tiếp hoặc gián tiếp các dịch vụ AI, điều quan trọng là tất cả chúng ta cần ý thức rằng mọi truy vấn chatbot và yêu cầu tạo hình ảnh đều tốn nước và năng lượng, đồng thời có thể ảnh hưởng tới việc làm của con người.

Sự phổ biến ngày càng tăng của AI cuối cùng có thể kích khởi sự phát triển của các tiêu chuẩn và chứng nhận bền vững. Những thứ sẽ giúp người dùng hiểu và so sánh những tác động của các dịch vụ AI cụ thể, cho phép họ chọn những dịch vụ đã được chứng nhận. Điều này sẽ tương tự như Hiệp ước Trung tâm Dữ liệu Trung hòa Khí hậu, trong đó các nhà điều hành trung tâm dữ liệu châu Âu đã đồng ý đưa các trung tâm dữ liệu đạt được trung hòa khí hậu vào năm 2030.

Chính phủ cũng sẽ dự phần. Nghị viện Châu Âu đã thông qua dự thảo luật để giảm thiểu rủi ro khi sử dụng AI. Và hồi đầu năm nay, thượng viện Hoa Kỳ đã lắng nghe các chứng cứ từ nhiều chuyên gia về cách làm thế nào để điều tiết một cách hiệu quả và giảm thiểu tác hại của AI. Trung Quốc cũng đã công bố các quy tắc về việc sử dụng AI tạo sinh, yêu cầu đánh giá bảo mật đối với các sản phẩm cung cấp dịch vụ cho công chúng.

Xem thêmEU phê duyệt dự thảo luật để điều tiết AI – luật sẽ hoạt động như sau

Tác giả:

Carl Higgs
Afshin Jafari
Ascelin Gordon
Ascelin Gordon

Nghiên cứu viên cao cấp, Đại học RMIT

Afshin Jafari
Nghiên cứu viên, Đại học RMIT

Carl Higgs
Nghiên cứu viên, Trung tâm Nghiên cứu Đô thị, Đại học RMIT

Tuyên bố công khai

Ascelin Gordon làm việc tại Đại học RMIT. Ông nhận hỗ trợ tài chính từ Hội đồng Nghiên cứu Úc, Bộ Kế hoạch và Môi trường tiểu bang New South Wales (NSW) và Ủy ban Bảo tồn Đa dạng sinh học NSW.

Afshin Jafari làm việc tại Đại học RMIT.

Carl Higgs làm việc tại Đại học RMIT và nhận hỗ trợ tài chính từ các khoản tài trợ của Hội đồng Nghiên cứu Y tế và Sức khỏe Quốc gia.

Huỳnh Thị Thanh Trúc dịch

Nguồn: The hidden cost of the AI boom: social and environmental exploitation, The Conversation, Jul 19, 2023.

Print Friendly and PDF