Ngôn ngữ chúng ta sử dụng cho công nghệ thường gây hiểu lầm, được thiết kế để thuần hóa, để chế ngự. Người ta nói với chúng ta rằng Google có một “con chip” mới. Đó là một từ quen thuộc và an toàn. Một con chip là một mảnh silicon nhỏ, vô tri, thứ mà bạn có thể cầm trong tay.
Siêu máy tính này được xây dựng theo kiến trúc mô-đun. Một máy chủ vật lý (host) chứa bốn chip Ironwood, và một tủ rack (giá đỡ) chứa các máy chủ này tạo thành một “khối lập phương” (cube) gồm 64 chip. Để mở rộng quy mô hơn nữa, các khối này được kết nối bằng mạng Chuyển mạch Quang (Optical Circuit Switch – OCS) động, cho phép hệ thống liên kết tới 144 khối thành một “siêu cụm” (superpod) 9.216 chip. Kiến trúc quy mô cụm này không chỉ để phô trương kích thước; nó cung cấp 42,5 ExaFLOPS sức mạnh tính toán FP8 và quyền truy cập vào 1,77 Petabyte bộ nhớ băng thông rộng (HBM) dùng chung.
Để hiểu những gì Google đã xây dựng, trước tiên chúng ta phải loại bỏ ý niệm về một sản phẩm riêng lẻ, độc lập. Đơn vị tính toán thực sự không còn là bộ xử lý; nó là chính trung tâm dữ liệu. Ironwood, Bộ xử lý Tensor (TPU) thế hệ thứ bảy của Google, tồn tại dưới dạng một “siêu cụm” — một siêu máy tính đơn lẻ, gắn kết, kết nối 9.216 con chip mới này. Kiến trúc khổng lồ này không được làm mát bằng quạt đơn thuần, mà bằng một “giải pháp làm mát bằng chất lỏng tiên tiến” ở quy mô công nghiệp, một hệ thống tuần hoàn thiết yếu để tản đi lượng nhiệt thải khổng lồ được tạo ra từ mức tiêu thụ điện 10 megawatt của nó.
Để dễ hình dung, 10 megawatt tương đương với mức tiêu thụ điện của một thị trấn nhỏ hoặc một nhà máy công nghiệp lớn. Đây chính là quy mô “vũ phu” (brute force) của trí tuệ nhân tạo hiện đại. AI không phải là một “đám mây” ethe trừu tượng. Nó là một ngành công nghiệp nặng hữu hình, tiêu thụ nguyên liệu thô (trong trường hợp này là năng lượng quy mô hành tinh) để sản xuất ra một loại hàng hóa vô hình mới: trí tuệ tổng hợp. Cụm Ironwood, với cấu hình 9.216 chip, là động cơ mới của ngành công nghiệp này, một gã khổng lồ được làm mát bằng chất lỏng, được thiết kế cho một mục đích duy nhất: suy nghĩ ở một quy mô mà cho đến nay, vẫn ngoài sức tưởng tượng.
Điều này ngay lập tức đặt ra xung đột trung tâm của công nghệ định hình thế kỷ 21. Mức tiêu thụ năng lượng này, khi được nhân rộng ra toàn ngành, về bản chất là không bền vững. Cụm 10 megawatt này là một kỳ quan công nghệ, nhưng nó cũng là một gánh nặng môi trường sâu sắc. Phần còn lại của câu chuyện về AI là nỗ lực vật lộn với sự thật nền tảng duy nhất này.
Thời đại của Suy luận (Inference)
Trong thập kỷ qua, thách thức chính của AI là “huấn luyện” (training). Đây là quá trình tốn kém và mất thời gian để dạy một mô hình, cung cấp cho nó toàn bộ dữ liệu trên internet để “học” ngôn ngữ, logic và lý luận. Nhưng thời đại đó đang kết thúc. Biên giới mới là “thời đại của suy luận” (age of inference) — quá trình suy nghĩ liên tục, khối lượng lớn và theo thời gian thực mà mô hình thực hiện sau khi đã được huấn luyện.
Mỗi khi AI trả lời một câu hỏi, tạo ra một hình ảnh, hoặc “chủ động truy xuất và tạo ra dữ liệu”, nó đang thực hiện suy luận. Ironwood, theo chính Google thừa nhận, là “bộ gia tốc đầu tiên được thiết kế đặc biệt cho suy luận”. Điều này báo hiệu một sự thay đổi thị trường mang tính then chốt. Cuộc chiến không còn chỉ là xây dựng các mô hình lớn nhất, mà là vận hành hiệu quả việc “suy luận AI khối lượng lớn, độ trễ thấp và phục vụ mô hình” (model serving) sẽ cung cấp năng lượng cho làn sóng “tác nhân AI” (AI agents) sắp tới, như Gemini của chính Google.
Đây là lúc chiến lược thực sự của Google lộ diện. Ironwood không phải là một sản phẩm để bán; nó là một thành tố nền tảng của “Siêu máy tính AI” (AI Hypercomputer) của Google. Đây không chỉ là phần cứng, mà là một hệ thống tích hợp theo chiều dọc, nơi phần cứng (TPU Ironwood và CPU Axion dựa trên ARM mới) được “đồng thiết kế” (co-designed) với một hệ thống phần mềm (stack) độc quyền.
Hệ thống phần mềm đồng thiết kế này chính là con hào chiến lược của Google. Mặc dù nó cung cấp hỗ trợ “có sẵn” (out-of-the-box) cho các framework mã nguồn mở như PyTorch để thu hút các nhà phát triển, nhưng thực chất nó được tối ưu hóa cho hệ sinh thái JAX của riêng Google.
- Trình biên dịch XLA (Đại số tuyến tính tăng tốc) hoạt động như một trình biên dịch quan trọng, chuyển đổi mã nguồn cấp cao thành các chỉ thị siêu hiệu quả chạy trực tiếp trên silicon TPU. Điều này cung cấp khả năng tối ưu hóa rộng rãi, “có sẵn” cho các framework như JAX và PyTorch.
- “Cluster Director” mới cho Google Kubernetes Engine (GKE) là bộ điều phối, một phần mềm có thể quản lý siêu cụm 9.216 chip như một thực thể đơn nhất, có khả năng phục hồi. Phần mềm này cung cấp nhận thức về cấu trúc liên kết (topology awareness) để lập lịch thông minh, đơn giản hóa việc quản lý các cụm quy mô lớn và cho phép các hoạt động tự phục hồi linh hoạt.
- Và hỗ trợ gốc cho vLLM giúp tối đa hóa thông lượng suy luận, một thành phần quan trọng để phục vụ các mô hình trong “thời đại suy luận”. Hỗ trợ này rất quan trọng vì vLLM sử dụng các kỹ thuật quản lý bộ nhớ hiệu quả cao để tối đa hóa hiệu suất và cho phép các nhóm phát triển chuyển đổi khối lượng công việc giữa GPU và TPU với những thay đổi tối thiểu.
Trong thập kỷ qua, sự thống trị của NVIDIA không chỉ được xây dựng trên GPU, mà còn trên nền tảng phần mềm độc quyền CUDA—một “con hào” mà các nhà phát triển bị khóa chặt vào. Siêu máy tính AI của Google là một nỗ lực trực tiếp để xây dựng một “khu vườn khép kín” (walled garden) cạnh tranh. Bằng cách cung cấp hiệu suất trên giá thành (performance-per-dollar) vượt trội chỉ cho những ai cam kết với hệ thống của mình, Google đang tự định vị mình trở thành tiện ích (utility) cơ bản cho nền kinh tế AI. Họ không bán xe hơi (như NVIDIA); họ đặt mục tiêu bán nguồn điện cung cấp cho chúng.
Kẻ định đoạt ngôi vương và Cuộc chiến Đa đám mây
Sự xác thực tối thượng cho chiến lược này đã đến vào cuối năm 2025. Anthropic, một phòng thí nghiệm AI hàng đầu và là đối thủ chính của OpenAI, đã công bố một thỏa thuận mở rộng mang tính bước ngoặt với Google, cam kết sử dụng cơ sở hạ tầng TPU của họ, bao gồm cả Ironwood mới, ở quy mô đáng kinh ngạc: “lên đến một triệu TPU”.
Đây không phải là một khoản đầu tư thông thường. Đó là một thỏa thuận “hàng chục tỷ đô la” sẽ mang lại “hơn một gigawatt công suất” cho Anthropic vào năm 2026. Thỏa thuận này là sự biện minh cuối cùng cho canh bạc kéo dài hàng thập kỷ, trị giá hàng tỷ đô la của Google vào việc tự thiết kế silicon. Lời biện minh được Anthropic đưa ra cho cam kết khổng lồ này là “hiệu suất trên giá thành và tính hiệu quả”, một tín hiệu rõ ràng rằng hệ thống tích hợp theo chiều dọc, đồng thiết kế của Google có thể cung cấp một giải pháp thay thế kinh tế hấp dẫn cho sự thống trị của NVIDIA.
Nhưng câu chuyện này có một bước ngoặt quan trọng, một bước ngoặt tiết lộ động lực quyền lực thực sự của ngành công nghiệp AI. Anthropic không phải của riêng Google. Trong thông báo của mình, Anthropic đã cẩn thận lưu ý rằng Amazon Web Services (AWS) vẫn là “đối tác huấn luyện và nhà cung cấp đám mây chính” của họ. Mối quan hệ đối tác với AWS này được xây dựng xung quanh “Dự án Rainier”, một cụm máy tính khổng lồ sử dụng hàng trăm nghìn bộ gia tốc Trainium2 của chính Amazon. Công ty đang theo đuổi một “cách tiếp cận đa dạng hóa”, đặt TPU của Google, chip Trainium của Amazon và GPU của NVIDIA vào thế cạnh tranh chiến lược với nhau.
Đây không phải là sự thiếu quyết đoán; đó là một hành động sinh tồn xuất sắc. Dữ liệu bị rò rỉ cho thấy chi phí máy tính của Anthropic chỉ riêng trên AWS đã tiêu tốn tới 88,9% doanh thu của họ. Sự tồn tại của các phòng thí nghiệm AI phụ thuộc vào việc giảm thiểu chi phí thiên văn này. Bằng cách buộc các ông lớn vào cuộc chiến đấu thầu này, các nhà phân tích ước tính Anthropic có khả năng đảm bảo nguồn lực tính toán của mình—phần đắt đỏ nhất trong hoạt động kinh doanh—với mức chiết khấu khổng lồ từ 30-50%. Bằng cách công khai hợp tác với cả Google và Amazon, Anthropic đã tự biến mình thành “người định đoạt ngôi vương” (kingmaker). Họ đang buộc các gã khổng lồ đám mây vào một cuộc chiến giá cả, tận dụng vị thế là một phòng thí nghiệm AI “danh giá” để khiến các nhà cung cấp này phải trợ giá cho các hóa đơn tính toán khổng lồ của mình.
Động lực này đã thay đổi cơ bản thị trường. Người chiến thắng cuối cùng sẽ không phải là người có con chip nhanh nhất, mà là người có tỷ lệ tốt nhất giữa tính toán, năng lượng và chi phí. “Hiệu suất trên mỗi watt” không còn là một khẩu hiệu môi trường đơn giản; nó là chiến trường chiến lược và kinh tế chính của toàn bộ ngành công nghiệp.
Những Titan Silicon Mới: Một Chế độ Đầu sỏ (Oligarchy) Mong manh
Sự ra mắt của Ironwood là một phát súng trực tiếp vào NVIDIA, nhưng chiến trường đã trở nên đông đúc. Cuộc chạy đua vũ trang AI đang được tiến hành bởi một chế độ đầu sỏ mới của các titan silicon, một số ít các tập đoàn có đủ vốn và chuyên môn kỹ thuật để chế tạo “xẻng” cho cơn sốt vàng mới này.
- Vị vua đương nhiệm (NVIDIA): GPU thế hệ Blackwell của NVIDIA, B100 và B200, cùng với người tiền nhiệm H100, vẫn là tiêu chuẩn của ngành. Sự thống trị của họ được bảo vệ bởi con hào phần mềm sâu thẳm của CUDA, thứ mà hầu hết các nhà nghiên cứu và phát triển AI đều được đào tạo để sử dụng.
- Những kẻ tiếm ngôi (Các nhà cung cấp đám mây & AMD):
- Amazon (AWS): Là nhà cung cấp đám mây có hoạt động silicon tùy chỉnh trưởng thành nhất, AWS sử dụng chiến lược chip kép: “Trainium” để huấn luyện tiết kiệm chi phí và “Inferentia” để suy luận tốc độ cao, chi phí thấp. Chiến lược chip kép này được liên kết với nhau bằng AWS Neuron SDK, lớp phần mềm được thiết kế để tối ưu hóa khối lượng công việc PyTorch và TensorFlow cho silicon tùy chỉnh của họ.
- Microsoft (Azure): Để phục vụ nhu cầu khổng lồ của đối tác quan trọng là OpenAI, Microsoft đã phát triển bộ gia tốc AI “Maia 100” của riêng mình, đồng thiết kế nó cho khối lượng công việc của ChatGPT và GPT-4. Là một trong những bộ xử lý lớn nhất được xây dựng trên tiến trình 5nm của TSMC, Maia 100 là một chip 500W-700W, giống như các đối thủ của nó, được đồng thiết kế với hệ thống phần mềm riêng để chuyển đổi các mô hình từ các framework như PyTorch.
- AMD: Đối thủ truyền thống của NVIDIA, AMD, cạnh tranh trực tiếp về hiệu suất với bộ gia tốc Instinct MI300X, sánh ngang với các chip thế hệ mới về các chỉ số quan trọng như dung lượng bộ nhớ (192GB).
Cuộc chạy đua vũ trang của các tập đoàn này được thúc đẩy bởi ba yếu tố đơn giản:
- Chi phí: Thiết kế chip của riêng bạn là cách duy nhất để thoát khỏi biên lợi nhuận “giữa 70%” của NVIDIA và mức giá cao cấp của họ.
- Nguồn cung: Nó cung cấp sự độc lập chiến lược khỏi tình trạng thiếu hụt GPU NVIDIA kinh niên đã kìm hãm toàn bộ ngành công nghiệp.
- Tối ưu hóa: Nó cho phép tạo ra lợi thế “hiệu suất trên mỗi watt” mà Google đang theo đuổi—một con chip được “đồng thiết kế” hoàn hảo cho phần mềm và khối lượng công việc đám mây cụ thể của họ.
Các gã khổng lồ đám mây không cần phải giết NVIDIA. Họ chỉ cần tạo ra một giải pháp thay thế nội bộ, khả thi và đủ tốt. Điều này biến thị trường thành hàng hóa (commoditizes), cho khách hàng sự lựa chọn và buộc NVIDIA phải giảm giá, tiết kiệm cho các nhà cung cấp đám mây hàng tỷ đô la chi phí vốn của chính họ.
Quy mô của sự hợp nhất này thật khó tưởng tượng. Các gã khổng lồ công nghệ lớn, bao gồm Google, Meta, Amazon và Microsoft, dự kiến sẽ chi tới 375 tỷ đô la trong một năm cho việc xây dựng các trung tâm dữ liệu này và phần cứng AI để lấp đầy chúng. Rào cản gia nhập thị trường mới này là vô cùng lớn. Đây không phải là dân chủ hóa. Đây là sự hợp nhất của quyền lực. Cách mạng AI sẽ không được quyết định bởi một thuật toán thông minh trong gara; nó sẽ được quyết định bởi năm tập đoàn có đủ khả năng xây dựng những bộ não 10 megawatt này.
Cuộc đối đầu của các bộ gia tốc AI năm 2025
Google Ironwood (TPU v7): Loại: ASIC. HBM Tối đa (Bộ nhớ): 192 GB HBM3e. Băng thông Tối đa: 7.4 TB/s. Kiến trúc Mở rộng: Siêu cụm 9.216 chip (9.6 Tb/s ICI). Mục đích Sử dụng: Suy luận & Huấn luyện.
NVIDIA Blackwell B200: Loại: GPU. HBM Tối đa (Bộ nhớ): 192 GB HBM3e. Băng thông Tối đa: 8 TB/s. Kiến trúc Mở rộng: NVLink 5 (1.8 TB/s). Mục đích Sử dụng: Huấn luyện & Suy luận Đa dụng.
AMD Instinct MI300X: Loại: GPU. HBM Tối đa (Bộ nhớ): 192 GB HBM3. Băng thông Tối đa: 5.3 TB/s. Kiến trúc Mở rộng: Vòng 8-GPU. Mục đích Sử dụng: Huấn luyện & Suy luận Đa dụng.
AWS Trainium / Inferentia 2: Loại: ASIC. HBM Tối đa (Bộ nhớ): (Trn) N/A / (Inf2) 32 GB HBM. Băng thông Tối đa: (Inf2) N/A. Kiến trúc Mở rộng: AWS Neuron SDK / Cụm. Mục đích Sử dụng: Tách biệt: Huấn luyện (Trn) / Suy luận (Inf).
Microsoft Maia 100: Loại: ASIC. HBM Tối đa (Bộ nhớ): 64 GB HBM2E. Băng thông Tối đa: N/A. Kiến trúc Mở rộng: Kết cấu dựa trên Ethernet. Mục đích Sử dụng: Nội bộ (OpenAI) Huấn luyện & Suy luận.
Dưới bóng đen của cuộc chiến Chip
Trận chiến của các tập đoàn giữa Google, NVIDIA và Amazon đang diễn ra dưới bóng của một cuộc xung đột lớn hơn nhiều và mang tính hệ quả hơn: “Cuộc chiến Chip” địa chính trị giữa Hoa Kỳ và Trung Quốc.
Toàn bộ thế giới hiện đại, từ điện thoại thông minh đến các hệ thống quân sự tiên tiến nhất, được xây dựng trên một chuỗi cung ứng mong manh đến nghẹt thở. “Lá chắn Silicon” của Đài Loan, nơi đặt trụ sở của TSMC, sản xuất “khoảng 90% chất bán dẫn tiên tiến nhất thế giới”. Sự tập trung sản xuất này tại eo biển Đài Loan, một “điểm nóng địa chính trị quan trọng”, là lỗ hổng lớn nhất của nền kinh tế toàn cầu.
Trong những năm gần đây, Mỹ đã vũ khí hóa sự phụ thuộc này, thực hiện “các biện pháp kiểm soát xuất khẩu sâu rộng” để “tước đi… các con chip tiên tiến của Trung Quốc” nhằm nỗ lực làm chậm sự trỗi dậy về công nghệ và quân sự của nước này. Đáp lại, Trung Quốc đang “rót hàng tỷ đô la vào tham vọng xây dựng chip của mình”, đẩy nhanh “chiến lược hợp nhất quân sự-dân sự” trong một cuộc tìm kiếm tuyệt vọng cho “sự tự chủ về chất bán dẫn”.
Nỗ lực này được nhân cách hóa bởi các công ty được nhà nước bảo trợ như Huawei. Công việc phát triển các chip AI bản địa, như Ascend 910C, đặt ra một thách thức trực tiếp đối với sự thống trị của NVIDIA tại Trung Quốc. Sự tích hợp theo chiều dọc này, kết hợp với “chiến lược hợp nhất quân sự-dân sự” của Trung Quốc, khiến các quốc gia đồng minh phương Tây ngày càng khó xác định được phần nào trong chuỗi cung ứng của Trung Quốc là an toàn để hợp tác.
Sự bất ổn toàn cầu này tạo ra một rủi ro hiện hữu cho các đại gia công nghệ. Một cuộc xung đột quân sự ở Đài Loan có thể khiến ngành công nghiệp AI dừng lại chỉ sau một đêm. Tình trạng thiếu hụt GPU NVIDIA kinh niên chỉ là một sự bất tiện nhỏ so với một thảm họa chuỗi cung ứng.
Nhìn qua lăng kính này, Ironwood của Google không chỉ là một sản phẩm cạnh tranh; đó là một hành động của “chủ quyền doanh nghiệp”. Bằng cách thiết kế silicon tùy chỉnh của riêng mình, các công ty như Google, Amazon và Microsoft “giảm thiểu rủi ro chuỗi cung ứng” và “giảm sự phụ thuộc vào các nhà cung cấp bên thứ ba”. Họ sở hữu tài sản trí tuệ. Họ không còn phụ thuộc vào một công ty duy nhất (NVIDIA) hoặc một khu vực dễ bị tổn thương duy nhất (Đài Loan). Họ có thể đa dạng hóa các đối tác sản xuất, đảm bảo mô hình kinh doanh của mình sống sót sau một cú sốc địa chính trị.
Cuộc chạy đua vũ trang của các tập đoàn và cuộc chạy đua địa chính trị giờ đây là hai mặt của cùng một đồng tiền. Các khoản đầu tư khổng lồ của Google và Amazon, trên thực tế, đang thực thi chính sách công nghiệp của Hoa Kỳ. Họ đang tạo ra xương sống công nghiệp cho một lĩnh vực công nghệ của các đồng minh phương Tây (liên minh “Chip 4”) và thiết lập một “khoảng cách công nghệ” mà các giải pháp bản địa của Trung Quốc, như Ascend 910C của Huawei, đang chạy đua để thu hẹp.
Sức nặng không thể chịu nổi của Tính toán
Điều này đưa chúng ta trở lại với cụm 10 megawatt. Cuộc chạy đua vũ trang AI, được thúc đẩy bởi tham vọng của các tập đoàn và địa chính trị, giờ đây đang đối mặt với các giới hạn vật lý của chính nó. Cái giá môi trường của việc mở rộng quy mô bằng “vũ phu” là đáng kinh ngạc.
Thỏa thuận của Anthropic cho TPU của Google là “hơn một gigawatt” điện. Con số đó tương đương với 100 cụm Ironwood chạy đồng thời, hoặc toàn bộ sản lượng của một nhà máy điện hạt nhân quy mô lớn, chỉ dành riêng cho một công ty duy nhất. Và công ty đó chỉ là một trong số rất nhiều.
Dấu chân carbon của một “suy nghĩ” đơn lẻ đang trở nên rõ ràng một cách đáng báo động.
- Huấn luyện một mô hình AI lớn duy nhất có thể thải ra hơn 626.000 pound (khoảng 284.000 kg) CO2, “tương đương với lượng khí thải trọn đời của năm chiếc ô tô Mỹ”.
- Một truy vấn duy nhất tới AI như ChatGPT sử dụng “năng lượng gấp khoảng 100 lần so với một tìm kiếm thông thường trên Google”.
- Tổng dấu chân năng lượng của ngành công nghiệp AI tạo sinh đang “tăng trưởng theo cấp số nhân” và đã “tương đương với dấu chân của một quốc gia có thu nhập thấp”.
Không chỉ là năng lượng. Các trung tâm dữ liệu cũng đang “ngấu nghiến” một nguồn tài nguyên hữu hạn hơn: nước. Chúng đòi hỏi “lượng nước khổng lồ để làm mát”, đặt gánh nặng to lớn lên các nguồn tài nguyên địa phương, thường là ở các khu vực vốn đã khan hiếm nước. Các ước tính trong ngành cho thấy một trung tâm dữ liệu trung bình đã sử dụng 1,7 lít nước cho mỗi kilowatt-giờ năng lượng tiêu thụ.
Ngành công nghiệp, bao gồm cả Google, cố gắng làm chệch hướng cuộc khủng hoảng này bằng cách khoe khoang về những cải tiến “hiệu quả”. Google tuyên bố Ironwood “tiết kiệm năng lượng hơn gần 30 lần so với Cloud TPU đầu tiên của chúng tôi từ năm 2018”. Tuy nhiên, đây là một đòn bẩy đánh lạc hướng. Đó là một ví dụ rõ ràng của Nghịch lý Jevons (Jevons Paradox): những cải tiến về hiệu quả công nghệ, khi được áp dụng cho một nguồn tài nguyên mong muốn, không làm giảm mức tiêu thụ. Chúng làm tăng mức tiêu thụ bằng cách khiến nguồn tài nguyên đó rẻ hơn và dễ tiếp cận hơn.
Hiệu suất của Ironwood không giải quyết vấn đề môi trường; nó thúc đẩy vấn đề đó nhanh hơn. Nó làm cho việc xây dựng các mô hình lớn hơn và xử lý nhiều truy vấn hơn trở nên khả thi về mặt kinh tế và kỹ thuật, đẩy tổng mức tiêu thụ năng lượng lên cao hơn nữa. Cuộc chạy đua của ngành công nghiệp để “ưu tiên tốc độ hơn an toàn và đạo đức”—một sự vội vã đã dẫn đến những thất bại được ghi nhận như các kết quả đầu ra sai lệch của chính Gemini của Google—đang tạo ra một cuộc khủng hoảng đạo đức ở quy mô hành tinh, với thiệt hại về môi trường là một ngoại ứng (externality) khổng lồ, nằm ngoài bảng cân đối kế toán.
Cuộc khủng hoảng đạo đức này xuất phát từ khả năng các hệ thống AI củng cố và khuếch đại các thành kiến của con người, đe dọa quyền con người và thao túng dư luận thông qua thông tin sai lệch. Văn phòng Trách nhiệm giải trình của Chính phủ Hoa Kỳ (GAO) đã lưu ý rằng ngay cả khi có sự giám sát, các hệ thống này, khi được tung ra thị trường một cách vội vã, vẫn dễ bị tấn công để tạo ra nội dung sai lệch về mặt thực tế hoặc có thành kiến. Động lực “chạy đua vũ trang” này, nơi các mục tiêu triển khai nhanh chóng của công ty lấn át các giao thức an toàn, tạo ra một sự căng thẳng cơ bản giữa đổi mới và trách nhiệm.
Hồi kết: Suncatcher (Kẻ Hứng Nắng) trên bầu trời
Các kỹ sư của Google không mù quáng trước nghịch lý này. Họ nhìn thấy các biểu đồ tiêu thụ năng lượng. Họ hiểu rằng việc mở rộng quy mô AI bằng “vũ phu” có một giới hạn trên mặt đất. Giải pháp mà họ đề xuất là một phép ẩn dụ hoàn hảo và siêu thực cho toàn bộ ngành công nghiệp.
Đó là một “dự án nghiên cứu siêu tham vọng” (moonshot) dài hạn có tên là “Project Suncatcher” (Dự án Kẻ Hứng Nắng).
Kế hoạch là phóng các trung tâm dữ liệu AI vào không gian. Những “chòm sao vệ tinh nhỏ gọn chạy bằng năng lượng mặt trời” này, được trang bị TPU của Google và kết nối bằng “các liên kết quang học không gian tự do” (free-space optical links), sẽ được đặt trong “quỹ đạo Trái Đất tầm thấp đồng bộ mặt trời (bình minh-hoàng hôn)”. Ở đó, chúng sẽ nhận được “ánh sáng mặt trời gần như liên tục”, giải quyết vấn đề năng lượng, trong khi chân không của không gian sẽ cung cấp giải pháp làm mát mà không cần nước.
Đây không phải là tưởng tượng. Google đã thử nghiệm các TPU thế hệ Trillium của mình trong một máy gia tốc hạt để mô phỏng bức xạ của quỹ đạo Trái Đất tầm thấp, và các con chip đã “sống sót mà không bị hỏng hóc”. Một vụ phóng nguyên mẫu hợp tác với Planet Labs được lên kế hoạch vào đầu năm 2027.
Dự án Suncatcher là một sự thừa nhận ngầm về thất bại trên Trái Đất. Đó là một lời thú nhận rằng con đường mà ngành công nghiệp đã chọn—con đường được cung cấp năng lượng bởi những bộ não 10 megawatt như Ironwood—là không bền vững trên hành tinh Trái Đất. Mục tiêu của dự án, theo lời của chính Google, là “giảm thiểu tác động đến các nguồn tài nguyên trên mặt đất” bởi vì “gánh nặng môi trường” từ lộ trình của chính họ đang trở nên quá cao để có thể gánh vác.
Đây là biểu hiện cuối cùng của sự siêu việt công nghệ. Cuộc chạy đua vũ trang AI, trong hành trình tìm kiếm trí tuệ như Thượng đế, đang tạo ra một tương lai nơi chi phí tính toán cho sự tò mò của chính chúng ta lớn đến mức chúng ta phải thực sự thoát khỏi hành tinh của mình để duy trì nó. Chip Ironwood là động cơ. Siêu máy tính (Hypercomputer) là nhà máy. Cuộc chiến Chip là cái bóng. Và Dự án Suncatcher là cửa thoát hiểm—một bước nhảy logic tuyệt vọng, xuất sắc và đáng sợ vào khoảng không.
Tuy nhiên, logic này không phải là không có những thách thức kỹ thuật và kinh tế sâu sắc của riêng nó. Những người hoài nghi nhanh chóng chỉ ra rằng không gian không phải là giải pháp thần kỳ để làm mát; nó là “chất cách nhiệt tốt nhất hiện có”. Một trung tâm dữ liệu ngoài không gian sẽ không thể làm mát một cách thụ động mà sẽ yêu cầu các bộ tản nhiệt khổng lồ và phức tạp có kích thước tương đương với các tấm pin mặt trời của nó. Các hệ thống này cũng sẽ phải đối mặt với chi phí bảo trì cực kỳ tốn kém và sự bắn phá liên tục của bức xạ làm hỏng bộ xử lý—những trở ngại biến “cửa thoát hiểm” này thành một canh bạc (gambit) với quy mô thực sự thiên văn.
