Nền văn minh công nghệ đang đứng trước một nghịch lý hiện sinh. Trong khi nhu cầu về trí tuệ nhân tạo (AI) tăng trưởng theo cấp số nhân, được thúc đẩy bởi sự bùng nổ của các Mô hình Ngôn ngữ Lớn (LLM) và các hệ thống tạo sinh, thì cơ sở hạ tầng vật lý duy trì những tiến bộ này đang nhanh chóng chạm đến các giới hạn nhiệt động lực học không thể vượt qua. Câu chuyện chủ đạo về Định luật Moore — sự nhân đôi liên tục của số lượng bóng bán dẫn và hiệu suất — đã bắt đầu rạn nứt. Điều này không phải do chúng ta không thể thu nhỏ linh kiện thêm nữa, mà do những hạn chế cơ bản về tản nhiệt và tiêu thụ năng lượng. Trong bối cảnh nguy cấp này, “điện toán nhiệt động lực học” (thermodynamic computing) nổi lên như một sự thay đổi mô hình, hứa hẹn không chỉ giảm thiểu cuộc khủng hoảng năng lượng mà còn định nghĩa lại bản chất của việc xử lý thông tin.
Sự Thống trị của Watt trong Kỷ nguyên AI Tạo sinh
Kiến trúc máy tính hiện tại, dựa trên mô hình von Neumann và logic Boolean định đoạt (deterministic), đang đối mặt với cái mà các chuyên gia gọi là “Bức tường Năng lượng”. Việc huấn luyện và suy luận của các mô hình AI tiên tiến phụ thuộc gần như hoàn toàn vào các Đơn vị Xử lý Đồ họa (GPU), chẳng hạn như dòng NVIDIA H100 phổ biến. Chỉ một đơn vị này đã có Công suất Thiết kế Nhiệt (TDP) là 700 watt, và khi được nhóm lại trong các hệ thống HGX H100, mức tiêu thụ vượt quá 2.000 watt mỗi tủ rack. Mật độ năng lượng này biến các trung tâm dữ liệu hiện đại thành những “lò nung kỹ thuật số”, đòi hỏi hạ tầng làm mát khổng lồ và tiêu thụ điện nước ở quy mô công nghiệp.
Dữ liệu vĩ mô xác nhận tính cấp bách của cuộc khủng hoảng này. Goldman Sachs dự báo nhu cầu điện toàn cầu từ các trung tâm dữ liệu sẽ tăng 165% vào cuối thập kỷ này. Trong khi đó, Cơ quan Năng lượng Quốc tế (IEA) ước tính mức tiêu thụ điện của các trung tâm dữ liệu có thể tăng gấp đôi vào năm 2026, đạt 1.000 TWh — con số tương đương với tổng lượng điện tiêu thụ của cả Nhật Bản. Sự tăng trưởng này không phải là tuyến tính mà tuân theo đường cong lũy thừa của độ phức tạp trong các mô hình AI, tạo ra một tình huống không bền vững khi mà 92% các giám đốc điều hành trung tâm dữ liệu đã xác định những hạn chế của lưới điện là trở ngại chính cho việc mở rộng quy mô.
Sự Kém Hiệu quả Cốt lõi của Tính Định đoạt
Vấn đề cơ bản không chỉ nằm ở số lượng tính toán, mà còn ở chất lượng vật lý của nó. Điện toán kỹ thuật số hiện nay hoạt động dưới một chế độ triệt tiêu nhiễu. Để đảm bảo một bit chắc chắn là 0 hoặc 1, các bóng bán dẫn phải hoạt động ở điện áp vượt xa mức “nhiễu nhiệt” tự nhiên của các electron. Cuộc chiến không ngừng nghỉ chống lại entropy này — nỗ lực duy trì trật tự hoàn hảo trong một môi trường vật lý hỗn loạn — mang lại một cái giá quá đắt về năng lượng.
Mỗi phép toán logic trong bộ xử lý kỹ thuật số liên quan đến việc nạp và xả tụ điện cũng như di chuyển các electron qua các điện trở, tạo ra nhiệt lượng dư thừa không đóng góp gì cho việc tính toán, mà chỉ đại diện cho năng lượng lãng phí trong sự “ma sát” cần thiết để áp đặt tính định đoạt. Như các nhà nghiên cứu chỉ ra, các hệ thống thông thường phải “trả tiền bằng năng lượng” để triệt tiêu tính ngẫu nhiên. Hơn nữa, sự tách biệt vật lý giữa bộ nhớ và đơn vị xử lý (nút thắt cổ chai von Neumann) có nghĩa là một phần lớn năng lượng được chi tiêu chỉ để di chuyển dữ liệu từ nơi này sang nơi khác chứ không phải để xử lý nó.
Giải pháp Thay thế Nhiệt động lực học
Trước kịch bản này, điện toán nhiệt động lực học đề xuất một sự đảo ngược triệt để các nguyên tắc vận hành. Thay vì tiêu tốn năng lượng để chống lại nhiễu nhiệt, lĩnh vực này tìm cách khai thác nó như một tài nguyên tính toán. Nó dựa trên tiền đề rằng tự nhiên tính toán một cách hiệu quả thông qua các quá trình hồi quy về trạng thái cân bằng nhiệt. Bằng cách điều chỉnh kiến trúc máy tính phù hợp với vật lý cơ bản của thông tin, chúng ta có thể thực hiện các tác vụ phức tạp — cụ thể là việc lấy mẫu xác suất mà AI tạo sinh yêu cầu — với hiệu suất vượt trội hơn nhiều lần so với các bóng bán dẫn kỹ thuật số.
Cách tiếp cận này không chỉ là lý thuyết. Các công ty như Extropic và Normal Computing đã bắt đầu sản xuất phần cứng hiện thực hóa các nguyên tắc này, hứa hẹn hiệu suất cao hơn tới 10.000 lần so với các công nghệ hiện tại. Báo cáo này phân tích toàn diện trạng thái của công nghệ này, nền tảng vật lý, các nhân tố chủ chốt cũng như những tác động địa chính trị và kinh tế của quá trình chuyển đổi sang điện toán dựa trên vật lý.
Nền tảng Vật lý: Từ Bit Định đoạt đến P-Bit Ngẫu nhiên
Để hiểu được tầm vóc của sự đổi mới mà điện toán nhiệt động lực học đại diện, bắt buộc phải đi sâu vào cấp độ vật lý của hoạt động mạch điện. Sự khác biệt giữa một con chip thông thường và một Đơn vị Lấy mẫu Nhiệt động lực học (TSU) không phải là sự khác biệt về cấp độ, mà là sự khác biệt về bản chất.
Nhiệt động lực học Không cân bằng và Tính toán
Lý thuyết chung củng cố những tiến bộ này là vật lý thống kê không cân bằng, thường được gọi là nhiệt động lực học ngẫu nhiên (stochastic thermodynamics). Lĩnh vực này cung cấp các công cụ để phân tích các hệ thống ở xa trạng thái cân bằng nhiệt, chẳng hạn như máy tính. Trong điện toán cổ điển, người ta tuân theo nguyên lý Landauer, thiết lập một giới hạn dưới về lý thuyết cho năng lượng cần thiết để xóa một bit thông tin, tản nhiệt ra môi trường. Tuy nhiên, điện toán nhiệt động lực học hoạt động theo các động lực khác nhau.
Các thiết bị nhiệt động lực học được thiết kế để vận hành theo động lực học Langevin. Điều này có nghĩa là hệ thống vật lý tự nhiên “tìm kiếm” trạng thái năng lượng thấp nhất của nó. Nếu một bài toán được mã hóa vào bối cảnh năng lượng của thiết bị, hệ thống sẽ giải quyết bài toán đó đơn giản bằng cách thả lỏng về trạng thái cân bằng nhiệt. Trong mô hình này, tính toán không phải là một chuỗi các bước logic cưỡng bức, mà là một quá trình vật lý tự nhiên, tương tự như cách một giọt nước tìm đường nhanh nhất xuống núi hoặc cách một protein gấp lại thành cấu hình tối ưu của nó.
Bit Xác suất (p-bit)
Đơn vị cơ bản của kiến trúc mới này là p-bit (probabilistic bit – bit xác suất). Không giống như một bit kỹ thuật số vốn tĩnh tại cho đến khi được lệnh thay đổi, một p-bit dao động liên tục giữa 0 và 1 trong khoảng thời gian nano giây, được thúc đẩy bởi nhiễu nhiệt môi trường. Tuy nhiên, sự dao động này không hoàn toàn ngẫu nhiên; nó có thể được điều chỉnh (thiên vị) thông qua điện áp kiểm soát để p-bit dành, ví dụ, 80% thời gian ở trạng thái 1 và 20% ở trạng thái 0.
Hành vi này bắt chước các phân phối xác suất. Bằng cách kết nối nhiều p-bit với nhau, người ta tạo ra một mạch đại diện cho một phân phối xác suất chung phức tạp. Khi “đọc” trạng thái của mạch tại bất kỳ thời điểm nào, ta sẽ có được một mẫu hợp lệ của phân phối đó. Điều này cực kỳ quan trọng vì AI tạo sinh hiện đại về cơ bản xoay quanh xác suất: dự đoán từ tiếp theo có khả năng nhất hoặc tạo ra pixel hợp lý nhất trong một hình ảnh.
Lấy mẫu Tự nhiên so với Mô phỏng Kỹ thuật số
Lợi thế hiệu suất “10.000 lần” mà Extropic tuyên bố xuất phát từ sự khác biệt cấu trúc này. Trong một GPU kỹ thuật số (định đoạt), việc tạo ra một mẫu ngẫu nhiên từ một phân phối phức tạp đòi hỏi phải chạy các thuật toán tạo số giả ngẫu nhiên (PRNG) tiêu tốn hàng nghìn chu kỳ đồng hồ và hàng triệu lần chuyển đổi trạng thái của bóng bán dẫn. GPU phải mô phỏng sự ngẫu nhiên thông qua các phép tính số học định đoạt phức tạp.
Ngược lại, chip nhiệt động lực học tạo ra mẫu một cách tự nhiên. Nó không mô phỏng nhiễu; nhiễu chính là động cơ của tính toán. Vật lý đảm nhận công việc nặng nhọc là tạo ra sự ngẫu nhiên, loại bỏ nhu cầu về các Đơn vị Logic Số học (ALU) phức tạp cho nhiệm vụ cụ thể này. Về bản chất, đây là tính toán analog được hỗ trợ bởi nhiễu, nơi môi trường vật lý thực hiện phép toán ngay lập tức.
| Đặc điểm Vận hành | Điện toán Kỹ thuật số (GPU/CPU) | Điện toán Nhiệt động lực học (TSU) |
| Đơn vị Cơ bản | Bóng bán dẫn CMOS (Công tắc Định đoạt) | p-bit (Bộ dao động Ngẫu nhiên) |
| Mối quan hệ với Nhiễu | Triệt tiêu (Nhiễu = Lỗi) | Sử dụng (Nhiễu = Tài nguyên/Nhiên liệu) |
| Cơ chế Tính toán | Số học Boolean Tuần tự | Hồi quy Vật lý về Trạng thái Năng lượng Tối thiểu |
| Tiêu thụ Năng lượng | Cao (Chống lại nhiệt động lực học) | Tối thiểu (Xuôi theo nhiệt động lực học) |
| Ứng dụng Lý tưởng | Tính toán chính xác, logic tuyệt đối | Suy luận xác suất, Tối ưu hóa, GenAI |
Extropic: Kiến trúc và Chiến lược của Sự Bất định
Extropic, có trụ sở tại Hoa Kỳ, đã định vị mình là mũi nhọn thương mại của công nghệ này. Được thành lập bởi Guillaume Verdon (cựu nhà vật lý Google và được biết đến trong giới kỹ thuật số với cái tên “Beff Jezos”, lãnh đạo của phong trào gia tốc hiệu quả hay e/acc) và Trevor McCourt, công ty đã chuyển từ lý thuyết sang sản xuất silicon hữu hình.
Chip X0: Xác thực Silicon Xác suất
Cột mốc hữu hình đầu tiên của Extropic là chip X0. Thiết bị này là một nguyên mẫu thử nghiệm được thiết kế để xác nhận rằng các mạch xác suất có thể được sản xuất bằng quy trình bán dẫn tiêu chuẩn và hoạt động ở nhiệt độ phòng. Không giống như máy tính lượng tử đòi hỏi nhiệt độ gần độ không tuyệt đối, X0 sử dụng nhiệt môi trường làm nguồn entropy.
X0 chứa một nhóm các mạch được thiết kế để tạo ra các mẫu từ các phân phối xác suất nguyên thủy. Chức năng chính của nó là xác nhận độ chính xác của các mô hình nhiễu của Extropic: chứng minh rằng một bóng bán dẫn có thể được thiết kế để trở nên “ồn ào” theo cách có thể dự đoán và kiểm soát được. Thành tựu này rất đáng kể vì ngành công nghiệp bán dẫn đã dành 60 năm để tối ưu hóa các quy trình nhằm loại bỏ nhiễu; việc đưa nó trở lại một cách có kiểm soát đòi hỏi sự am hiểu sâu sắc về vật lý vật liệu.
Nền tảng Phát triển XTR-0
Để cho phép các nhà nghiên cứu và phát triển tương tác với nền vật lý mới này, Extropic đã ra mắt nền tảng XTR-0. Hệ thống này không phải là một máy tính độc lập, mà là một kiến trúc lai. Về mặt vật lý, nó bao gồm một bo mạch chủ hình thang chứa một CPU thông thường và một FPGA, được kết nối với hai bo mạch con chứa các chip nhiệt động lực học X0.
Chức năng của XTR-0 là đóng vai trò cầu nối. CPU quản lý luồng công việc chung và logic định đoạt, trong khi FPGA hoạt động như một trình biên dịch tốc độ cao, gửi hướng dẫn và tham số đến các chip X0 và nhận lại các mẫu xác suất được tạo ra. Kiến trúc này thừa nhận một thực tế thực dụng: máy tính nhiệt động lực học sẽ không thay thế máy tính kỹ thuật số cho các tác vụ như chạy hệ điều hành hay xử lý bảng tính. Vai trò của chúng là các bộ tăng tốc chuyên dụng, tương tự như cách GPU tăng tốc đồ họa, nhưng dành riêng cho khối lượng công việc xác suất của AI.
Chip Z1 và Tầm nhìn Quy mô
Mục tiêu cuối cùng của Extropic không phải là X0, mà là chip Z1 trong tương lai. Dự kiến thiết bị này sẽ chứa hàng trăm nghìn hoặc hàng triệu p-bit được liên kết với nhau, cho phép chạy các mô hình AI tạo sinh sâu hoàn toàn trên nền tảng nhiệt động lực học. Các mô phỏng do công ty thực hiện cho thấy chip này có thể thực hiện các tác vụ tạo hình ảnh hoặc văn bản với mức tiêu thụ năng lượng thấp hơn 10.000 lần so với một GPU tương đương.
Kiến trúc của Z1 dựa trên kết nối cục bộ quy mô lớn. Không giống như GPU, nơi dữ liệu di chuyển khoảng cách xa qua chip (tiêu tốn năng lượng), trong thiết kế của Extropic, bộ nhớ và tính toán được đan xen. Các p-bit chỉ tương tác với các hàng xóm trực tiếp của chúng, tạo ra một mạng lưới tương tác cục bộ cùng nhau giải quyết các vấn đề toàn cục. Điều này loại bỏ phần lớn chi phí năng lượng liên quan đến việc di chuyển dữ liệu.
Thuật toán Tự nhiên: Mô hình Nhiệt động lực học Khử nhiễu (DTM)
Phần cứng mang tính cách mạng đòi hỏi phần mềm mang tính cách mạng. Cố gắng chạy các thuật toán học sâu tiêu chuẩn (dựa trên phép nhân ma trận định đoạt) trên một chip nhiệt động lực học sẽ không hiệu quả. Do đó, Extropic đã phát triển một lớp thuật toán tự nhiên mới.
Mô hình Dựa trên Năng lượng (EBM)
Cơ sở lý thuyết cho phần mềm của Extropic là các Mô hình Dựa trên Năng lượng (Energy-Based Models – EBMs). Trong học máy, một EBM học cách liên kết mức “năng lượng” thấp với dữ liệu trông thực tế (như hình ảnh một con mèo) và năng lượng cao với nhiễu hoặc dữ liệu sai lệch. Việc tạo dữ liệu với một EBM liên quan đến việc tìm các cấu hình năng lượng thấp.
Về mặt lý thuyết, EBM đã tồn tại trong nhiều thập kỷ nhưng bị thất thế trước mạng nơ-ron sâu vì việc huấn luyện và sử dụng chúng trên máy tính kỹ thuật số cực kỳ chậm. Chúng yêu cầu một quy trình gọi là Lấy mẫu Gibbs, vốn rất tốn kém về mặt tính toán trên CPU hoặc GPU. Tuy nhiên, chip của Extropic thực hiện Lấy mẫu Gibbs một cách tự nhiên và gần như tức thời. Điều vốn là điểm yếu của silicon kỹ thuật số lại là sức mạnh nền tảng của silicon nhiệt động lực học.
Denoising Thermodynamic Model (DTM)
Thuật toán chủ lực của Extropic là Mô hình Nhiệt động lực học Khử nhiễu (DTM). Mô hình này hoạt động tương tự như các mô hình khuếch tán hiện đại (như Midjourney hoặc Stable Diffusion), bắt đầu bằng nhiễu thuần túy và tinh chỉnh dần dần cho đến khi có được hình ảnh rõ ràng.
Tuy nhiên, trong khi mô hình khuếch tán trên GPU phải tính toán toán học cách loại bỏ nhiễu từng bước một, DTM sử dụng vật lý của chip để thực hiện chuyển đổi. Phần cứng nhiệt động lực học cho phép trạng thái “nhiễu” biến đổi vật lý về trạng thái “có trật tự” (hình ảnh cuối cùng) theo các định luật nhiệt động lực học. Các mô phỏng chỉ ra rằng phương pháp này không chỉ nhanh hơn mà còn tiêu tốn ít năng lượng hơn nhiều bậc, bởi vì quá trình “khử nhiễu” được thực hiện bởi xu hướng tự nhiên của hệ thống hướng tới trạng thái cân bằng, chứ không phải bởi hàng nghìn tỷ phép nhân dấu phẩy động.
Hệ sinh thái Cạnh tranh: Những Hướng đi Khác biệt trong Điện toán Vật lý
Mặc dù Extropic đã thu hút sự chú ý của truyền thông với những tuyên bố táo bạo và thẩm mỹ cyberpunk, nhưng họ không phải là người chơi duy nhất trong không gian này. Cuộc đua về điện toán nhiệt động lực học và xác suất bao gồm các đối thủ tinh vi khác như Normal Computing, mỗi bên có triết lý kỹ thuật và thị trường riêng biệt.
Normal Computing: Độ Tin cậy thông qua Tính Ngẫu nhiên
Normal Computing, có trụ sở tại New York và được thành lập bởi các cựu kỹ sư của Google Brain và Alphabet X, tiếp cận vấn đề từ một góc độ hơi khác. Trong khi Extropic tập trung vào tốc độ và hiệu suất thô cho việc tạo sinh (chủ nghĩa gia tốc), Normal đặt trọng tâm đáng kể vào độ tin cậy, an toàn và định lượng sự không chắc chắn trong các hệ thống quan trọng.
Công nghệ của họ dựa trên Đơn vị Xử lý Ngẫu nhiên (Stochastic Processing Unit – SPU). Giống như Extropic, họ sử dụng nhiễu nhiệt, nhưng khung toán học của họ tập trung vào các quy trình ngẫu nhiên cụ thể như quy trình Ornstein-Uhlenbeck (OU). Quy trình OU là một quy trình ngẫu nhiên có xu hướng quay về giá trị trung bình, hữu ích để mô hình hóa các hệ thống dao động nhưng có xu hướng quay trở lại trung tâm ổn định.
Normal Computing đã đạt được những cột mốc quan trọng, chẳng hạn như “tape-out” (hoàn tất thiết kế để sản xuất) chip CN101 của họ. Con chip này được thiết kế để chứng minh khả năng tồn tại của kiến trúc nhiệt động lực học trên silicon thực tế. Lộ trình của họ bao gồm các chip CN201 và CN301 trong tương lai, nhằm mở rộng quy mô các mô hình khuếch tán độ phân giải cao và video vào năm 2027-2028.
Sự Khác biệt Chính: Extropic dường như tối ưu hóa cho entropy tối đa và sự sáng tạo tạo sinh với chi phí năng lượng thấp (lý tưởng cho nghệ thuật, văn bản, ý tưởng). Normal Computing dường như tối ưu hóa cho “AI có thể giải thích được” và độ tin cậy, sử dụng phần cứng xác suất để AI “biết những gì nó không biết” và quản lý rủi ro trong các ứng dụng doanh nghiệp hoặc công nghiệp.
Điện toán Thần kinh so với Nhiệt động lực học
Điều quan trọng là phân biệt điện toán nhiệt động lực học với điện toán thần kinh (neuromorphic – đại diện bởi các chip như TrueNorth của IBM hay Loihi của Intel). Điện toán thần kinh cố gắng bắt chước kiến trúc sinh học của não bộ (nơ-ron, khớp thần kinh, xung điện áp) thường sử dụng các mạch kỹ thuật số hoặc analog định đoạt.
Mặt khác, điện toán nhiệt động lực học bắt chước vật lý của não bộ. Não sinh học hoạt động trong môi trường ướt và ồn ào ở 37°C, sử dụng nhiễu nhiệt để tạo điều kiện cho các phản ứng hóa học và truyền tín hiệu. Nó không chiến đấu với tiếng ồn; nó sử dụng tiếng ồn. Extropic và Normal Computing lập luận rằng bắt chước vật lý (nhiệt động lực học) là con đường trực tiếp hơn dẫn đến hiệu quả so với việc chỉ bắt chước cấu trúc (thần kinh học).
Phân tích Chuyên sâu về Hiệu suất: Giải mã con số “10.000 lần”
Tuyên bố cải thiện hiệu suất gấp 10.000 lần là phi thường và đòi hỏi sự xem xét kỹ thuật nghiêm ngặt. Con số này chính xác đến từ đâu và liệu nó có thực tế trong môi trường sản xuất không?
Vật lý của sự Tiết kiệm
Việc tiết kiệm năng lượng đến từ ba nguồn chính:
- Loại bỏ Di chuyển Dữ liệu: Trong GPU, việc đọc trọng số của mô hình từ bộ nhớ VRAM tiêu tốn nhiều năng lượng hơn so với việc thực hiện phép tính. Trong TSU của Extropic, trọng số mô hình được mã hóa vật lý trong các kết nối giữa các p-bit. Việc tính toán xảy ra tại nơi có dữ liệu.
- Tính toán Thụ động: Trong mạch kỹ thuật số, đồng hồ ép buộc chuyển đổi trạng thái hàng triệu lần mỗi giây, tiêu tốn năng lượng chủ động trong mỗi chu kỳ. Trong mạch nhiệt động lực học, hệ thống biến đổi thụ động về phía giải pháp. Năng lượng được cung cấp phần lớn bởi nhiệt môi trường (nhiễu nhiệt), vốn là “miễn phí”.
- Hiệu suất Lấy mẫu: Như đã thảo luận, việc tạo một mẫu thống kê bằng kỹ thuật số đòi hỏi hàng nghìn phép toán. Trong nhiệt động lực học, đó là một hoạt động đơn lẻ. Nếu một tác vụ yêu cầu lấy hàng triệu mẫu (như trong tạo video), lợi thế sẽ tích lũy tuyến tính cho đến khi đạt được nhiều bậc độ lớn.
So sánh Tiêu thụ Thực tế
Để đặt điều này vào bối cảnh, hãy xem xét việc huấn luyện và suy luận của các mô hình kiểu LLaMA. Meta đã huấn luyện LLaMA 3 bằng cách sử dụng 16.000 GPU H100. Nếu giả sử mức tiêu thụ trung bình thận trọng, chi phí năng lượng lên tới hàng trăm gigawatt-giờ. Trong giai đoạn suy luận (sử dụng hàng ngày), nếu hàng triệu người dùng truy vấn mô hình, mức tiêu thụ tích lũy sẽ vượt quá mức tiêu thụ khi huấn luyện.
Nếu một chip nhiệt động lực học có thể thực hiện cùng một suy luận đó với mức tiêu thụ milliwatt thay vì hàng trăm watt, khả năng kinh tế của AI sẽ thay đổi hoàn toàn. Nó sẽ cho phép chạy các mô hình cấp độ GPT-4 trên điện thoại thông minh mà không làm cạn kiệt pin trong vài phút, hoặc triển khai các cảm biến thông minh trong nông nghiệp hoạt động trong nhiều năm chỉ với một cục pin nhỏ.
Hạn chế và Cảnh báo
Tuy nhiên, con số 10.000 lần bắt nguồn từ các mô phỏng của các bài kiểm tra chuẩn (benchmarks) cụ thể được tối ưu hóa cho phần cứng này. Trong khối lượng công việc hỗn hợp, nơi yêu cầu logic định đoạt, tiền xử lý dữ liệu và giao tiếp với CPU, hiệu suất tổng thể của hệ thống (Định luật Amdahl) sẽ thấp hơn. Hơn nữa, độ chính xác analog vốn dĩ bị hạn chế. Đối với các tính toán tài chính đòi hỏi độ chính xác tuyệt đối 64-bit, điện toán nhiệt động lực học không phù hợp. Thị trường ngách của nó là suy luận xác suất, không phải kế toán chính xác.
| Chỉ số Hiệu quả | GPU Kỹ thuật số (H100) | TSU Nhiệt động lực học (Dự kiến) | Hệ số Cải thiện Lý thuyết |
| Phép tính trên mỗi Joule | Bị giới hạn bởi rào cản Landauer và kiến trúc CMOS | Chỉ bị giới hạn bởi nhiễu nhiệt nền | ~10^3 – 10^5 |
| Độ trễ lấy mẫu | Cao (yêu cầu lặp PRNG tuần tự) | Rất thấp (tức thời về mặt vật lý) | ~100x – 1000x |
| Độ phức tạp mạch | Cao (hàng triệu bóng bán dẫn cho logic điều khiển) | Thấp (p-bit đơn giản và các khớp nối) | Mật độ diện tích cao |
Thách thức Sản xuất và Mở rộng: Thung lũng Chết của Phần cứng
Lịch sử máy tính đầy rẫy những công nghệ đầy hứa hẹn (memristor, máy tính quang học, spintronics) đã thất bại khi cố gắng mở rộng quy mô. Điện toán nhiệt động lực học đối mặt với những rào cản đáng kể để bước ra khỏi phòng thí nghiệm.
Biến thiên Quy trình và Hiệu chuẩn
Thách thức lớn nhất đối với Extropic và Normal Computing là sự đồng nhất. Trong sản xuất chip hiện đại (nút 5nm hoặc 3nm), tồn tại các biến thể vi mô giữa các bóng bán dẫn. Trong kỹ thuật số, điều này được quản lý bằng các biên độ an toàn. Trong analog/nhiệt động lực học, nơi “nhiễu” là tín hiệu, sự thay đổi về kích thước bóng bán dẫn sẽ thay đổi hồ sơ xác suất của nó.
Nếu mỗi p-bit có độ thiên vị hơi khác nhau do lỗi sản xuất, chip sẽ không đại diện cho phân phối xác suất chính xác. Việc hiệu chuẩn hàng triệu p-bit riêng lẻ để bù đắp cho những biến thể này có thể yêu cầu các mạch điều khiển kỹ thuật số khổng lồ, điều này sẽ ăn mòn một phần năng lượng và không gian tiết kiệm được. Extropic tuyên bố đã giải quyết vấn đề này bằng các thiết kế mạch mạnh mẽ, nhưng bài kiểm tra thực sự sẽ đến với việc sản xuất hàng loạt chip Z1.
Tích hợp vào Hệ sinh thái Phần mềm
Phần cứng là vô dụng nếu không có hệ sinh thái. NVIDIA thống trị AI không chỉ nhờ chip, mà nhờ CUDA, lớp phần mềm của họ. Để các nhà phát triển chấp nhận TSU, sự phức tạp về vật lý phải được trừu tượng hóa. Extropic đã phát hành Thrml, một thư viện Python cho phép các nhà phát triển xác định các mô hình năng lượng và chạy chúng ở phần backend (cho dù được mô phỏng trên GPU hay thực tế trên XTR-0). Thành công sẽ phụ thuộc vào mức độ minh bạch của việc tích hợp này với PyTorch và TensorFlow. Nếu các kỹ sư ML phải học vật lý thống kê để lập trình chip, tỷ lệ chấp nhận sẽ bằng không.
Sự Cạnh tranh của Định luật Moore
Công nghệ kỹ thuật số không dậm chân tại chỗ. NVIDIA, AMD và Intel tiếp tục tối ưu hóa kiến trúc của họ cho AI (ví dụ: độ chính xác FP8, kiến trúc Blackwell). Điện toán nhiệt động lực học đang đuổi theo một mục tiêu di động. Vào thời điểm chip Z1 tiếp cận thị trường thương mại, các GPU thông thường sẽ đã cải thiện hiệu quả của chúng. Lợi thế “10.000 lần” là một tấm đệm lớn, nhưng việc thực thi phải nhanh chóng để không bỏ lỡ cơ hội.
Tác động Địa chính trị và Kinh tế
Sự xuất hiện của công nghệ này có những nhánh rẽ vượt ra ngoài phòng máy chủ, ảnh hưởng đến chiến lược quốc gia và nền kinh tế AI toàn cầu.
Chủ quyền AI và Phi tập trung hóa
Hiện tại, AI tiên tiến là một thị trường độc quyền được kiểm soát bởi các thực thể có khả năng tài trợ cho các trung tâm dữ liệu trị giá hàng tỷ đô la và tiếp cận nguồn cung cấp GPU hạn chế. Điện toán nhiệt động lực học, bằng cách giảm đáng kể chi phí năng lượng và phần cứng (sử dụng các quy trình sản xuất silicon cũ hơn và rẻ hơn, vì chúng không yêu cầu in thạch bản 3nm mới nhất để hoạt động), có thể dân chủ hóa quyền truy cập vào “siêu trí tuệ”.
Điều này sẽ cho phép các quốc gia nhỏ hơn hoặc các công ty quy mô trung bình vận hành các mô hình nền tảng của riêng họ mà không phụ thuộc vào đám mây của các gã khổng lồ công nghệ Mỹ (Microsoft, Google, Amazon). Đây là một vectơ tiềm năng cho chủ quyền công nghệ lớn hơn.
Tác động đến Lưới điện và Tính Bền vững
IEA và các chính phủ đang báo động về mức tiêu thụ của các trung tâm dữ liệu. Ở những nơi như Ireland hoặc Bắc Virginia, các trung tâm dữ liệu tiêu thụ tỷ lệ phần trăm hai con số của tổng lưới điện. Điện toán nhiệt động lực học cung cấp một “van xả” cho áp lực này. Nếu ngành công nghiệp chuyển một phần tải suy luận của mình sang phần cứng nhiệt động lực học, sự tăng trưởng của AI có thể tách rời khỏi sự tăng trưởng của dấu chân carbon, cho phép đạt được các mục tiêu khí hậu mà không kìm hãm tiến bộ công nghệ.
Triết lý của Chủ nghĩa Gia tốc (e/acc)
Không thể bỏ qua thành phần ý thức hệ. Guillaume Verdon, CEO của Extropic, là một nhân vật trung tâm của phong trào e/acc, ủng hộ tiến bộ công nghệ không hạn chế và nhanh chóng như một mệnh lệnh đạo đức và nhiệt động lực học của vũ trụ. Extropic không chỉ là một công ty; nó là sự biểu hiện vật lý của hệ tư tưởng này. Họ tìm cách tối đa hóa việc sản xuất entropy và trí tuệ của vũ trụ. Điều này trái ngược với tầm nhìn về “Giảm tốc” hoặc “An toàn AI” (Safetyism). Thành công của Extropic sẽ là một chiến thắng về văn hóa và kỹ thuật cho phe gia tốc ở Thung lũng Silicon.
Bình minh của Trí tuệ Tự nhiên
Điện toán nhiệt động lực học đại diện cho nỗ lực nghiêm túc nhất cho đến nay nhằm thu hẹp khoảng cách giữa tính toán nhân tạo và tự nhiên. Trong bảy mươi năm, chúng ta đã xây dựng các máy tính hoạt động như những bộ máy quan liêu cứng nhắc: tuân theo các quy tắc chính xác, lưu trữ dữ liệu ở những vị trí chính xác và tiêu tốn năng lượng khổng lồ để đảm bảo không có gì sai lệch so với chuẩn mực. Trong khi đó, bộ não con người — và chính tự nhiên — đã hoạt động như một nghệ sĩ nhạc jazz: ngẫu hứng, sử dụng tiếng ồn và sự hỗn loạn như một phần của giai điệu, và đạt được kết quả rực rỡ với hiệu quả năng lượng đáng kinh ngạc.
Các công nghệ được trình bày bởi Extropic và Normal Computing, thông qua các thiết bị như X0 và CN101, cho thấy chúng ta đã sẵn sàng áp dụng cách tiếp cận thứ hai này. Lời hứa về hiệu quả năng lượng gấp 10.000 lần không chỉ là một cải tiến gia tăng; đó là một sự thay đổi pha cho phép trí tuệ nhân tạo hiện diện khắp mọi nơi.
Tuy nhiên, con đường phía trước đầy rẫy những rủi ro kỹ thuật. Sự chuyển đổi từ tính định đoạt kỹ thuật số sang tính xác suất nhiệt động lực học sẽ đòi hỏi không chỉ chip mới, mà còn là sự giáo dục lại hoàn toàn về cách chúng ta nghĩ về thuật toán, độ chính xác và bản chất của tính toán. Nếu Extropic thành công trong việc mở rộng quy mô các p-bit của mình và Normal Computing thành công trong việc chứng nhận độ an toàn của các quy trình ngẫu nhiên của họ, có thể trong một thập kỷ nữa chúng ta sẽ nhìn vào các GPU hiện tại — những lò nung silicon 700 watt đó — với cùng nỗi nhớ và sự bối rối mà chúng ta nhìn vào các đèn điện tử chân không của những năm 1940 ngày nay. Kỷ nguyên chiến đấu chống lại nhiệt động lực học đã kết thúc; kỷ nguyên tính toán cùng với nó đã bắt đầu.
Bức tranh Điện toán Hậu Kỹ thuật số
| Khía cạnh | Tiếp cận Kỹ thuật số Cổ điển | Tiếp cận Nhiệt động lực học (Extropic/Normal) |
| Triết lý | Kiểm soát hoàn toàn, triệt tiêu lỗi | Chấp nhận hỗn loạn, sử dụng nhiễu |
| Giới hạn Vật lý | Tản nhiệt, Định luật Moore | Các giới hạn entropy cơ bản |
| Mô hình AI | Mạng Nơ-ron Sâu (DNN) | Mô hình Dựa trên Năng lượng (EBM), Khuếch tán |
| Phần cứng | GPU, TPU (Công suất cao) | TSU, SPU (Công suất thấp, Thụ động) |
| Tầm nhìn Tương lai | Trung tâm dữ liệu kích thước bằng thành phố | Trí tuệ phổ toả, phi tập trung và môi trường |
