Sunday, 4 January 2026

AI算力的需求端

《孟子。離婁》的名句:滄浪之水清兮,可以濯我纓;滄浪之水濁兮,可以濯我足。這一年我們週旋於科技與高息的滄浪間。


高盛對美股2026年的策建議偏防禦,聚焦AI巨頭盈利質量;減持高估值成長,增配價值與週期,分散單一科技依賴。意思就是對AI科技要謹慎,分散風險就要入手傳統股。這貌似毫無新意的説法,暗地裡反射出高盛沒有把AI 股看成泡沫!


AI基建工程在美國大張旗鼓,OpenAI 的瘋狂我們就介紹過,但並不等於他們就要敗下陣來。成敗在於AI的應用上,然而美國巨企的信唸是:沒有足夠的算力,就無法快速提供有效應用!


雲端應用


Token 是語言大模型的最基礎字符,影響 AI 內容生成的速度與成本,因為 AI 是按照 Token 來計算處理的。那麼模型的 Token 使用量就是個對了解模型使用情況的重要指標。各大企業的 月度/週度Token 使用量 (估算)最新情報 :

看到這龐大的 Token 數量,可想見對Al數據中心的宏大需求。


我們來看看一個例子,做自動編程的Claude。支撐 Claude 的算力投入基本上是每年增長 3 倍,這是非常驚人的速度,因為Claude極期渴求算力。而 Claude 的不斷迭代正在把軟件工程師殺下馬,這個AI編程繫統正在邁向成熟,未來不再需要人來寫軟件 software 了,非常恐怖吧!他的創始人曾言,其算力投入規模在2025年就可能會超過阿波羅登月和曼哈頓計劃。Claude 本身就是一個超大型軟件,現在 Claude 正在用Claude 來自我改進!真是服了。我們可以把 Claude看成全球最頂級的工程師,而且不眠不休。


Claude Pro 個人訂戶每月US$20, 可以解鎖全部功能。免費版就隻有基本的來練習一下。企業客戶數量在短短兩年內由不足 1000 家暴漲至 30 萬家。年化營收在一年多的時間裡從 8700 萬美元飆昇至 50 億美元,增長驚人。Claude 的國際化程度很高,80% 的用戶來自美國以外的地區。


邊緣AI


對於自動駕駛來說,把算力放在車上直接處理該輛車的行駛控製,比依賴雲端AI更合理。於是各車企紛紛在自己的品牌車上用AI芯片堆算力!一輛Robotaxi通常配有10+攝像頭 、3-5個激光雷達、多個毫米波雷達。這些傳感器每秒産巨量的原始數,需要消耗大量算力進行障礙物識別等。這就是所謂的邊緣計算edge computing 。但是自動駕駛不能完全依靠雲端AI,擔不起在路上失聯時的不知所措。


大體上AI算力正朝著這兩個方向推進:雲端運算及邊緣運算。但是邊緣計算有需要後備應急方案,於是聯網又成為一個有用的後手。


遊刅江海


再來看一眼那個具身智能機器人,邊緣計算能力無法滿足它的工作需要,它還是要連上雲上的AI 數據中心,才能做更多複雜的事情,實時處理好它與週邊的人與物的互動。


現在大家都在玩視頻,如果我們只是P個圖、把圖片轉成視頻然後配上音,這個只要有普通GPU的顯卡就能搞定。但是最頂尖的生成式 AI 如 OpenAI 的 Sora、Google 的 Veo,能夠生成長達 60 秒、電影級畫質、複雜物理運動的影片, 算力需求就是指數級增長。這類模型的參數量通常在數十億到數千億級別。訓練階段需要數萬張頂級 GPU(如 NVIDIA A100 或 H100)組成的集群,連續訓練數月。單次推理的計算量(FLOPs)比一般圖像生成亦高出數百倍。


除此之外,製藥研發、量化投資、建築/設計的3D渲染、天氣預測....都對算力有要求。而隨著AI模型的能力提昇,效果越做越好,對算力要求亦水漲船高。總結下來: 要處理多模態融合(影像+文字+語音)、超高清/3D數據、毫秒級實時響應、海量參數訓練數的任務,就需要大算力的支持。簡單的文本分類或邊緣端處理,小模型和低算力設備會更好使。


算法實驗


我們再回到核心問題,科技公司如此積極地推動AI數據中心的建設瘋狂地擴大算力,他們是如何看待算力需求的呢? 他們不滿足大語言模型,夢想著AGI 『通用人工智能』一個上知天文下知地理,能自主推理、有常識理解力、能設定目標、甚至有跨領域的領會能力的AI。這場人類的征途前路茫茫,然而在新的人工智能手段橫空出世之前,吃數據、掛 token 這條路仍得走下去。


大牛們都在努力,改良算化,優化效能及效率。大緻上有以下各個方向:



投資展望


AI 模型的演變一日千裡,進化之快難以想像。未來還有甚麼行業會如software編程同一命運麵對AI無底線的狙擊?迅速發展的當下,風險隨之增大,不知道明天有個甚麼idea 登場把對手祭天,而且每個AI應用由市場化到盈利都要探索和時間, 投資者押注在那家都要做好風險管理。


英偉達有齊雲端與邊緣計算用的芯片,只是在財報未有分項列出來,估計邊緣芯片銷售也不錯。我國的GPU厰家,比較容易在邊緣應用上與英偉達爭一日之長短。IBM 預測2026年硬件需求仍然是英偉達的天下。


2026年高息與科技的週旋,仍將糾纏不清。 


Saturday, 20 December 2025

瘋狂的Stargate星門計劃

 美國的Stargate 星門計劃其實是一個私營公司,由特朗普政府背書,為推動美國AI建設而成立,目標是要搶佔全球AI製高點。根據華盛頓郵報的報導,這個項目早在特朗普勝選前已經展開計劃,可見 OpenAI 的野心。


星門的結構

星門的股東:

軟銀 Softbank :財務支柱

OpenAI :  營運核心

甲骨文 Orcale:數據中心建設

MGX:阿聯酋資本


技術合作聯盟:英偉達,微軟,博通,AMD, Arm。


以往美國企業在芯片及光刻機上都有組成聯盟,以製定業內規則及加強合作。今次的超級聯盟全部是美國AI相關企業,由軟銀和MGX兩家提供資本來配合。


這盤大棋就是軟銀與OpenAI 的大戰略,旨在不花政府的錢,隻要政府在政策支持一路開綠燈就是。他們寄望能夠在這場科技革新上牢牢掌控話語權,成為王者。他們要打造一個AI基建,就如水電煤或者高速公路一般,在未來的社會上所有人,所有生產都依靠這個繫統。


軟銀承諾出資$1,000億美元,其實是$190億元現金投入,其餘由發債和銀行貸款來湊。而那$190億因各種進度和原因,還未完全到位。


OpenAI 亦説出資$190億,囗頭上認投$1,000億。但他還是在燒錢中,於是找英偉達來給他投這筆錢,這樣Stargate 的項目就有資金去採購英偉達的AI芯片,一舉兩得。英偉達是技術合作夥伴,當然樂見自家芯片在星門項目中成為主力,生意興隆。然而英偉達當然曉得自我保護,$1,000億分批投,先設定裡程碑要求每建成1吉瓦的算力才支付$100億元。現在雙方還在敲定協議細節。


而甲骨文既沒有AI大模型,也沒有芯片,卻有建設及營運數據中心的豐富經驗,是星門的理想夥伴。而甲骨文肯定不想錯過這人類歷史上的第五波,不惜舉債全程投入。


美國的數據中心建設

星門的第一個在美國的AI基建,德州的阿比林Abilene 是星門的"0號基地" ,Sam Altman 曾親自解釋過那裡,核心就是三個詞:空間、電力、阻力小。這個有示範性的項目得到在地政府全力支持,能源價格比加州低3成至5成,而且土地麵積足夠大。項目2024年6月動工,第一棟樓巳建成,據悉巳安裝1.6萬塊英偉達芯片,後麵逐步增加至6.4萬塊。OpenAI 定了將來GPT6. 0的數據訓練放在阿林比數f據中心進行。


阿比林項目是由一家初創企業Crusoe 作為實際開發商(Developer)和擁有者(Owner), 他聯合投資機構 Blue Owl Capital,通過債務和股權融資籌集了約 150億美元,⽤來買地、蓋建築、鋪設電⼒和冷卻繫統。於是數據中心的⼟地和建築物產權,目前主要掌握在 Crusoe 和 Blue Owl 手中。


甲骨文並沒有直接像 Crusoe 那樣去買地、蓋樓,它出資主要⽤於購買核⼼設備和⽀付租⾦:

他斥資約 400億美元,向英偉達(Nvidia)購買約 40 萬塊 GB200 AI 芯片;並與 Crusoe(及其合作夥伴 Blue Owl)簽署了為期 15 年的租約,支付巨額的租金來使用 Crusoe 蓋好的數據中心園區。


OpenAI 利用獨佔的算力優勢,更快地推出產品並佔領市場,ChatGPT、API 服務直接轉化為 OpenAI 的訂閱收入和企業服務費。 同時鎖定低價算力,降低模型訓練開支,更擺脫了微軟Azure 的限製。當然作爲股東,還能享受基建資產增值。


軟銀(SoftBank)的投資邏輯是:如果 OpenAI 成功開發出 AGI(通用人工智能),軟銀將獲得優先合作權和巨額回報。


分工明確,Crusoe 蓋房子搭能源,甲骨文買設備,OpenAI 投入模型用來起。然後大家一起等著賺錢。


2025年9月,OpenAI 公佈了五個新的數據中心,分別是在德州克爾福德縣(Shackelford County)和米拉姆縣(Milam County)、新墨西哥州的多娜安娜縣(Doña Ana County)、俄亥俄州洛茲敦(Loudon)密歇根州的薩林鎮(Saline Township)。這一路開展下去,都是英偉達的芯片,把星門計劃的總算力推到7吉安以上,總投資額達到$4,000億元!


掌握國際市場

美國總統特朗普與阿聯酋簽署了政府間協議(IGAA),在阿佈紥比建設名為「星際之門」(Stargate UAE)的AI超算園區,規劃算力高達5吉瓦(GW),被稱為美國本土以外最大的AI中心。星門計劃妥妥的一個“披着企業外衣”的國家級戰略工程。MGx能成為星門的股東,不言而喻。


英偉達又與沙特國家級公司Humain合作,計劃部署數十萬顆高端芯片,建設「AI工廠」網絡。背後少不了特朗普政府的影子。


OpenAI 可謂雄心萬丈,繼而發起了 Stargate Country,又有稱為 OpenAI for Countries,九月就去打英國的主意,要辦個 Stargate UK ,在12月還聘請前英國財相奧斯本出任總經理。Stargate 挪威而然落實;韓國,日本等,都在談判合作之列。


那裡會出問題?

OpenAI 是星門計劃的主力也是主要的受益者,通過星門項目,他的大模型直接卡位,用算力套利,並影響下遊生態。就在如此強大的開拓上,卻引起市場對數中心能否填滿實際應用的擔憂。


先建路後緻富的邏輯是基於緻富有手段有方法,但目前的AI可以嗎?能帶動足夠的應用嗎?換一個角度,要多久之後才有足夠多的應用讓這些數據中心吃飽?這就是星門項目的近憂。


Blue Owl 這個出資方,在12月中退出了星門在密歇根的$100億合作。英國金融時報爆料Blue Owl 要提高藉款的條件,理由是甲骨文的負債大漲了,推高了藉貸成本損害了項目的吸引力。(Blue Owl 是做另類資産投資Alternative Assets,管理$2,840 億元的資産。)


谷歌,Meta,xAI ,亞馬遜、微軟都不會坐以待斃啊!大模型的比拼最後可能都非常接近,無論怎樣設計電飯煲,它最終都會做出飯來。長期來看,大家終極拼的是算力成本與速度;這是為何Deepseek及谷歌能把星門股東搞得頭痛不巳!當AI數據中心普及化後,情況會如何可想而知。


前路注定不平凡

風險能化解嗎?為了國家安全與科技領先,美國政府可以入股英特爾 Intel, 那麽在有需要時侯投資星門,為星門站枱也是有可能的。


若然OpenAI 的研發落伍,星門的其他股東也不會閒著,必定會去找強者進駐數據中心。英偉達就曾經做出回購CoreWeave剩餘算力的協議,巨頭們總會靈活應對。


風險存在,但目前預判星門計劃失敗言之過早。關鍵都壓寶於 AI模型、推理、物理、多模態應用、及應用場景拓展等,未來仍然充滿不確定性。


故事未結束,隻是剛剛開始.....  


德州阿比林的AI數據中心


Wednesday, 17 December 2025

貿易順差解析

今年前11個月我國出囗3.4萬億美元,進囗2.3萬億元,貿易順差達1.1萬億美元!


在這3.4萬億元的出囗中,外資在華企業出口就有1萬億美元,佔整體29.4%。從另一個分類法(統計囗徑) 來看,外資企業與本土企業都有做加工貿易,出囗1.08萬億美元,佔出囗總額的31.7%。雖然未有統計數字,大概來說,外資及加工貿易的出囗不重疊的部分,約佔到整體出囗一半!


貿易順差不是利潤,只是貨流總額。有一半的順差是由外國企業用來賺錢。而他們之所以在中國生産,是考慮到中國生産要素的優勢:能源成本,能源穩定,人力成本,人材質素,土地成本,物流服務,稅務優惠,營商環境等等。


如果我們翻開歷史回到2010年,當年的加工貿易出囗佔出囗總額的48.8%。而全國出囗總額中,外資企業就佔了56.3%。可見當時我們主要都是為外國打工。到今天,我國的自主品牌出囗巳經拱起半壁江山。


再看看我們的民營企業,2010年出囗0.42萬億元;而現在則是1.9萬億元,大大增加了1.48萬億美元,是3.5倍的增長!這是翻天覆地的變化是新能源、高科技、新材料等等所帶動的。這些出口的數據正紀錄著中國經濟的轉型升級。


外資企業出囗額由2010年的0.85萬億增加到今年前11月的1萬億,增加了0.15萬億元,十五年 +17%。同期加工貿易出囗增加了0.35萬億元,+47.5%。外資企業在過去十五年的增長較少,首先是我國的生產成本上升,低端生産逐步移去東南亞及其他地區;另外貿易磨擦中被動地搬離中國;當然有部份不敵本土民企的競爭而退卻。


未來趨勢大致延續順差,國內企業繼續發力高新産業出囗;外商繼續尋求如何利用中國生産因素優勢。而競爭失利的西方企業會面對倒閉、賣盤的情況相對增加。

Saturday, 29 November 2025

阿里9988的估值

阿里(9988)、美團(3690)、京東正在即時零售業務(外賣平台、閃購)上演燒錢大戲!阿里的淨現金流減少,但同時阿里又要大力投資於 AI 和 雲業務,這些投資被稱為資本開支 Capex,是為了未來産生營運的現金流的努力。

由營運上所產生的淨現金流 - 資本開支 = 自由現金流。阿里的自由現金流逐季下降,而且下降的幅度很大!今年第三季自由現金流巳經是淨流出¥218億元,即投資額高於營運淨現金收入。

但是阿里宣稱還要大力投建AI數據中心,以爭奪市場,未來三年要投入¥3,800億元,簡單的說法是每年要花¥1,260億元!高強度的資本支出,阿里可能步美國同行的後塵要發債融資?阿里的現金及流動資產高達¥5,739億元,完全有能力在未來三年為發展AI業務做投資。

無論如何,阿里面對的前景:
a 燒錢之爭何時停止?
b AI及雲業務的巨額投資能産生多少現金流收入?

情境1:假設外賣燒錢停止了,阿里的投資也有些回報,綜合短期五年內年均增長2%,長期5年後則是3%,把這些扔給AI,算出估值每股$135港元。這是一個保守的估計,較現價低11%!

情境2:假設阿里在外賣補貼上打退了對手,AI投資繼續沖次;從而得到良好的回報。短期增長5%,長期增長3.5%。AI算出估值在$161港元,現價有6.6%的上望空間。

目前股價$151,正在情境1、2之間。若然估值要達到$200,短期增長要調至每年有8%,長期維持3.5%。這在競爭激烈的環境下,是非常不容易達到的,其出現的概率不高。出現$200或以上的股價,極可能是情緒推動。

AI 巳經可以為我们效力做估值計算,只要把短期和長期的增長預測告訴AI便可以。但是我們必須認識估值模型的特色和優缺點,把結果作為參考。本文採用的DCF 二級模型,並不追求精確的估值。

Sunday, 9 November 2025

評估美國科技巨企的AI投資

 美國AI是否有泡沫?現在大家都懂得怎樣回答:"泡沫一定有,只是時間問題" ,現在的投資是為了明天的收入,但未來充滿變數。


資本開支

微軟、亞馬遜、Meta、谷歌這四家科技巨企都集中火力在AI的競爭上。他們的資本開支 Capex 都由去年起大幅增加。例如微軟就由2023年的$281億提高至2027財年的$1,466億,增長422%。兩年間亞馬遜、Meta、谷歌都增長了3倍上下,未來他們每一家的資本開支預測都在千億元之上,皆因大力投入AI算力。



他們有能力做如此龐大的投資嗎?由於他們各自的業務有很大的分別,所以就以營運的淨金額流, Net Operating Cash Flow, 來作為比較的基淮。就是看看每家企業的資本開支佔其營運淨現金流多少。(相當於觀察自由現金流)

微軟的比率由2023年的32%提高至2027年的80%,Meta 由38%提升至78%,谷歌由32%提高至64%。亞馬遜比較特殊,他的比率由62%升至107%,那就是他的資本開支投入比他賺到的錢還多。亞馬遜在2021及2022年的投資都高過他能賺到的現金,表示該公司非常積極投資。

以上2026年及2027年的分析,是基於巳知的資本開支訊息。但 Meta 近日又表示要在2028年再加投$6,000億美元,若成真未來三年每年要投$200b?這樣投資會遠高於企業的營運所能産生的現金流,即是投資支出大過本業的造血能力。當支出大於淨現金流的時候,企業就要動用現金儲備或融資來提供投資所需資金。



資産折舊

在企業的利潤表上,資産逐年折舊計入成本而影響盈利結果。四家企業都以5-6年的使用壽命來做設備的折舊, 約10年來做物業的折舊。隨著投資增加,微軟和 Meta 巳展現上升的勢頭。

為了保持盈利能力,巨頭們早就延長了折舊年限。微軟於2022年將服務器的壽命由4年延長到6年,亞馬遜在去年由5年延至6年,谷歌在2023年亦延至6年;Meta 在今年初就由5年延至5.5年。

H100 AI芯片非常龐大,內含800億個晶體管,用3納米工藝把他們擠在一起,所以使用時非常熱。物理學上就較容易出現隧道效應,令芯片內部損壞。目前對AI芯片的使用壽命有不同說法, 大約3至5年,五年後芯片可能要減負荷使用。這帶出兩個問題:

1 企業的折舊不可能再延長來粉色太平。

2 企業要不斷更換芯片,有如電動車的電池一般。

芯片的迭代亦很快,Blackwell 推出市場,那些稍早前佈置的 H100 就落後了;兩年後,大家又要換上 Rubin 。不換不成,因為谷歌和 xAI 都宣布了比英偉達更快更省電的産品!



競爭激烈

面對AI的浪潮,這些科技公司不投資就有被淘汰出局的危機,因此要硬著頭皮往前沖。以目前的兩年預測,他們有實力作出巨額的支出。不過他們將變成重資産行業,未來股票估值就不容易高升。

這四家公司會繼續審慎投資或是血拼沙場?Meta 比較喜歡all in,亞馬遜的財務實力排在後面,微軟和谷歌一直都較為審慎。

Meta 的大模型和芯片曾經風光,但很快就落後了,或者就是Meta 急於加大投入的原因,這也反映出行業競爭的激烈。微軟跟 OpenAI 的關係轉變,終於要著手建立自己的LLM 大模型。其實連英偉達都有自家的大模型! 烽煙四起之時,絕不能倚靠外人的援軍,血拼沙場可能是身不由己。

xAI不是上市公司,但在馬斯克的幟下是結合自動駕駛及人型機器人的應用,有護城河。OpenAI 的方法則是借助外力建立AI數據中心,激進的部署或有可能形成算力過剩,影響到全行業。


註:

微軟的財年是6月30日作結,其他三家是12月31日。

以上2025, 2026, 2027預測數據是各大行分析員的平均值,或企業公布。

Thursday, 6 November 2025

AI芯片的供應問號

别以为芯片在光刻机出来後,用环氧树脂封起来就能用哪麽簡!對高级的大型AI芯片,需要新的技術進行2D、3D的處理,绝不簡單。


台積電開發出自家的封裝工藝,稱為 CoWoS,  英文全稱是 Chip on Wafer on Substrate 。 意思是先把光刻机造好的芯片放到另一晶圓片上,再放上基板上。這就是堆疊的工藝,把芯片立體地封裝在一起,因為電路太過複雜,晶體管數量太多,就要想方法解決。



台積電的 CoWoS 是新的工藝,要從頭建設産能。

2023年   月産能1.5萬片,年産能12萬片

2024年   月産能3.5-4.0萬,年産能24萬

2025年   月産能6.5-7.5萬,年産能67萬片

每年都供不應求,成為AI芯片生産的瓶頸。


擴産計劃預期,明年增加産能60%,後年再增加31%:

2026年   月産能10萬,年産能108萬片

2027年   月產能13萬,年産能143萬片


英偉達能够有70%+的毛利率,全靠供不應求,而供不上是全因 CoWoS 的産能不足。(另外就是HBM 存儲芯片的供應,HBM要拿来放入CoWoS 内啊!)


看到這些數字我們馬上會問:每片能造出多少個 Blackwell 来?對不起,這是商業機密!然後英偉達在明年就要供應Rubin 了,整個芯片比Blackwell 更大。這代表對CoWoS 的需求再上升。可是我們仍未知道英偉達要吃掉多少台積電的 CoWoS 產能。而台積電仍需要分配産能給 Broadcom 博通和AMD 呢,現在台湾的聯發科也来要CoWoS 産能了。 


無論如何,市場總會有預測。英偉達的 Blackwell GB300,2025 年第四季约30萬個,2026年預测120萬至135萬,2027年约60萬。Rubin 則於2026開始出貨,2027年將成為主角。


如果投資者相信這些預測,那相當於同意英偉未來數季的營收及利潤都繼續增長!股價就可以更上一層樓。 分析師給出NVDA的目標價平均$238,最高$350,最低$180。


好了,到此可以给出一個初步結論:

英偉達的業績在上游是捆綁在台積電的産能上,英偉達亦巳成為台積電的頭號大客戶。

英偉達的業績在下游是捆綁在他自己參股的 AI data centre 上,只要算力能租出去才能大功告成。(註:本文只討論供應側)


那麽能力高强的Nvidia 和台積電的話事人,該如何處理CoWoS 産能?獵犬追電免的競賽,一直追不上,那都是計劃之內。這正是寡頭壟斷的優勢 。


AMD, 博通又如何在英偉達的強勢下,在台積電的 CoWoS 産能上分一杯羹?然后,我們都不由得思考一下,台積電在整個AI産業鏈的位置是不是更堅固?整個供應的節奏都在他的掌握中。


看来Nvda 還有炒作的空間,起碼在期權市場上會非常活躍。期權可以方便沽空,目前市場巳開始醞釀AI行業下游需求側的泡沫論,為股價帶來阻力。

Wednesday, 29 October 2025

美國AI建設發展的話題

 Nvidia

英偉達GTC大會展示AI產業的前沿展望。黃仁勛此次的演講涉獵甚廣,全球資本市場熱炒的6G、量子計算、物理AI、機器人、核聚變、自動駕駛全都有份。不是說說而巳,而是搬出平台、軟件、合作方等,面面俱到。英偉達的野心並不止是做芯片,還要做硬件、軟件、搭建平台、做系統,要成為AI時代的霸主。


英偉達又有新的超級芯片推出Vera Rubin ,老黃預測,在2026年底前,「Blackwell+Rubin」就足以衝擊5000億美元的訂單。NVDA 股價應聲而上,收$201.03突破每股$200!若股價升上$205.76,英偉達市值將到$5萬億美元!!


OpenAI

OpenAI 的雄心就在算法上,但是有模型沒有算力的話,就是癈的。早期靠微軟,後來想通了,與英偉達合作閉環擴展算力。然後再把這套打法與AMD, Broadcom 合作,打做自己的算力中心。OpenAI 的願境是,2033年達到250GW的算力電力,總投資$10萬億美元;他們正在為其日後上市鋪平前路。


於是在 AI 的建設到應用,就由這兩巨頭主宰,與當年PC時代的 Intel 與微軟共治非常相似。未來市場仍然是利潤集中到他們兩家,圍繞著他們的就賺組裝的技術、應用上的連接及服務工錢。


Energy

然而堆算力就需要電力,算力的盡頭是電力。美國能源供應上:

Constellation Energy (CEG) ,  供應核電、清潔能源。股價年初至今,升58%。

GE Vernova (GEV) ,  主打燃氣輪機。股價升68%。

NextEra Energy (NEE) , 以再生能源,提供綠電。股價升16%。

現屈美國政府鼓勵核能及天然氣,股價亦有相應表現。


Bubble?

全球的AI算力現在有一半集中在美國本土,未來這個比例可能更高。第二位的是中東,由特朗普推動的合作項目。其他地區該如何面對算力建議設的問題?既然建的就是英偉達+OpenAI的方案,那倒不如租用美企的算力更省事?對算力的需求有多大,現在未有答案,大家都在猜。建成後的租用率才能說明問題,泡沫有否就要等上一兩年才有眉目。


目前的AI模型只能用「笨重」來形容,當新一代的方法出現後,這些算力中心就會馬上失去價值。