當前位置:首頁 > 資訊 >

Sam Altman 提出的 7 兆美元要價真的能保障我們的未來嗎?

據報道,OpenAI 聯合創始人 Sam Altman 正在尋求為一個項目籌集高達 7 兆美元的資金,以解決由於生成人工智慧 (GenAI) 需求快速增長而導致的全球半導體晶片嚴重短缺問題。

但奧特曼表示,事情遠不止於此:

「我們相信,世界需要的人工智慧基礎設施——晶圓廠產能、能源、資料中心等——比人們目前計劃建造的還要多。

建造大規模的人工智慧基礎設施和有彈性的供應鏈對於經濟競爭力至關重要。

OpenAI 將盡力提供幫助!”

奧特曼在 X 帖子中寫道。

我們相信,世界需要的人工智慧基礎設施——晶圓廠產能、能源、資料中心等——比人們目前計劃建造的還要多。建造大規模的人工智慧基礎設施和有彈性的供應鏈,對於經濟競爭力至關重要。openai 將嘗試幫助!

— Sam Altman (@sama) 2024 年 2 月 7 日

如此規模的資金規模意味著一切都將建立在 GenAI 之上,最終目標是實現通用人工智慧,即超越人類智慧的系統,這本身就是一個有爭議的問題。

相關:比特幣可能會跌至 30,000 美元,但這沒關係

為什麼我們需要「大規模擴展」人工智慧基礎設施?

「你可以努力幫助確保我們共同的未來,或者你可以寫出關於我們為什麼會失敗的子堆棧,」奧特曼在隨後的帖子中補充道。

你可以努力幫助確保我們共同的未來,或者你可以寫下為什麼我們會失敗的子堆疊

— 山姆·奧爾特曼 (@sama) 2024 年 2 月 11 日

真的是為了確保「我們共同的未來」嗎?

或是OpenAI的未來?

OpenAI 需要更多的運算能力和更多的資料中心(目前依賴微軟)來克服其成長限制,特別是人工智慧晶片的短缺,而人工智慧晶片對於訓練 ChatGPT 等大型語言模型 (LLM) 至關重要。

除了巨額資金——這比除美國和中國以外任何國家的GDP都多——奧特曼的「要求」還有一些不負責任的地方。

沒有任何技術是完美的,人工智慧也不例外。

人工智慧為社會帶來巨大利益的潛力與造成破壞和傷害的潛力一樣大。

立法者要求企業堅持負責任的人工智慧和負責任的創新,我們作為一個社會也應該這樣要求。

負責任的創新是指讓新科技為社會服務,但不會造成比其解決的問題更多的問題。

這適用於所有組織、產業和地區的所有技術、所有創新。

我們這不是太超前了嗎?

難道我們不應該解決人工智慧系統帶來的風險和挑戰,減輕和控制它們的風險,確保它們在擴展它們之前不會造成比它們解決的問題更多的問題嗎?

人工智慧風險與挑戰

AI is data driven, and with GenAI we’re looking at vast amounts of data. This reliance on data brings a lot of critical risks and challenges. Data might be incomplete or erroneous or be used inappropriately, incorrectly, or inaccurately. If the input is incorrect so too would the output: “Garbage in, garbage out.” In the world of LLMs, we're now facing “Garbage in, garbage out” on steroids. When LLMs process poor or outdated information, they don't just replicate it. They amplify it, making it sound correct and plausible. This “garbage on steroids” phenomenon brings us to a crucial juncture.

Moreover, one of the central problems with AI systems is algorithmic bias and it has been well documented that it leads to discrimination. This problem has not been appropriately addressed yet, although legislators have requested tech companies to do so.

Related: 2024 will be the Ethereum network's biggest year in history

And there are other problems, especially with GenAI: hallucinations, mis/disinformation, lack of explainability, scams, copyrights, users’ privacy, and data security — all of which have not been fully addressed and mitigated. A less discussed issue, but an essential one, is AI's environmental implications. AI systems are a vulture of energy, which it requires for computing and data centers.

The International Energy Agency forecasted that global electricity demand, driven by AI growth, will double by 2026. This problem might be mitigated as computers get more efficient, or with more efficient techniques to cut energy or the use of renewables. But these potential solutions have not been tested, and many have not been fully developed yet.

The Biden administration & the European Union call for responsible AI

Lawmakers are calling for "responsible AI" — safe, secure, and trustworthy. President Joe Biden signed an executive order in September (EO) requiring, among other things, that companies 1) develop AI tools to find and fix cybersecurity vulnerabilities; 2) develop and use privacy-preserving techniques — such as cryptographic tools that preserve individuals’ privacy of the trained data; 3) protect consumers, patients, and students — to avoid AI raising the risk of injuring, misleading, or otherwise harming Americans; 4) protect workers against the dangers of increased workplace surveillance, bias, and job displacement; and 5) a special focus on algorithmic bias and discrimination to make sure that algorithmic bias is addressed throughout the development and training of these systems.

In July 2023, OpenAI signed a voluntary commitment with the Biden administration to manage the risks posed by AI and adhere to responsible AI. OpenAI hasn’t quite demonstrated the actionable "responsible AI" it pledged to undertake.

The European Commission’s AI Act. Source: euAIact.com

與 EO 一樣,歐盟的人工智慧法案要求下游開發文件和審計的透明度,特別是對於基礎模型和 GenAI。

人工智慧系統的建立並沒有提供這些信息,立法者也沒有提供任何實際的解決方案。

對可審計的負責任的人工智慧的需求出現了。

這就是區塊鏈技術可以幫助提供解決方案的地方,使公司能夠遵守立法者的要求並實施「可審計的負責任的人工智慧」——安全、可靠且值得信賴。

也許 OpenAI 可以考慮實施這樣的解決方案,並展示人工智慧系統的適當可審計性。

實施負責任的人工智慧——包括人工智慧系統的可審計性和減輕能源影響——所有這些都應在擴展這些系統之前得到令人滿意的結果,更不用說「大規模擴展」了。

負責任地創新並確保人工智慧系統安全、可靠且值得信賴,這將確保我們共同的未來。

這也許不是薩姆·奧爾特曼的方式,但卻是正確的方式。

Merav Ozair 博士

正在維克森林大學和康乃爾大學開發和教授新興技術課程。

她之前是羅格斯商學院的金融科技教授,教授 Web3 和相關新興科技的課程。

她是國際可信任區塊鏈應用協會 (INATBA) 學術顧問委員會成員,並擔任 EQM Indexes(區塊鏈指數委員會)顧問委員會成員。

她是 Web3 和 AI 端到端顧問公司 Emerging Technologies Mastery 的創辦人,並擁有紐約大學史登商學院的博士學位。

本文僅供一般參考之用,無意也不應被視為法律或投資建議。

這裡表達的觀點、想法和意見僅代表作者個人觀點,不一定反映或代表Cointelegraph的觀點和意見。

猜你喜歡

微信二維碼

微信二維碼