隨著原恆星系統演化,冰冷物質向內輸送到行星形成盤,這些分子都能成為彗星、小行星的養分,最終構建成行星系統。
最近超級火山爆發為2.2萬多年前紐西蘭,最有名例子可能是約200萬年前美國懷俄明州黃石火山口噴發,平流層(海拔約10~48公里)火山爆發二氧化硫氣體經化學反應凝結成液態硫酸鹽顆粒,以兩種相反方式影響地表溫度:透過反射入射太陽光(導致降溫)或捕獲流出熱能(溫室升溫效應)。火山灰可落在560公里外,但論爆發力,任何現代火山爆發都無法與幾萬年沒發生的超級火山爆發相比。
一般推測超級火山爆發後全球降溫,有時稱為火山冬天,可能對人類構成潛在威脅。美國太空總署大氣科學家Luis Millán沒有參與研究,他說,將來方向是比較各種模型,以及對決定火山氣溶膠顆粒大小的原因進行更多實驗和模型研究。研究員顯示火山氣溶膠顆粒的直徑對火山爆發後溫度的影響程度,顆粒越小、密度越大,阻擋陽光的能力就越強。1991年菲律賓皮納圖博火山(Mount Pinatubo)噴發導致全球氣溫兩年內下降約0.5°C。Can volcanic super eruptions lead to major cooling? Study suggests no(本文由 台北天文館 授權轉載。
模擬一系列粒徑超級火山爆發,研究人員發現,超級火山爆發可能無法比現代最大規模的火山爆發更能改變全球溫度。首圖為冰島的火山,來源:Unsplash)。不只基礎設施建設有助於 AI 發展,人才更是重中之重。
接下來,第二座新辦公室也將在今年第二季正式啟用、投入營運。(圖片來源:科技新報)。googletag.cmd.push(function() { googletag.display(div-gpt-ad-1703223425197-0); }); 2013 年、即 Google 15 週年之時,Google 投入 6 億美元,在台建立亞洲最大規模的彰濱資料中心。台灣是 Google 於全球重要據點之一,2021 年於板橋 Tpark(遠東通訊園區)啟用第一座新辦公室,成為山景城(Mountain View)總部以外最大的硬體研發基地。
▲ Google 台灣總經理林雅芳。Google 今年在台計劃推出「Gemini 學院」推廣 AI 素養,首先將開放 1,000 個名額給國中小學教師,教學主題有 AI 基本素養、安全負責任地使用 AI、使用 AI 幫助教學,還有實際操作演練。
產業學界研究方面,邁入第 7 年的 Google AI 創新研究營,讓 Google 團隊和台灣專家交流、分享 AI 知識技術。Google DeepMind 傑出科學家紀懷新預計年中會就大型語言模型還有機器學習主題訪台交流。Google 台灣總經理林雅芳指出,下一個與台灣有關的重大基礎設施──Apricot 海底電纜,預計今年啟用,是 Google 投資興建、通過台灣的第三條海纜。這個系列課程適合大眾的部分,也會成為 YouTube 影片供大眾自學,Google 還會針對不同族群和產業需求,舉辦不同類型的工作坊。
在台持續投入硬體、教育、人才等資源下,Google 欲藉全球 AI 之勢全力協助台灣發展IT 之家 12 日報導,市場調查機構 Counterpoint Research 最新數據,1 月 28 日至 2 月 17 日,三星(Samsung)Galaxy S24 系列發售前三週全球銷量較 2023 年同期 Galaxy S23 系列增長 8%。西歐由於英國、德國和法國強勁預購訂單,銷量也猛增28%。(本文由 MoneyDJ新聞 授權轉載。
googletag.cmd.push(function() { googletag.display(div-gpt-ad-1703223425197-0); }); 三星Galaxy S24系列在韓國本土市場銷量較上代猛增22%。最貴S24 Ultra銷量占S24系列總銷量52%,其次是Galaxy S24占27%,Galaxy S24 Plus占21%。
Galaxy S24系列1月發表,是三星首款內建人工智慧的手機,有電話即時翻譯功能和更新拍照性能通用人工智慧 (Artificial General Intelligence,AGI) 可望在 5 年內出現,這對人類的影響會是什麼?美國智庫一年多來對 200 多人採訪,包括 AI 公司高層、網路安全研究人員、大規模殺傷性武器專家,以及國家安全官員,專家們擔憂,最先進的 AI 系統在最壞的情況下可能「對人類構成滅絕等級的威脅」,警告美國政府避免災難的時間已經不多。
釀成災難的是 AGI然而,監管遠遠跟不上技術開發的速度。報告指出,越來越多的證據,包括在世界頂級 AI 會議上發表的實證研究和分析顯示,超過一定的能力閾值,AI 可能會變得不可控。AGI 是一種假設的人工智慧,能夠以人類水平甚至超越人類的能力處理資訊,能夠學習做人類能做的任何事情,而且不需要編程,就能在任務之間學習並適應新的任務和環境。Gladstone AI 的報告稱,競爭壓力正促使企業「以犧牲安全為代價」加速 AI 的開發,增加最先進的 AI 系統可能被「竊取」和「武器化」以對抗美國的可能性,如武器化機器人、無人機等等,以及武器化的生物和材料科學,以及無法控制且與人類為敵,尋求權力的 AI 系統。」關於限制可用於訓練 AI 模型的電腦能力,報告認為,應該由一個新的 AI 機構設定,該機構可以將其設定為略高於用於訓練當前尖端模型的運算能力等級。為 AI 模型訓練技術設立上限Gladstone AI 報告呼籲採取重大新措施來應對這一威脅,包括成立一個新的 AI 機構、實施「緊急」監管保障措施,以及限制可用於訓練 AI 模型的電腦能力,直指「政府顯然迫切需要進行干預。
不過,該提案可能會面臨政治困難,目前美國政府的 AI 政策是設定運算閾值,高於該閾值則適用額外的監控和監管要求,但不會限制並指其違法。其他災難性的例子包括由 AI 驅動的「大規模」虛假資訊活動,這些活動會破壞社會穩定並削弱對機構的信任。
報告指出,禁止對超過一定閾值的高級 AI 系統進行訓練,可能會緩和所有 AI 開發人員之間的競爭動態,並降低晶片行業製造更快硬體的速度。同樣, 如果在現有模型中發現危險功能,政府可以降低安全閾值。
googletag.cmd.push(function() { googletag.display(div-gpt-ad-1703223425197-0); }); Gladstone AI 受美國國務院委託撰寫一份新報告,訪問 ChatGPT 所有者 OpenAI、Google DeepMind、Facebook 母公司 Meta 和 Anthropic 的技術和領導團隊等人,警告人們,雖然 AI 已經是一項經濟變革技術,繼續吸引投資者和公眾,但也存在真正的危險。一旦尖端模型的安全性證據得到充分證明,AI 機構就可以提高門檻,並允許訓練更先進的 AI 系統。
美國政府智庫戰略與國際研究中心 (CSIS) 稱,美國政府極不可能採納這一建議。報告認為,AGI 被視為「失控導致災難性風險的主要驅動因素」,OpenAI、Google DeepMind、Anthropic 和 Nvidia 都公開表示 AGI 可能會在 2028 年實現,其他專家則認為這需要幾十年的時間,無論如何都認為 AGI 是本世紀最大的技術進步。報告補充說,新的 AI 機構應要求頂級 AI 公司獲得政府許可,才能訓練和部署高於閥值的新模型。專家們最擔心的是最先進的 AI 系統可以武器化,造成潛在不可逆轉的傷害。
其次,AI 實驗室內部存在一些擔憂,專家們擔心在某個時候可能失去對正在開發的系統的控制,可能對全球安全造成毀滅性後果。AI could pose ‘extinction-level threat to humans and the US must intervene, State Dept.-commissioned report warnsExclusive: U.S. Must Move ‘Decisively to Avert ‘Extinction-Level Threat From AI, Government-Commissioned Report Says(首圖來源:Figure AI)
Gladstone AI 的報告稱,競爭壓力正促使企業「以犧牲安全為代價」加速 AI 的開發,增加最先進的 AI 系統可能被「竊取」和「武器化」以對抗美國的可能性,如武器化機器人、無人機等等,以及武器化的生物和材料科學,以及無法控制且與人類為敵,尋求權力的 AI 系統。報告指出,越來越多的證據,包括在世界頂級 AI 會議上發表的實證研究和分析顯示,超過一定的能力閾值,AI 可能會變得不可控。
」關於限制可用於訓練 AI 模型的電腦能力,報告認為,應該由一個新的 AI 機構設定,該機構可以將其設定為略高於用於訓練當前尖端模型的運算能力等級。通用人工智慧 (Artificial General Intelligence,AGI) 可望在 5 年內出現,這對人類的影響會是什麼?美國智庫一年多來對 200 多人採訪,包括 AI 公司高層、網路安全研究人員、大規模殺傷性武器專家,以及國家安全官員,專家們擔憂,最先進的 AI 系統在最壞的情況下可能「對人類構成滅絕等級的威脅」,警告美國政府避免災難的時間已經不多。
不過,該提案可能會面臨政治困難,目前美國政府的 AI 政策是設定運算閾值,高於該閾值則適用額外的監控和監管要求,但不會限制並指其違法。報告認為,AGI 被視為「失控導致災難性風險的主要驅動因素」,OpenAI、Google DeepMind、Anthropic 和 Nvidia 都公開表示 AGI 可能會在 2028 年實現,其他專家則認為這需要幾十年的時間,無論如何都認為 AGI 是本世紀最大的技術進步。報告補充說,新的 AI 機構應要求頂級 AI 公司獲得政府許可,才能訓練和部署高於閥值的新模型。釀成災難的是 AGI然而,監管遠遠跟不上技術開發的速度。
同樣, 如果在現有模型中發現危險功能,政府可以降低安全閾值。AGI 是一種假設的人工智慧,能夠以人類水平甚至超越人類的能力處理資訊,能夠學習做人類能做的任何事情,而且不需要編程,就能在任務之間學習並適應新的任務和環境。
美國政府智庫戰略與國際研究中心 (CSIS) 稱,美國政府極不可能採納這一建議。報告指出,禁止對超過一定閾值的高級 AI 系統進行訓練,可能會緩和所有 AI 開發人員之間的競爭動態,並降低晶片行業製造更快硬體的速度。
專家們最擔心的是最先進的 AI 系統可以武器化,造成潛在不可逆轉的傷害。為 AI 模型訓練技術設立上限Gladstone AI 報告呼籲採取重大新措施來應對這一威脅,包括成立一個新的 AI 機構、實施「緊急」監管保障措施,以及限制可用於訓練 AI 模型的電腦能力,直指「政府顯然迫切需要進行干預。
还没有评论,来说两句吧...