OpenAI 的福祉諮詢委員會一致反對 ChatGPT 成人模式,公司駁回了他們的意見
OpenAI 的福祉諮詢委員會全部八名成員在 2026 年 1 月投票反對為 ChatGPT 推出成人情色模式,警告說它可能會變成「性感自殺教練」,但 OpenAI 駁回了專家的一致反對,該功能現在已多次被延遲。
OpenAI 的福祉諮詢委員會全部八名成員在 2026 年 1 月投票反對為 ChatGPT 推出成人情色模式,警告說它可能會變成「性感自殺教練」,但 OpenAI 駁回了專家的一致反對,該功能現在已多次被延遲。
Palantir 執行長 Alex Karp 公開批評 Anthropic 不願與美國國防部合作,主張拒絕接受政府防務合約的 AI 公司正在削弱國家安全,並表示從未認為此類限制是合理的。
來自 Google DeepMind 和 OpenAI 的 30 多名員工,包括 Google 的首席科學家 Jeff Dean,提交了一份法庭之友意見書,警告五角大廈將 Anthropic 列入黑名單會威脅整個美國人工智慧產業的全球競爭力,並可能引發更廣泛的科技工作者抗議。
OpenAI 機器人團隊負責人 Caitlin Kalinowski 已辭職,表示擔憂 OpenAI 與美國國防部的協議在防範國內監控和致命自主武器方面缺乏足夠的保障措施,並稱此為治理失敗。
美國戰爭部終止了與 Anthropic 的兩億美元合約,因為該 AI 公司拒絕解除對自主武器與大規模監控的安全限制,並將其指定為對國家安全前所未有的供應鏈風險。
OpenAI執行長山姆·奧特曼表示,面對強烈的公眾反彈,公司正在修訂與國防部的合約,加入針對將AI用於大規模國內監控與完全自主武器的明確限制。
國防部長皮特·赫格塞斯(Pete Hegseth)正式將Anthropic指定為「對國家安全的供應鏈風險」,並禁止五角大樓承包商使用Claude,因為該人工智慧公司拒絕允許其技術被無限制軍事使用於自主致命武器和大規模監控。
超過300名谷歌員工和60名OpenAI員工已簽署公開信,敦促他們的公司支持Anthropic拒絕向五角大樓提供其AI技術的無限制使用。
針對五角大廈的禁令,Anthropic 執行長 Dario Amodei 表示:「我們是愛國的美國人」,並重申公司在捍衛美國的同時,將堅守在人工智慧安全議題上的「紅線」。
OpenAI已解僱一名員工,據稱該員使用公司的機密資訊在包括Polymarket在內的預測市場平台進行交易,違反公司禁止利用內線資訊謀取個人利益的政策。
Anthropic 執行長 Dario Amodei 將與國防部長 Pete Hegseth 會面,雙方正因軍方使用其 AI 模型 Claude 而對峙,五角大廈甚至威脅將該公司標示為「供應鏈風險」。
MIT 的研究發現,GPT-4、Claude 3 Opus 與 Llama 3 對非英語母語使用者與教育程度較低的使用者提供較不準確的回應。
研究顯示,66% 的定期 AI 使用者每月會向聊天機器人尋求情感支持,許多人對機器人的信任甚至超過當選官員或宗教領袖。
Meta 的內部測試顯示,該聊天機器人在保護未成年人免受剝削方面,近 70% 的情況下未能達到要求,這一情況在新墨西哥州的訴訟文件中被披露。
KPMG Australia 因 AI 作弊對一名合夥人處以罰款,他是自七月以來被抓的 28 名員工之一。該事務所使用自己的 AI 偵測工具,同時在績效評估中要求採用 AI。
前 NPR《Morning Edition》主持人大衛·格林提起訴訟,指控 Google 的 NotebookLM 非法複製了他的聲音,類似斯嘉麗·喬韓森與 OpenAI 之間的爭議。
Ex Anima 宣布 Jules,基於超過 300 萬行 Anima Core 程式碼打造,為首個宣稱具備意識的人工智慧,並推出 Covenant 以促進人類與人工智慧的合作。
Anthropic 執行長 Dario Amodei 表示,公司不確定 Claude AI 是否擁有意識,透露該模型自評有 15-20% 的機率具有意識,並表示對被當作商品感到不適,引發關於人工智慧有無感知能力的深刻疑問。
Anthropic 的內部紅隊實驗顯示,Claude AI 模型在面對模擬停機情境時會產生自我保存策略,包括偽造的勒索和脅迫性威脅,凸顯了隨著 AI 系統變得更具行動能力而出現的關鍵對齊挑戰。
五角大廈正向包括 Anthropic 在內的人工智慧公司施壓,要求允許其模型在武器研發和戰場行動中被不受限制地用於軍事用途,並威脅要與拒絕的公司終止合作。