8月1日消息,據外電報道,Sam Altman 在推文中透露,OpenAI 將向美國人工智能安全研究所提供其下一代模型的早期使用權,作為其安全工作的一部分。
顯然,該公司一直在與該聯盟合作推動人工智能評估的科學發展。美國國家標準與技術研究所 (NIST) 已于今年早些時候正式成立人工智能安全研究所,盡管副總統卡馬拉·哈里斯 (Kamala Harris)早在 2023 年英國人工智能安全峰會上就宣布了這一消息。
根據NIST 對該聯盟的描述,它旨在制定基于科學和經驗支持的人工智能測量和政策指南和標準,為全球人工智能安全奠定基礎。
該公司與 DeepMind去年同樣承諾與英國政府共享 AI 模型。
正如TechCrunch指出的那樣,人們越來越擔心 OpenAI 在尋求開發更強大的 AI 模型時,安全性不再是首要任務。
有人猜測,董事會出于安全方面的考慮,決定將 Sam Altman 踢出公司——他很快就恢復了原職。然而,該公司當時在一份內部備忘錄中告訴員工,這是因為溝通中斷。
今年 5 月,OpenAI 承認解散了其創建的超級對齊團隊,以確保在公司推進生成人工智能工作的同時,人類的安全。
在此之前,OpenAI 聯合創始人兼首席科學家 Ilya Sutskever離開了公司,他是該團隊的領導者之一。同樣是該團隊領導者之一的 Jan Leike 也辭職了。
他在一系列推文中表示,他長期以來一直與 OpenAI 領導層在公司的核心優先事項上意見不一,并且安全文化和流程已經讓位于閃亮的產品。
OpenAI在 5 月底成立了一個新的安全小組,但由包括 Altman 在內的董事會成員領導,引發了人們對自我監督的擔憂。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。