美國加州議會正推進一項嚴厲管制人工智能(AI)技術的法案,強制科技公司必須遵守嚴格的安全框架,包括向有待成立的新州立機構保證,不會開發(fā)具“危害能力”的AI模型;開發(fā)者亦須設立一個“緊急停止開關”(kill switch),可立即關閉強大的AI模型。但該法案引發(fā)硅谷大小企業(yè)的不滿和抗議,擔心可能會給AI開發(fā)者帶來無法承受的責任風險,有人聲稱它將逼使AI初創(chuàng)企業(yè)離開加州。
▲“AI造福人類全球峰會”5月底在日內瓦舉行,一名參觀者向機械人Captcha揮手。
加州州議會正在考慮對在該州運營的科技公司引入新限制的提案,包括三大AI初創(chuàng)公司OpenAI、Anthropic、Cohere,以及由Meta等科技巨頭運營的大型語言模型。該法案已于上月在州議會參議院通過,將于8月在州眾議院表決。法案要求加州的AI相關企業(yè),向將于加州科技部內成立的部門“前沿模式部”,披露是否符合AI新規(guī)例,并保證他們不會開發(fā)具有“危害能力”的AI模型,例如用來制造生化武器、核武器,或協(xié)助網(wǎng)絡攻擊。根據(jù)草議的《前沿人工智能(AI)系統(tǒng)安全保障創(chuàng)新法案》,開發(fā)者必須報告其安全測試情況,并引入“緊急停止開關”來緊急關閉其模型。如果企業(yè)不遵守這些要求,可能會被起訴并面臨民事處罰。
憂給開發(fā)者無法承受責任
但這項法案已引發(fā)硅谷的風險投資者、科企創(chuàng)辦人、普通員工反彈,擔心法案會給AI開發(fā)者帶來無法承受的責任,他們無法保證自己的服務不被壞人濫用。有人聲稱它將逼使AI初創(chuàng)企業(yè)離開加州,并阻止Meta等平臺操作“開放原始碼”(Open Source)模型。該法案可能會逼使一些大型AI公司改變其運營方式。
大型公司或改變運營方式
這項法案由非牟利組織AI安全中心(CAIS)共同發(fā)起,得到AI先驅辛頓(Geoffrey Hinton)和本吉奧(Yoshua Bengio)的支持,他們擔心AI可能對人類生存造成威脅。提出法案的民主黨州參議員維納說:“我希望AI成功,創(chuàng)新繼續(xù),但讓我們嘗試在任何安全風險之前先行一步。”批評者則指責維納的法案限制過多,給開發(fā)者,尤其是小型AI公司的開發(fā)者帶來了高昂的合規(guī)負擔。曾在Google和中國百度公司領導AI項目的著名電腦科學家吳恩達說:“它為科幻風險創(chuàng)造了巨大的責任, 因此,任何敢于創(chuàng)新的人都會感到恐懼。”
其中一項激烈批評,是法案損害“開放原始碼”模型的開發(fā)者(開發(fā)者將原始碼提供給公眾審查和修改),為他們帶來無法承受的負擔,難以保證其服務不會被壞人濫用。維納說,他正計劃對法案進行修訂,“開放原始碼”開發(fā)者將不對“經過(他人)大量微調”的模型承擔責任。
另一項修正是法案只適用于“訓練成本至少為1億美元”的大型模型,因此不會對大多數(shù)小型初創(chuàng)企業(yè)產生影響。然而,硅谷的一位資深風險投資人表示,他們已經收到企業(yè)創(chuàng)辦人詢問,是否需要因為潛在的立法而離開加州。
相關新聞:
谷歌連本業(yè)都做不好?克魯格曼開炮:有AI更糟,馬斯克也補刀
以上內容歸星島新聞集團所有,未經許可不得擅自轉載引用。