
速途網(wǎng)5月30日訊 ChatGPT等生成式人工智能的迅猛發(fā)展推動(dòng)了經(jīng)濟(jì)合作與發(fā)展組織(OECD)重新審視其人工智能(AI)指導(dǎo)方針的計(jì)劃。
2019年5月,OECD發(fā)布了首個(gè)AI政府間政策指導(dǎo)方針,旨在確保AI的系統(tǒng)設(shè)計(jì)符合公正、安全、公平和值得信賴的國(guó)際標(biāo)準(zhǔn)。然而,這些指導(dǎo)方針并不具備法律約束力。
最近,OECD秘書長(zhǎng)馬提亞斯·科爾曼在接受采訪時(shí)透露,該組織正考慮修訂2019年制定的AI原則,并計(jì)劃于6月份展開(kāi)新指南的討論,力爭(zhēng)在年底前取得成果。
據(jù)了解,OECD可能會(huì)考慮調(diào)整措辭,以反映AI領(lǐng)域的變化,并引入新的原則。
去年11月,美國(guó)科技公司OpenAI推出了一款名為ChatGPT的聊天機(jī)器人,僅在短短兩個(gè)月內(nèi)就吸引了1億月活躍用戶,成為歷史上增長(zhǎng)最快的消費(fèi)者應(yīng)用程序,也促使谷歌等科技巨頭紛紛涉足AI領(lǐng)域。
盡管人們對(duì)AI帶來(lái)的新機(jī)遇充滿期待,但也對(duì)這項(xiàng)技術(shù)的潛在風(fēng)險(xiǎn)存在擔(dān)憂。例如,在訓(xùn)練AI時(shí),科技公司需要使用大量數(shù)據(jù),這可能會(huì)侵犯?jìng)€(gè)人隱私。
為了解決這些問(wèn)題,OECD計(jì)劃修訂指導(dǎo)方針,以更好地應(yīng)對(duì)當(dāng)前AI技術(shù)的挑戰(zhàn)。通過(guò)調(diào)整措辭和引入新的原則,他們希望能夠跟上AI領(lǐng)域的發(fā)展,并確保AI的應(yīng)用在公正、安全和透明的基礎(chǔ)上進(jìn)行。
OECD的舉措被視為在全球范圍內(nèi)加強(qiáng)AI監(jiān)管的一種努力。其他國(guó)際組織和國(guó)家也在積極探索類似的舉措,以應(yīng)對(duì)AI技術(shù)帶來(lái)的挑戰(zhàn)。
對(duì)于ChatGPT等生成式人工智能的快速發(fā)展,OECD的新指南將考慮如何更好地引導(dǎo)和規(guī)范這一新興領(lǐng)域。同時(shí),他們也將關(guān)注隱私保護(hù)和數(shù)據(jù)使用的問(wèn)題,以確保人工智能的發(fā)展符合道德和法律的要求。