<td id="i8233"><dl id="i8233"><big id="i8233"></big></dl></td>

    1. 首頁(yè)>檢索頁(yè)>當(dāng)前

      聯(lián)合國(guó)教科文組織發(fā)布《在教育和研究中使用生成式人工智能的指南》——

      為生成式人工智能制定“行為規(guī)則”

      發(fā)布時(shí)間:2023-11-09 作者:陳殿兵 王伊寧 來(lái)源:中國(guó)教育報(bào)

      近日,聯(lián)合國(guó)教科文組織發(fā)布《在教育和研究中使用生成式人工智能的指南》(Guidance for generative AI in education and research)(以下簡(jiǎn)稱《指南》)?!吨改稀肥荂hatGPT生成以來(lái)、用戶突破100萬(wàn)時(shí)頒布的首份規(guī)范生成式人工智能相關(guān)內(nèi)容和行為的指導(dǎo)性文件?!吨改稀吩趶?qiáng)調(diào)對(duì)生成內(nèi)容進(jìn)行人工審核、標(biāo)識(shí)以及考慮倫理原則的基礎(chǔ)上,從生成內(nèi)容、政策法規(guī)、知識(shí)產(chǎn)權(quán)和數(shù)字鴻溝等六個(gè)層面分析了生成式人工智能可能帶來(lái)的顯性與隱性風(fēng)險(xiǎn),并從政府、服務(wù)提供者、用戶等層面提出具體舉措防范其可能帶來(lái)的風(fēng)險(xiǎn)。

      生成式人工智能的顯性風(fēng)險(xiǎn)

      生成式人工智能并非新鮮事物,但是在其大規(guī)模應(yīng)用于日常工作和學(xué)習(xí)之前,首先要明確這一技術(shù)本身可能帶來(lái)的風(fēng)險(xiǎn)。

      輸出內(nèi)容脫離現(xiàn)實(shí),信任赤字發(fā)生。生成式人工智能模型并不是通過(guò)對(duì)現(xiàn)實(shí)世界的觀察和科學(xué)取證的方法來(lái)輸出結(jié)果,因此其生成的文本準(zhǔn)確性和真實(shí)性有待商榷。而且,智能模型本身不是建立在真正理解語(yǔ)言和現(xiàn)實(shí)社會(huì)的基礎(chǔ)之上,其內(nèi)容往往偏離人類社會(huì)的價(jià)值取向,容易產(chǎn)生誤導(dǎo)性的術(shù)語(yǔ)和話語(yǔ)體系。如果閱讀和使用相關(guān)內(nèi)容的教師和學(xué)生對(duì)此不加思考和批判,而選擇依賴和信任,就必然給知識(shí)、技能和價(jià)值的傳承帶來(lái)風(fēng)險(xiǎn),進(jìn)而導(dǎo)致信任赤字的發(fā)生。

      缺乏具體法規(guī)引導(dǎo),監(jiān)督監(jiān)管乏力。技術(shù)立法往往落后于技術(shù)發(fā)展的步伐,缺少法規(guī)和條例的引導(dǎo)和規(guī)制,越來(lái)越多使用生成式人工智能的公司發(fā)現(xiàn)其系統(tǒng)運(yùn)行的安全性受到了很大挑戰(zhàn)。雖然人工智能的運(yùn)用能夠顯著提高人們完成任務(wù)的能力,但是政府對(duì)許多提供生成式人工智能服務(wù)的公司監(jiān)督監(jiān)管政策法規(guī)與手段有限,隨意獲取和使用數(shù)據(jù)的行為泛濫,需要適當(dāng)?shù)牧⒎▉?lái)保護(hù)個(gè)人和機(jī)構(gòu)的權(quán)利?!吨改稀分赋?,目前中國(guó)、歐盟國(guó)家和美國(guó)已出臺(tái)政策法規(guī),修訂具體法律來(lái)規(guī)范生成式人工智能可能帶來(lái)的風(fēng)險(xiǎn)。

      數(shù)據(jù)來(lái)源未獲授權(quán),侵犯知識(shí)產(chǎn)權(quán)。眾所周知,生成式人工智能模型是由大量數(shù)據(jù)構(gòu)建的,但這些數(shù)據(jù)是從互聯(lián)網(wǎng)抓取的,其使用和傳播往往沒(méi)有獲得數(shù)據(jù)和信息所有者的授權(quán)許可。如果運(yùn)用未被授權(quán)的數(shù)據(jù)內(nèi)容生成文本、圖片等,就有可能被指控侵犯知識(shí)產(chǎn)權(quán)。學(xué)生和教師如果不加辨別地使用相關(guān)內(nèi)容,也會(huì)被追溯相應(yīng)的法律責(zé)任。因此,研究人員、教師和學(xué)習(xí)者不僅需要了解數(shù)據(jù)所有者的權(quán)利,而且也應(yīng)該在使用生成式人工智能時(shí)提高知識(shí)產(chǎn)權(quán)保護(hù)意識(shí)。

      模糊真實(shí)與仿真界限,傳播虛假信息。由于缺少嚴(yán)格的法規(guī)和有效的監(jiān)督機(jī)制,生成式人工智能應(yīng)用所輸出的文本、圖像和視頻往往真?zhèn)坞y辨。在一定意義上,生成式人工智能模型使深度造假變得更加簡(jiǎn)捷容易,假新聞的制造成本也會(huì)更低。對(duì)于世界觀和價(jià)值觀仍處于形成時(shí)期的年輕人來(lái)說(shuō),如果急功近利又缺乏扎實(shí)、系統(tǒng)的知識(shí)體系和辨別信息真?zhèn)蔚哪芰?,生成式人工智能工具和?yīng)用會(huì)給其發(fā)展帶來(lái)巨大隱患與風(fēng)險(xiǎn)。因此,處于教育領(lǐng)域的研究人員、教師和學(xué)習(xí)者需要提高對(duì)生成式人工智能輸出材料的真?zhèn)伪鎰e能力。

      生成式人工智能的隱性風(fēng)險(xiǎn)

      生成式人工智能在帶來(lái)顯性風(fēng)險(xiǎn)的同時(shí),由于技術(shù)本身的局限性,也會(huì)加深信息繭房、數(shù)字鴻溝等風(fēng)險(xiǎn),加劇社會(huì)不公平現(xiàn)象。

      邊緣化弱勢(shì)群體,造成不均衡發(fā)展。生成式人工智能模型數(shù)據(jù)來(lái)源于互聯(lián)網(wǎng),如果互聯(lián)網(wǎng)中某一話題或內(nèi)容經(jīng)常出現(xiàn),就會(huì)傳遞給模型,這是主流或主導(dǎo)信息的信號(hào),使其在輸出結(jié)果時(shí)更傾向于重復(fù)這些話題和信息。這有可能限制和破壞不同意見(jiàn)與多元思想表達(dá)的有效發(fā)聲。在缺乏數(shù)據(jù)的地區(qū),網(wǎng)上關(guān)于該地區(qū)人群的內(nèi)容相對(duì)有限,他們的聲音往往不被聽(tīng)到或淹沒(méi)在海量數(shù)據(jù)中,使其存在進(jìn)一步被邊緣化的隱性風(fēng)險(xiǎn)。為此,《指南》明確建議,各國(guó)政策制定者應(yīng)意識(shí)到并采取行動(dòng),解決因使用、訓(xùn)練和控制通用模型的差距擴(kuò)大而導(dǎo)致的不同人群和地區(qū)不平等加劇的問(wèn)題。

      擴(kuò)大貧困差距,加深數(shù)字鴻溝。生成式人工智能是一種新興的人工智能技術(shù),是傳統(tǒng)人工智能架構(gòu)的迭代創(chuàng)新,需要基于大量的數(shù)據(jù)與巨大的計(jì)算能力,這就意味著生成式人工智能只能在技術(shù)先進(jìn)的國(guó)家和地區(qū)普及開(kāi)來(lái),并被少數(shù)經(jīng)濟(jì)體所掌控。數(shù)字貧困差距進(jìn)一步擴(kuò)大,科技弱勢(shì)地區(qū)的話語(yǔ)權(quán)被忽視,其潛在的風(fēng)險(xiǎn)就是發(fā)達(dá)經(jīng)濟(jì)體的價(jià)值觀廣泛傳播,數(shù)字鴻溝也會(huì)不可逆地加深。

      防范生成式人工智能風(fēng)險(xiǎn)的舉措

      生成式人工智能的發(fā)生與發(fā)展,為人類生產(chǎn)生活尤其是教育的發(fā)展帶來(lái)無(wú)限可能。有效防范生成式人工智能帶來(lái)的風(fēng)險(xiǎn),有助于我們充分發(fā)揮生成式人工智能的優(yōu)勢(shì),更好地應(yīng)用于生活和學(xué)習(xí)場(chǎng)景。

      提升外部監(jiān)督監(jiān)管的力度。離開(kāi)外部持續(xù)有效監(jiān)督的人工智能,不僅會(huì)給人類發(fā)展帶來(lái)風(fēng)險(xiǎn),而且會(huì)給教育造成無(wú)限裂痕。因此,《指南》指出,政府監(jiān)管機(jī)構(gòu)要通過(guò)政策立法對(duì)生成式人工智能的設(shè)計(jì)、演進(jìn)進(jìn)行有效引導(dǎo)、統(tǒng)籌管理。制定的政策框架需要與各國(guó)的立法和監(jiān)管背景保持一致,并且要隨人工智能技術(shù)更迭而更新,不斷提高現(xiàn)有法規(guī)的適用度。在監(jiān)管的同時(shí)給予人工智能創(chuàng)新的自由度,協(xié)同創(chuàng)造出更高質(zhì)量的內(nèi)容。

      強(qiáng)化生成式人工智能提供者的責(zé)任意識(shí)。提供生成式人工智能的公司要以負(fù)責(zé)任和合乎道德的態(tài)度,提供通用系統(tǒng)和應(yīng)用程序以滿足教學(xué)、學(xué)習(xí)和研究的需要。首先,要確保生成式人工智能提供商證明其模型和數(shù)據(jù)來(lái)源可信并遵守相關(guān)的知識(shí)產(chǎn)權(quán)法。其次,需要強(qiáng)力監(jiān)管生成式人工智能輸出帶有歧視和偏見(jiàn)性的內(nèi)容。最后,對(duì)于不可知生成式人工智能模型的內(nèi)部運(yùn)作過(guò)程,相關(guān)提供商需要給出合法解釋,將其過(guò)程透明化。

      規(guī)范機(jī)構(gòu)用戶的內(nèi)部評(píng)估。教育機(jī)構(gòu)是人工智能的使用者,它們不僅需要對(duì)生成式人工智能工具進(jìn)行監(jiān)管和定期審計(jì),保護(hù)用戶數(shù)據(jù)和自動(dòng)過(guò)濾不恰當(dāng)?shù)膬?nèi)容,需要關(guān)注生成式人工智能運(yùn)用到教育領(lǐng)域?qū)τ趯W(xué)生創(chuàng)造力和批判性思維造成的長(zhǎng)期影響,并予以評(píng)估和處理,還要對(duì)獨(dú)立使用者設(shè)定最低年齡限制,如基于ChatGPT使用建議,將使用門檻的最低年齡設(shè)為13歲。

      引導(dǎo)個(gè)人用戶自我約束。生成式人工智能工具目前被包括研究人員、教師和學(xué)生等在內(nèi)的人群使用,但其從發(fā)生到廣泛使用的過(guò)程是基于技術(shù)驅(qū)動(dòng)而非需求驅(qū)動(dòng),這就使其缺少了倫理道德原則的考量,缺少用戶在使用時(shí)要避免損害他人的聲譽(yù)和合法權(quán)利的約束性建議。因此,個(gè)人用戶要加強(qiáng)自我約束意識(shí)和行動(dòng),當(dāng)發(fā)現(xiàn)某項(xiàng)非法的生成式人工智能程序時(shí)要及時(shí)向監(jiān)管機(jī)構(gòu)報(bào)告,保證人工智能合法合規(guī)地運(yùn)用于社會(huì)。

      (作者單位系浙江師范大學(xué)教育學(xué)院,陳殿兵系該院副教授)

      《中國(guó)教育報(bào)》2023年11月09日第9版 

      0 0 0 0
      分享到:

      相關(guān)閱讀

      最新發(fā)布
      熱門標(biāo)簽
      點(diǎn)擊排行
      熱點(diǎn)推薦

      工信部備案號(hào):京ICP備05071141號(hào)

      互聯(lián)網(wǎng)新聞信息服務(wù)許可證 10120170024

      中國(guó)教育報(bào)刊社主辦 中國(guó)教育新聞網(wǎng)版權(quán)所有,未經(jīng)書(shū)面授權(quán)禁止下載使用

      Copyright@2000-2022 www.thepoemroom.com All Rights Reserved.

      京公網(wǎng)安備 11010802025840號(hào)

      老熟妇一区二区三区啪啪,国产品精十八禁免费的网站,久久综合久久综合九色,91亚洲中文字幕在线视频

      <td id="i8233"><dl id="i8233"><big id="i8233"></big></dl></td>