首頁(yè)|必讀|視頻|專訪|運(yùn)營(yíng)|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁(yè) >> 人工智能 >> 正文

生成式人工智能應(yīng)用需嚴(yán)格規(guī)范

2023年12月26日 08:32  經(jīng)濟(jì)日?qǐng)?bào)  

來源:經(jīng)濟(jì)日?qǐng)?bào)

近日,江蘇省科技廳相關(guān)負(fù)責(zé)人在回應(yīng)媒體關(guān)注時(shí)表示,將組織開展科技人員公開發(fā)表論文的自查和主動(dòng)抽查,并開展科技倫理審查,采取措施防范ChatGPT引發(fā)的學(xué)術(shù)不端行為,引導(dǎo)科技人員提高誠(chéng)信意識(shí)。

人工智能作為一種戰(zhàn)略性新興技術(shù),已經(jīng)融入人們的生產(chǎn)生活,正在重構(gòu)生產(chǎn)、分配、交換、消費(fèi)等經(jīng)濟(jì)活動(dòng)各環(huán)節(jié),極大提高了工作效率,降低生產(chǎn)、管理等成本,并不斷催生新技術(shù)、新產(chǎn)品、新產(chǎn)業(yè)(74.170, 0.64, 0.87%),為經(jīng)濟(jì)社會(huì)發(fā)展不斷注入新動(dòng)能。近段時(shí)間以來,生成式人工智能的爆發(fā)式應(yīng)用,也引發(fā)了人們對(duì)其安全性、可靠性的廣泛關(guān)注。

面對(duì)生成式人工智能為人類經(jīng)濟(jì)社會(huì)發(fā)展帶來的無限可能,我們應(yīng)該積極擁抱這一新機(jī)遇。而對(duì)其帶來的新問題,也要加以重視、積極應(yīng)對(duì),從技術(shù)、倫理、法律等多方面設(shè)置“安全閥門”,防范生成式人工智能帶來的風(fēng)險(xiǎn),共同推動(dòng)生成式人工智能健康發(fā)展。

防范生成式人工智能風(fēng)險(xiǎn),源頭在于進(jìn)一步完善相關(guān)法律法規(guī)的界定。在法律上劃出生成式人工智能發(fā)展不可逾越的紅線,并列明具體的負(fù)面清單。同時(shí),加快立法進(jìn)程,針對(duì)數(shù)據(jù)、內(nèi)容安全、知識(shí)產(chǎn)權(quán)等生成式人工智能發(fā)展的關(guān)鍵問題,進(jìn)行分類管理、分類立法,通過政策立法對(duì)生成式人工智能的設(shè)計(jì)、演進(jìn)進(jìn)行有效引導(dǎo)、統(tǒng)籌管理。

防范生成式人工智能風(fēng)險(xiǎn),核心在于確定底線,提升外部監(jiān)督監(jiān)管力度。要加快制定相應(yīng)的技術(shù)使用規(guī)則和應(yīng)急處理措施,強(qiáng)化對(duì)應(yīng)用生成式人工智能的企業(yè)、平臺(tái)的監(jiān)管和約束,建立完整的安全評(píng)估規(guī)范和管理流程規(guī)范,定期檢查評(píng)估,及時(shí)發(fā)現(xiàn)和處理違規(guī)行為,保障數(shù)據(jù)安全及隱私安全,防止技術(shù)濫用造成損失,確保其符合法律法規(guī)和社會(huì)公德。

防范生成式人工智能風(fēng)險(xiǎn),重點(diǎn)在于強(qiáng)化引導(dǎo)企業(yè)、平臺(tái)和個(gè)人加強(qiáng)自我約束。企業(yè)應(yīng)增強(qiáng)底線意識(shí),在技術(shù)開發(fā)環(huán)節(jié),遵循人工智能開發(fā)原則,遵循基本的社會(huì)價(jià)值規(guī)范和公共道德,承擔(dān)相應(yīng)的社會(huì)責(zé)任,不觸犯相關(guān)法律法規(guī);軟件平臺(tái)要嚴(yán)格檢驗(yàn)應(yīng)用權(quán)限,確保用戶使用的安全性;個(gè)人用戶要加強(qiáng)自我約束意識(shí)和行動(dòng),提升技術(shù)使用素養(yǎng),培養(yǎng)正確認(rèn)識(shí)、合理使用技術(shù)的能力。

編 輯:魏德齡
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應(yīng)用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問題,請(qǐng)?jiān)?0日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
工信部張?jiān)泼鳎捍蟛糠謬?guó)家新劃分了中頻段6G頻譜資源
精彩專題
專題丨“汛”速出動(dòng) 共筑信息保障堤壩
2023MWC上海世界移動(dòng)通信大會(huì)
中國(guó)5G商用四周年
2023年中國(guó)國(guó)際信息通信展覽會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營(yíng)許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像