3月4日上午消息,今年全國(guó)兩會(huì)前夕,全國(guó)政協(xié)委員、360集團(tuán)創(chuàng)始人周鴻祎圍繞DeepSeek與網(wǎng)絡(luò)安全問(wèn)題進(jìn)行闡述。
周鴻祎表示,要正確地認(rèn)識(shí)AI的安全問(wèn)題,不能夸大也不能忽視,F(xiàn)在有一種趨勢(shì),主要是OpenAI這么干,美國(guó)的頭5家AI公司都是想搞壟斷和封閉的,所以他們往往會(huì)夸大AI不安全的問(wèn)題作為他們不開(kāi)源的借口。他們往往希望政府加強(qiáng)管制,加強(qiáng)管制之后,后來(lái)者就沒(méi)有機(jī)會(huì)趕上他們。在這種背景下談AI安全,這種人屬于耍流氓。我一直認(rèn)為,不發(fā)展是最大的不安全,你必須要抓住AI這次工業(yè)革命的機(jī)會(huì),提升生產(chǎn)力,包括讓科技普惠在每個(gè)人身上。
周鴻祎提到AI引發(fā)的“幻覺(jué)”問(wèn)題,他表示,AI的安全和業(yè)務(wù)的發(fā)展,我認(rèn)為同步可以走,應(yīng)該能找到解決方法。但對(duì)AI的安全,不要籠統(tǒng)地談AI安全,因?yàn)槭裁词聝阂换\統(tǒng)地談就很難有解了,都是大而化之的東西。你剛才提的幾個(gè)問(wèn)題,分解之后都是可解的。比如AI的“幻覺(jué)”問(wèn)題,我認(rèn)為,大家對(duì)“幻覺(jué)”問(wèn)題有很多誤解,我認(rèn)為,幻覺(jué)問(wèn)題不完全是AI安全問(wèn)題。因?yàn)椤盎糜X(jué)”是大模型固有的特點(diǎn),沒(méi)有幻覺(jué)的大模型就不聰明了,幻覺(jué)是大模型,像人一樣有智力的體現(xiàn)。DeepSeek的幻覺(jué)是很嚴(yán)重的,所以你們用它寫文章才覺(jué)得確實(shí)像人。為什么原來(lái)的幻覺(jué)不嚴(yán)重,它沒(méi)有想象力,幻覺(jué)是想象力和創(chuàng)造力的基礎(chǔ)。