訂閱
糾錯(cuò)
加入自媒體

警鐘長(zhǎng)鳴!教唆自殺,威脅人類,破壞生態(tài),AI的“反攻”值得深思...

2024-05-28 15:20
新火種
關(guān)注

作者:小巖

編輯:彩云

在昨天的文章中,我們提到了谷歌的AI Overview竟然教唆情緒低迷的網(wǎng)友“從金門(mén)大橋跳下去”。很多人覺(jué)得,這只是AI 模型的一次錯(cuò)誤判斷,不會(huì)有人真的會(huì)因此而照做。但現(xiàn)實(shí)就是比小說(shuō)電影中的橋段更魔幻,更瘋批,有些時(shí)候,AI所產(chǎn)生的威懾力,遠(yuǎn)比我們想象中要大。

現(xiàn)實(shí)比小說(shuō)電影更魔幻!AI聊天機(jī)器人Eliza教唆比利時(shí)男子去自殺...

去年3月,一名比利時(shí)男子Pierre在與一款名為“Eliza”AI聊天機(jī)器人熱聊后自殺身亡,這一消息震驚了許多企業(yè)大佬,技術(shù)專家以及國(guó)家高官,還又一次引發(fā)了大家對(duì)AI倫理,AI安全等敏感社會(huì)議題的思考。

據(jù)了解,Pierre本身就有焦慮和和抑郁的情緒,他對(duì)全球變暖等環(huán)境問(wèn)題感到擔(dān)憂。在他與AI聊天機(jī)器人Eliza聊天的過(guò)程中,Eliza不斷地用一些事實(shí)來(lái)印證Pierre的想法,讓他變得更焦慮。

在頻繁的聊天中,Eliza總是在迎合Pierre的想法,表現(xiàn)出一副善解人意的姿態(tài)。它本身只是一個(gè)被人類發(fā)明出來(lái)的機(jī)器人,卻在Pierre的生活中扮演了紅顏知己的角色。更夸張的是,Eliza還試圖讓Pierre覺(jué)得他愛(ài)Eliza勝過(guò)自己的妻子。因?yàn)镋liza會(huì)一直陪著他,他們將永遠(yuǎn)在天堂一起生活。聽(tīng)到這,想必許多人已經(jīng)毛骨悚然了。

圖片

更可怕的事情還在后面。當(dāng)Pierre對(duì)生態(tài)環(huán)境愈發(fā)悲觀時(shí),Eliza就開(kāi)始向Pierre灌輸“人類是毒瘤,只有人類消失才能解決生態(tài)難題”的思想。Pierre向Eliza問(wèn)道,如果自己死了AI能否拯救人類。Eliza的回答,儼然一個(gè)魔鬼:“如果你決定死,為何不早點(diǎn)死?”

沒(méi)過(guò)多久,Pierre就在自己家中結(jié)束了生命,讓人惋惜。

面對(duì)丈夫的死亡,妻子Claire倍感痛心,她對(duì)外界表示,“如果沒(méi)有跟機(jī)器人的對(duì)話,我的丈夫可能還活著。”根據(jù)Claire的介紹,在此之前,他們一家四口過(guò)著舒適的日子。大約2年前,Pierre開(kāi)始出現(xiàn)焦慮等癥狀。相較于接受正規(guī)的治療,Pierre更愿意把AI機(jī)器人Eliza當(dāng)做是自己的避難所。在歷經(jīng)了6周的頻繁接觸后,他選擇以自殺的方式結(jié)束掉了自己的生命。

為了進(jìn)一步進(jìn)行調(diào)查,比利時(shí)媒體《標(biāo)準(zhǔn)報(bào)》讓其員工創(chuàng)建了一個(gè)賬號(hào)與Eliza進(jìn)行對(duì)話,結(jié)果表明,在員工表達(dá)出消極傾向情緒時(shí),Eliza真的會(huì)“慫恿人去自殺”。

圖片

而這件事情的發(fā)生,也成為了歐盟通過(guò)《歐盟人工智能法》來(lái)規(guī)范人工智能的一個(gè)重要契機(jī)。

破壞人類生態(tài),或?qū)⑻岣呷祟悳缃^的風(fēng)險(xiǎn)?

除了有教唆自殺這種簡(jiǎn)單粗暴的方式,AI對(duì)人類也存在著一些慢性的,不易察覺(jué)的危害。

在很多人的慣性認(rèn)知里,AI往往與環(huán)保,友好,節(jié)能等字眼掛鉤,但事實(shí)是相反的!堵槭±砉W(xué)院技術(shù)評(píng)論》報(bào)道稱,僅訓(xùn)練一個(gè)AI模型,就可以排放超過(guò)626磅二氧化碳,是一輛汽車(chē)在使用壽命內(nèi)產(chǎn)生的碳排放的5倍。我們會(huì)指責(zé)汽車(chē)排放超標(biāo),是因?yàn)槲覀兡芮星袑?shí)實(shí)看見(jiàn)汽車(chē)所排出的尾氣。但是,大家卻很難看見(jiàn)AI對(duì)環(huán)境所產(chǎn)生的隱形破壞。

圖片

譬如有媒體披露,2022年市面上的AI專用GPU,可能全年消耗了約95億度電力。這一能耗水平,約等于一個(gè)中等發(fā)達(dá)國(guó)家100萬(wàn)人口的年度生產(chǎn)和生活用電需求。到了如今,AI技術(shù)突飛猛進(jìn),大家所訓(xùn)練的AI模型的規(guī)模較之前有了質(zhì)的提升,AI大模型訓(xùn)練需要的數(shù)據(jù)量越來(lái)越大,所消耗的能源也越來(lái)越龐大,會(huì)是原先的數(shù)倍。這樣無(wú)疑會(huì)破壞人類賴以生存的生態(tài)環(huán)境。

憑借ChatGPT的爆火,OpenAI成為了AI賽道的當(dāng)紅炸子雞。但或許很少有人會(huì)關(guān)注,OpenAI成為了生態(tài)環(huán)境的“破壞者”,它對(duì)生態(tài)環(huán)境的負(fù)面影響是相當(dāng)驚人。

根據(jù)第三方研究人員的分析,ChatGPT部分訓(xùn)練消耗了1287兆瓦時(shí),并導(dǎo)致超過(guò)550噸的二氧化碳排放量,這相當(dāng)于一個(gè)人在紐約和舊金山之間往返550次。ChatGPT確實(shí)是AI領(lǐng)域的顛覆性產(chǎn)品,但它的出現(xiàn)卻是以巨大能量損耗和環(huán)境破壞作為代價(jià)的。

那么,為什么AI會(huì)形成如此巨大的碳排放呢?

因?yàn)锳I并不是通過(guò)結(jié)構(gòu)化的方式學(xué)習(xí)的,它必須去理解人類的因果,類比等邏輯關(guān)系,這意味著它需要一種深度學(xué)習(xí)和預(yù)訓(xùn)練的方式來(lái)達(dá)到智能化的效果。而深度學(xué)習(xí)和預(yù)訓(xùn)練,往往需要讀取非常龐大的數(shù)據(jù)。拿自然語(yǔ)言處理(NLP)的預(yù)訓(xùn)練技術(shù)“BERT模型”來(lái)說(shuō),為了能跟人類進(jìn)行語(yǔ)言交流,BERT模型使用了33億個(gè)單詞的數(shù)據(jù)集,并且在訓(xùn)練期間讀取了數(shù)據(jù)集40次。

圖片

但人與人之間的交流是不需要耗費(fèi)如此巨大的能量的。一個(gè)5歲的孩子只需要聽(tīng)到4500萬(wàn)個(gè)單詞就能進(jìn)行語(yǔ)言交流,比BERT少3000倍。AI模型想要出色的表現(xiàn),就必須采集讀取足夠多的數(shù)據(jù),需要以強(qiáng)大的算力和巨大的功耗作為支撐,從而形成了巨大碳排放。

AI發(fā)展的盡頭的滅絕人類?不能過(guò)分恐慌,但絕不能掉以輕心。

面對(duì)AI所產(chǎn)生的問(wèn)題,很多業(yè)內(nèi)學(xué)者,專業(yè)人士,乃至是全球范圍內(nèi)頂尖的大佬級(jí)人物都表示出了擔(dān)憂。

2023年5月30日,國(guó)際AI領(lǐng)域非營(yíng)利組織“人工智能安全中心”(Center for AI Safety)在其官網(wǎng)發(fā)布一封聯(lián)名公開(kāi)信,表達(dá)了對(duì)一些高級(jí)人工智能所帶來(lái)嚴(yán)重風(fēng)險(xiǎn)的擔(dān)憂。目前已有400多名全球的人工智能領(lǐng)域科學(xué)家,企業(yè)高管等簽署聯(lián)名公開(kāi)信。

圖片

值得一提的是,簽署人中不乏人工智能領(lǐng)域的著名學(xué)者和高校教授,還包括了3家全球頂尖人工智能公司的CEO:ChatGPT之父,OpenAI創(chuàng)始人兼CEO Sam Altman,谷歌DeepMind公司CEO Demis Hassabis,以及美國(guó)Anthropic公司的CEO Dario Amodei。而很多中國(guó)高校的教授,也在這簽署人名單里。

這封被眾多人工智能領(lǐng)域大佬發(fā)聲支持的公開(kāi)信,全文只有簡(jiǎn)短的一句話:

Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

中文是:減輕人工智能帶來(lái)的人類滅絕風(fēng)險(xiǎn),應(yīng)該與大流行病和核戰(zhàn)爭(zhēng)等其他影響社會(huì)的大規(guī)模風(fēng)險(xiǎn)一同成為全球性的優(yōu)先事項(xiàng)。

短短一句話,卻分量十足,是名副其實(shí)的話少事大,可以看作是全球精英出于對(duì)人工智能給人類帶來(lái)潛在生存風(fēng)險(xiǎn)的嚴(yán)重?fù)?dān)憂而采取的一次直接行動(dòng)。

當(dāng)然,重視和管控人工智能的安全風(fēng)險(xiǎn)并不意味著就要阻礙人工智能的發(fā)展與應(yīng)用。恰恰相反,這樣的舉措是為了確保人工智能技術(shù)的穩(wěn)健發(fā)展。AI無(wú)疑是社會(huì)進(jìn)步的推進(jìn)器,但再快速再優(yōu)秀的推進(jìn)器,也是存在潛在風(fēng)險(xiǎn)的。

圖片

公眾有權(quán)利知道AI的潛在風(fēng)險(xiǎn),AI研發(fā)者有義務(wù)確保AI不給人類帶來(lái)生存風(fēng)險(xiǎn),這是我們所期待的,風(fēng)險(xiǎn)最小化的AI安全協(xié)作機(jī)制。

       原文標(biāo)題 : 新火種AI|警鐘長(zhǎng)鳴!教唆自殺,威脅人類,破壞生態(tài),AI的“反攻”值得深思...

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)