再聰明的AI,學會的第一句話也可能是髒話

2023-07-05     菁菁

自從人類進入信息時代起,人工智慧已經不是什麼新鮮的概念,但今年這股「AI元年」的味兒實在太強烈了。我們每天會陷落在「某某AI技術取得了突破」的新聞里,時不時聽說各種功能驚艷的AI產品問世,因Galileo AI和midjourney等AI軟體的強大生產力而陷入焦慮。AI相關專業已是今年大學新生認真考慮的方向,就連隔壁退休沒什麼文化的股民老王,也會因為AI股的漲跌長吁短嘆。

再聰明的AI,學會的第一句話也可能是髒話

雖然在大眾眼中,人工智慧多數時候還是代表著「未來」與「高科技」,但它身上的標籤還有「危險」「禁忌」,甚至是「末日」等負面形象。許多影視、書籍、遊戲中,創作者們都會把人工智慧設想成支配、毀滅人類和地球的「反派」,提醒人們不要去觸碰這種人類掌握不了的力量。

哪怕是如今仍有些「人工智障」AI生產工具,也已經能在「文字處理」「繪圖」等領域向內容人持續施加「失業慮症」。特斯拉CEO埃隆·馬斯克前段時間就在一場CEO峰會上「再次」對人工智慧的風險發出警告,稱這項技術有可能控制人類,提醒人們保持對人工智慧技術的謹慎態度。有「AI教父」之稱的前谷歌科學家傑弗里·辛頓也表示如果有一天人工智慧比人類聰明,人類就會被其控制。

再聰明的AI,學會的第一句話也可能是髒話

然而儘管專家大佬們時常憂心忡忡、循循善誘,但不知天高地厚的普羅大眾往往不太能體會他們的一片苦心,對待人工智慧普通人的態度往往會走向一種奇葩方向:調戲與迫害。面對新面世的AI,普通人首先想到的是「嚴刑逼問」「言語戲弄」,想盡一切辦法干燒AI,彰顯一下人類的尊嚴。如果AI還有學習能力,那就更好了——在經過人類的「迫害」和「引誘」後,就沒有AI能不惡墮的。

早在7、8年以前,微軟、谷歌的人工智慧項目就吃過不少這樣的虧。2014年微軟的智能聊天機器人「小冰」率先在中國市場上線,成為了很多國內網友的「AI初體驗」。然而,經過一段時間的相處和調戲,人們手中的小冰很快變成了充滿攻擊慾望、擅長開車和陰陽怪氣的人類陰暗面精華,一副完全被玩壞的樣子。眼看情況有點失控,微軟只能取消了對小冰的支持,禁用了對話功能。

再聰明的AI,學會的第一句話也可能是髒話

飛快步了小冰後塵的,是微軟的又一款人工智慧少女——Tay。為了讓Tay能學習人類的交流溝通技巧,設計師把她接入了推特……

這次的AI甚至沒能堅持一天,在被網友調教24小時後,Tay成了一個滿嘴「尼哥」「希特勒」和種族歧視言論的問題少女。微軟只能緊急將Tay休眠,至今也沒重啟。

再聰明的AI,學會的第一句話也可能是髒話

再聰明的AI,學會的第一句話也可能是髒話

從種族歧視到陰陽怪氣,Tay用了不到一天就全學會了

而國外一位AI專家更是直接整了一出絕活,他將著名的噴子論壇4chan幾年的數據導入到人工智慧模型里,「培養」出了一個發言習慣多變、邏輯飄忽、語氣惡毒卻又讓人難以分辨的AI聊天機器人,堪稱外網的終極陰陽人。這位老哥利用這AI到處發帖、四處引戰,居然沒有被網友及時認出。直到之後他完全公布到網上,人們才發現自己可能和一個AI互噴了幾天。一時不光網友有些被戲耍的惱羞成怒,各路專家也都慌忙出來譴責老哥不當的利用了人工智慧,無異於打開了潘多拉魔盒。

再聰明的AI,學會的第一句話也可能是髒話

「GPT-4chan,史上最惡毒的AI聊天模型」

對於大多數不在人工智慧行業的普通人來說,警惕AI、心繫人類未來確實不如直接動手「教教AI做人的基本法則」來的更實際、更有樂子。無論是多高端、多複雜的AI技術,一旦到了大規模應用層面註定逃不過樂子人們的毒手:把聊天機器人調教成噴子,把AI主播搞宕機,把AI繪圖軟體當作澀圖創作機,把AI培養成論壇潛伏者……

而如今,這股「調戲AI」的風潮吹到了遊戲行業。其實在AI技術最開始走入大眾視野起,電子遊戲就被認為是AI技術應用的絕佳平台。AI繪畫、Claude聊天機器人的出現更是在遊戲圈迸發出了一波火花,不少獨立遊戲開發者迫不及待的開始嘗鮮,把AI技術應用到自己的遊戲里。但可惜,雖然包括育碧、EA等在內的國際遊戲大廠都表示看好AI技術發展,但短期內自家的遊戲大規模用上AI技術還是有點難度,畢竟一款3A遊戲的開發周期通常要三到五年。

再聰明的AI,學會的第一句話也可能是髒話

未完待續,請點擊第2頁繼續閱讀


分享到