人工智慧也寫得出療癒雞湯文?還是富含感情的那種?!(下)

人工智慧也寫得出療癒雞湯文?還是富含感情的那種?!(下)
人工智慧也寫得出療癒雞湯文?還是富含感情的那種?!(下)

別以為人工智慧寫出來的文章生澀不通沒有感情~現在AI已經進化到可以寫出文情並茂的文章了!!一起來看看吧!!(下)

本篇為下篇,上篇請點人工智慧也寫得出療癒雞湯文?還是富含感情的那種?!(上)

真相大白

Porr 的部落格人氣居高不下,甚至有別的平台轉載了這些假文章。在感到訝異之餘,他決定是時候讓一切真相大白了。

最後,Porr 終於發表了自己寫的文章──標題為《What I would do with GPT-3 if I had no ethics》(如果我沒有道德、將如何使用 GPT-3)

▲ (Photo by Patrick Fore on Unsplash)

 

這篇文章敘述了這個「假部落格」的始末,包括他如何用 GPT-3 批量生產這些文章。他解釋這全都是實驗的一部分,而一開始只是想嘗試證明 GPT-3 可以冒充人類作家。

Porr 表示:「這種技術可以輕易更大量產出平庸的網路文章,讓網路文章的內容價值大大降低。」「這是一件超級簡單的事,但老實說,這也是最可怕的地方。」同時也點出 GPT-3在科技倫理上的問題,與遭到有心人士惡意使用的後果。

推薦閱讀:特斯拉 CEO 馬斯克:AI 恐帶來末日,FB 祖克柏打臉嗆聲

GPT-3 的隱憂

人工智慧技術越強大,網路上的萬事萬物就越不可信任。

而明德大學蒙特雷國際研究學院(MIIS)專門研究恐怖主義、極端主義和反恐的研究中心表示,GPT-3 能自主生產各類文本的能力,很可能被用來激化個人暴力、極端主義思想和行為。

2020 年美國總統大選越來越近,2016 年選舉時發生的「劍橋分析事件」還歷歷在目:透過盜用 Facebook 五千萬用戶個資,了解他們的偏好,進而預測選民心理、主導美國社會輿論,最後左右大選結果。

推薦閱讀:馬斯克宣布離開 OpenAI 的真正原因是…研發的AI太會寫假新聞?

即使 OpenAI 表示,正嘗試在 API 層級上設下類似「毒素過濾器」(toxicity filters)的安全措施,但未公開透明的研究讓人們更加擔憂和懷疑。

GPT-3 是否也會成為蠱惑人心的道具?這值得我們所有人持續關注,與警惕任何網路上的事物。

 

 

更多關於人工智慧的文章請點閱下方連結~

 

 

 

其他閱讀

人工智慧打趴多名真人雀聖!麻將 AI「Suphx」突破日本麻將最高紀錄

人工智慧 Suphx 打敗人類雀聖!微軟:研發麻將 AI 比圍棋 AI 複雜

人工智慧、大數據、VR等2020最搶手職業榜出爐!值得你現在開始準備

不只是導航!Google 地圖用 AI 大升級 能預測還沒發生的塞車

暖心貓奴工程師開發人工智慧貓咪庇護所,給流浪貓一個家~()

谷哥地圖攜手人工智慧提升使用感受~連塞不塞車都能預測?!()

人工智慧也凸槌?!臉部辨識系統竟分辨不出黑人女性?!()

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *