ChatGPT等AI生成的內(nèi)容存在常識(shí)、推理等錯(cuò)誤,仍然能夠判別出來 |
發(fā)布時(shí)間:2023-03-19 文章來源:本站 瀏覽次數(shù):2332 |
3 月 18 日音訊,在今年 2 月召開的人工智能促進(jìn)協(xié)會(huì)會(huì)議上,一項(xiàng)新研討結(jié)果標(biāo)明,能夠判別內(nèi)容是由 ChatGPT 生成的還是人類撰寫的。
美國賓夕法尼亞大學(xué)工程與應(yīng)用科學(xué)學(xué)院的一支科研團(tuán)隊(duì)日前展開有史以來大范圍的人工智能檢測活動(dòng),基于該大學(xué)創(chuàng)立的網(wǎng)頁鍛煉游戲 Real or Fake Text?,搜集相關(guān)數(shù)據(jù)停止培訓(xùn),從而讓 AI 能夠判別出內(nèi)容是由 ChatGPT 生成的還是人類撰寫的。 該研討的合著者、博士 Liam Dugan 對此做出理解釋,IT之家翻譯內(nèi)容如下: 今天的人工智能曾經(jīng)能夠生成出十分流利、十分契合語法的文本。但是人工智能會(huì)犯錯(cuò)誤。 我們曾經(jīng)證明機(jī)器會(huì)犯諸如常識(shí)性錯(cuò)誤、相關(guān)性錯(cuò)誤、推理錯(cuò)誤和邏輯錯(cuò)誤等錯(cuò)誤,而且我們曾經(jīng)找到了如何發(fā)現(xiàn)這些錯(cuò)誤的辦法。 人們關(guān)于人工智能感到焦慮。我們的研討能夠緩解局部焦慮心情。我以為目前 AI 能夠協(xié)助我們編寫更有想象力、更有趣的文本,合適創(chuàng)意協(xié)作。但是 AI 在新聞報(bào)道、學(xué)術(shù)論文或法律倡議方面的應(yīng)用還是十分糟糕的,我們無法確保其真實(shí)性。 |
|