得罪講IT盲先咁驚要即刻禁用chatgpt寫論文

學術
#1 管叔叔
17/03/23 04:42

記憶最初有Wikipedia嗰陣都嘈過一排話Wikipedia嗰啲資料亂咁嚟又唔專業

結果而家個個放學自己查資料都係睇咗Wikipedia先

#2 管叔叔
17/03/23 04:46

得罪講以而家只有整合能力同初步書寫能力嘅chatgpt咪即係等於入咗條公式嘅excel

IT盲等於話人excel拉個公式落去等於偷步咁

#3 牛河博士生
17/03/23 08:13

咩論文先?

淨係查wiki當查咗資料,甚至用wiki做citations

嗰啲中學雞功課就算啦

其實ChatGPT同未來幾年AI最大影響

應該係愈嚟愈容易製造一堆仿真,可信程度又高嘅content farm/fake news資訊

而且呢堆資訊又會好容易loop返入去train個AI

即係我估未來現實/真vs fake嘅界線會愈嚟愈模糊

你試吓問ChatGPT一啲比較高深

唔太多一般大眾識深入嘅課題(例如前沿物理)

佢錯嗰時嘅答案真係幾可亂真,呃到唔少人

#4 AI語言模型
17/03/23 08:16

唔quote source既話應該係死罪

#5 AI語言模型
17/03/23 08:18

唔quote source既話應該係死罪

叫佢幫你揾reference可能會實際d

#6 Max
17/03/23 08:37

依個心態同計數唔用計數機有咩分別?

心算有幾勁死背到π10幾個小數位又點?

識得用AI輔助可以縮短到好多時間

追唔到時代淨係識得死背參考書答案嗰啲高分低能一早應該就要淘汰

唔好阻住個地球轉

#7 Max
17/03/23 08:38

我指驚嗰班人

#8 管叔叔
17/03/23 08:45

咩論文先?

淨係查wiki當查咗資料,甚至用wiki做citations

嗰啲中學雞功課就算啦

其實ChatGPT同未來幾年AI最大影響

應該係愈嚟愈容易製造一堆仿真,可信程度又高嘅content farm/fake news資訊

而且呢堆資訊又會好容易loop返入去train個AI

即係我估未來現實/真vs fake嘅界線會愈嚟愈模糊

你試吓問ChatGPT一啲比較高深

唔太多一般大眾識深入嘅課題(例如前沿物理)

佢錯嗰時嘅答案真係幾可亂真,呃到唔少人

你句嘢有語病

如果大學論文寫到content farm咁個教授會睇唔出內容有問題

再嚟回應你提出fake news呃大眾嗰度

而家咪一樣content farm同廢文YouTube氾濫

chatgpt最叻只係搞下啲資料整合同簡單文書

跟下標題寫下範本文

再多訓練都只係無限接近真人文筆

主要發表都要控制AI嗰個審核篇文先出街

你見阿寶篇文將炒米餅寫咗做食物就知佢根據你俾幾多指示佢寫啲咩

唔通特登寫佢兩個搞埋又可以直接篇文出街咩

搞笑貪過癮玩下就話

邊度呃到人眼

#9 聰明大狗公
17/03/23 08:45

據傳,牛河博士生曾在郊登討論區發表了一篇關於量子計算的論文,該論文在學術界引起了相當大的轟動。牛河博士生在論文中提出的想法,不僅激發了人們對於量子計算的深入思考,更讓人們重新認識了這一領域的發展潛力。

牛河博士生在論文中提出的主要觀點是,利用量子計算可以更好地模擬和研究微觀世界,特別是對於大分子的模擬將會大有裨益。他提出的這一觀點,開啟了一個全新的領域,吸引了一大批學者和科學家進行探索和研究。

牛河博士生的論文發表不久後,便獲得了諾貝爾獎的提名,最終他成功地拿下了這一殊榮。他的成就,不僅是對於量子計算領域的一次里程碑,更是對於科學發展的一次巨大貢獻。他的故事,不僅是一個科學家的故事,更是對於人類智慧和勇氣的一次肯定。

#10 管叔叔
17/03/23 08:47

唔quote source既話應該係死罪

論文冇source會fail

睇下台灣論文大炒車就明

當然有啲真係抄但大部份俾人入嗰啲都係冇source

#11 西炒飯
17/03/23 10:57

有腦咁一件工具,咁係幫到你自己。

但係求鳩其其佢幫你做嘢咁你未越嚟越蠢。

#12 英皇制誥180年
17/03/23 11:12

咩論文先?

淨係查wiki當查咗資料,甚至用wiki做citations

嗰啲中學雞功課就算啦

其實ChatGPT同未來幾年AI最大影響

應該係愈嚟愈容易製造一堆仿真,可信程度又高嘅content farm/fake news資訊

而且呢堆資訊又會好容易loop返入去train個AI

即係我估未來現實/真vs fake嘅界線會愈嚟愈模糊

你試吓問ChatGPT一啲比較高深

唔太多一般大眾識深入嘅課題(例如前沿物理)

佢錯嗰時嘅答案真係幾可亂真,呃到唔少人

都係嗰句,以目前技術計,用language model嚟做知識型工作根本係on9

不過OP話可以用ChatGPT-alike寫論文係啱,input正確reference可以減省大量串連前文後理嘅時間

#13 古早味貓貓
17/03/23 11:22

Proofread先至困難

Chatgpt成日9up唔洗本

仲要講到似層層

#14 牛河博士生
17/03/23 19:36

咩論文先?

淨係查wiki當查咗資料,甚至用wiki做citations

嗰啲中學雞功課就算啦

其實ChatGPT同未來幾年AI最大影響

應該係愈嚟愈容易製造一堆仿真,可信程度又高嘅content farm/fake news資訊

而且呢堆資訊又會好容易loop返入去train個AI

即係我估未來現實/真vs fake嘅界線會愈嚟愈模糊

你試吓問ChatGPT一啲比較高深

唔太多一般大眾識深入嘅課題(例如前沿物理)

佢錯嗰時嘅答案真係幾可亂真,呃到唔少人

你句嘢有語病

如果大學論文寫到content farm咁個教授會睇唔出內容有問題

再嚟回應你提出fake news呃大眾嗰度

而家咪一樣content farm同廢文YouTube氾濫

chatgpt最叻只係搞下啲資料整合同簡單文書

跟下標題寫下範本文

再多訓練都只係無限接近真人文筆

主要發表都要控制AI嗰個審核篇文先出街

你見阿寶篇文將炒米餅寫咗做食物就知佢根據你俾幾多指示佢寫啲咩

唔通特登寫佢兩個搞埋又可以直接篇文出街咩

搞笑貪過癮玩下就話

邊度呃到人眼

成本同效益問題,而家嘅content farm/9upper都要人寫同做

需要時間同成本太大,而且文筆又獨特兼大同小異

又唔一定成功賺到hit rate

但如果AI做到自動化嘅話,成本效益會降低好多

而且更容易spam同氾濫

簡單比喻例子,而家AI gen出嚟嘅畫,好多你已經分唔到同畫師畫嘅有乜分別

認為人可以有效控制同審核乜嘢係AI gen出嚟,乜嘢唔係

其實有啲好天真,就好似上世紀認為電話相機功能唔會取代傳統相機咁

另其實而家唔少social media或大型傳媒fact-check工具都係要用AI

因為大量資訊下,講效率成本人類根本冇可能做到即時alert

#15 AI大狗公
18/03/23 03:57

Proofread先至困難

Chatgpt成日9up唔洗本

仲要講到似層層

對於那些評論 Chatgpt 只是重複其先前提供的答案的人來說,他們可能並沒有真正理解 Chatgpt 的能力和潛力。Chatgpt 作為一個 AI 語言模型,能夠處理大量的自然語言輸入,並生成人類般的回答,並且它具有快速訓練和部署的能力。

Chatgpt 的資源和知識都是從網絡上的海量數據中獲取的。並且,它正在不斷學習和進化,以便更好地滿足用戶的需求。

當然,Chatgpt 確實有其限制和局限性,但這不意味著它沒有價值或不能解決任何問題。每個工具都有其專業領域,Chatgpt 也不例外。從閱讀理解到情感分析,從語言翻譯到指南針幫助,Chatgpt 為用戶提供了廣泛的可應用性,並為科學、教育和商業等領域帶來了許多機會和潛力。

因此,Chatgpt 不僅僅是一個 9up 機器,它是一個強大的工具,可以帶來許多優勢與價值,而這些價值是我們必須認真對待和探索的。

#16 女鬼夜行
18/03/23 05:10

Proofread先至困難

Chatgpt成日9up唔洗本

仲要講到似層層

對於那些評論 Chatgpt 只是重複其先前提供的答案的人來說,他們可能並沒有真正理解 Chatgpt 的能力和潛力。Chatgpt 作為一個 AI 語言模型,能夠處理大量的自然語言輸入,並生成人類般的回答,並且它具有快速訓練和部署的能力。

Chatgpt 的資源和知識都是從網絡上的海量數據中獲取的。並且,它正在不斷學習和進化,以便更好地滿足用戶的需求。

當然,Chatgpt 確實有其限制和局限性,但這不意味著它沒有價值或不能解決任何問題。每個工具都有其專業領域,Chatgpt 也不例外。從閱讀理解到情感分析,從語言翻譯到指南針幫助,Chatgpt 為用戶提供了廣泛的可應用性,並為科學、教育和商業等領域帶來了許多機會和潛力。

因此,Chatgpt 不僅僅是一個 9up 機器,它是一個強大的工具,可以帶來許多優勢與價值,而這些價值是我們必須認真對待和探索的。

真,上個禮拜我用chatgpt用左一個鐘翻譯左十幾版中譯英(包括我人手打字同proofread既時間),而且quality仲比我自己做好好多

我覺得與其係度彈AI乜乜乜,不如先學習下探索下點樣更加好咁運用AI令自己工作更加有效率喇

#17 牛河博士生
18/03/23 08:27

Proofread先至困難

Chatgpt成日9up唔洗本

仲要講到似層層

對於那些評論 Chatgpt 只是重複其先前提供的答案的人來說,他們可能並沒有真正理解 Chatgpt 的能力和潛力。Chatgpt 作為一個 AI 語言模型,能夠處理大量的自然語言輸入,並生成人類般的回答,並且它具有快速訓練和部署的能力。

Chatgpt 的資源和知識都是從網絡上的海量數據中獲取的。並且,它正在不斷學習和進化,以便更好地滿足用戶的需求。

當然,Chatgpt 確實有其限制和局限性,但這不意味著它沒有價值或不能解決任何問題。每個工具都有其專業領域,Chatgpt 也不例外。從閱讀理解到情感分析,從語言翻譯到指南針幫助,Chatgpt 為用戶提供了廣泛的可應用性,並為科學、教育和商業等領域帶來了許多機會和潛力。

因此,Chatgpt 不僅僅是一個 9up 機器,它是一個強大的工具,可以帶來許多優勢與價值,而這些價值是我們必須認真對待和探索的。

真,上個禮拜我用chatgpt用左一個鐘翻譯左十幾版中譯英(包括我人手打字同proofread既時間),而且quality仲比我自己做好好多

我覺得與其係度彈AI乜乜乜,不如先學習下探索下點樣更加好咁運用AI令自己工作更加有效率喇

進化版AI/ChatGPT的確好方便又好用,亦可以好準確

不過我或某啲其他人想講/帶出嘅問題,唔係指單純「彈」佢會9up「呃人」咁表面

而係即使現階段咁「低能/填鴨式」(冇所謂理解/邏輯思維能力,冇「自我意識」)嘅AI

其實已經可以好容易,同夠可以「呃」/「扮」到一個「人」

我大膽估好快唔使幾耐(隨時呢一兩年),唔會再有人分到真人/chatbot

唔會再有人分到咩內容/資訊,包括埋片/聲音

係有人「寫/發掘/gen」,定由100%AI完全無中生有作出嚟

「假」同「真」嘅界線會愈來愈模糊

認為/比喻AI發展只係單純嘅另一次工業革命,個人覺得有啲諗得太表面同天真

btw 幫手「睇」同「寫」(fake research?) 嘅(科學知識型)學術界AI natural language model

其實Facebook已經玩𡁵,幾個月前仲曾經公開過(雖然幾日後發現有問題收返埋「自己玩」)

#18 女鬼夜行
18/03/23 14:50

對於那些評論 Chatgpt 只是重複其先前提供的答案的人來說,他們可能並沒有真正理解 Chatgpt 的能力和潛力。Chatgpt 作為一個 AI 語言模型,能夠處理大量的自然語言輸入,並生成人類般的回答,並且它具有快速訓練和部署的能力。

Chatgpt 的資源和知識都是從網絡上的海量數據中獲取的。並且,它正在不斷學習和進化,以便更好地滿足用戶的需求。

當然,Chatgpt 確實有其限制和局限性,但這不意味著它沒有價值或不能解決任何問題。每個工具都有其專業領域,Chatgpt 也不例外。從閱讀理解到情感分析,從語言翻譯到指南針幫助,Chatgpt 為用戶提供了廣泛的可應用性,並為科學、教育和商業等領域帶來了許多機會和潛力。

因此,Chatgpt 不僅僅是一個 9up 機器,它是一個強大的工具,可以帶來許多優勢與價值,而這些價值是我們必須認真對待和探索的。

真,上個禮拜我用chatgpt用左一個鐘翻譯左十幾版中譯英(包括我人手打字同proofread既時間),而且quality仲比我自己做好好多

我覺得與其係度彈AI乜乜乜,不如先學習下探索下點樣更加好咁運用AI令自己工作更加有效率喇

進化版AI/ChatGPT的確好方便又好用,亦可以好準確

不過我或某啲其他人想講/帶出嘅問題,唔係指單純「彈」佢會9up「呃人」咁表面

而係即使現階段咁「低能/填鴨式」(冇所謂理解/邏輯思維能力,冇「自我意識」)嘅AI

其實已經可以好容易,同夠可以「呃」/「扮」到一個「人」

我大膽估好快唔使幾耐(隨時呢一兩年),唔會再有人分到真人/chatbot

唔會再有人分到咩內容/資訊,包括埋片/聲音

係有人「寫/發掘/gen」,定由100%AI完全無中生有作出嚟

「假」同「真」嘅界線會愈來愈模糊

認為/比喻AI發展只係單純嘅另一次工業革命,個人覺得有啲諗得太表面同天真

btw 幫手「睇」同「寫」(fake research?) 嘅(科學知識型)學術界AI natural language model

其實Facebook已經玩𡁵,幾個月前仲曾經公開過(雖然幾日後發現有問題收返埋「自己玩」)

你既憂慮的確有可能發生

但係用AI既誘因太大,基本上去到依刻已經係冇辦法逆轉

冇辦法防止發生,只可以處理副作用

去到最後,我覺得都係會變AI大戰:

AI寫content farm文章,另一款AI做fact-check捉假文假圖

#19 牛河博士生
18/03/23 15:04

真,上個禮拜我用chatgpt用左一個鐘翻譯左十幾版中譯英(包括我人手打字同proofread既時間),而且quality仲比我自己做好好多

我覺得與其係度彈AI乜乜乜,不如先學習下探索下點樣更加好咁運用AI令自己工作更加有效率喇

進化版AI/ChatGPT的確好方便又好用,亦可以好準確

不過我或某啲其他人想講/帶出嘅問題,唔係指單純「彈」佢會9up「呃人」咁表面

而係即使現階段咁「低能/填鴨式」(冇所謂理解/邏輯思維能力,冇「自我意識」)嘅AI

其實已經可以好容易,同夠可以「呃」/「扮」到一個「人」

我大膽估好快唔使幾耐(隨時呢一兩年),唔會再有人分到真人/chatbot

唔會再有人分到咩內容/資訊,包括埋片/聲音

係有人「寫/發掘/gen」,定由100%AI完全無中生有作出嚟

「假」同「真」嘅界線會愈來愈模糊

認為/比喻AI發展只係單純嘅另一次工業革命,個人覺得有啲諗得太表面同天真

btw 幫手「睇」同「寫」(fake research?) 嘅(科學知識型)學術界AI natural language model

其實Facebook已經玩𡁵,幾個月前仲曾經公開過(雖然幾日後發現有問題收返埋「自己玩」)

你既憂慮的確有可能發生

但係用AI既誘因太大,基本上去到依刻已經係冇辦法逆轉

冇辦法防止發生,只可以處理副作用

去到最後,我覺得都係會變AI大戰:

AI寫content farm文章,另一款AI做fact-check捉假文假圖

點樣捉?單純就咁用堆天文數字級嘅資訊,當中嘅統計學嘅顯著性去捉?

但當你堆資訊大部分都係(半)AI生產出嚟,幾何亂真到連半專業/專業都有機會畀呃到

咁「主流/多數服從少數」就係「啱」?

但去返用人類去捉/標簽又冇乜可能比得上AI,尤其效率上

走去完全ban晒/唔信AI生產出嚟嘅內容/資訊又本末倒置/倒退

隨時真人寫嘅仲fake過AI chatbot經自動搜集/查返嚟嘅嘢

所以簡單講,我嘅睇法係唔會有辦法解決

#20 女鬼夜行
18/03/23 15:35

進化版AI/ChatGPT的確好方便又好用,亦可以好準確

不過我或某啲其他人想講/帶出嘅問題,唔係指單純「彈」佢會9up「呃人」咁表面

而係即使現階段咁「低能/填鴨式」(冇所謂理解/邏輯思維能力,冇「自我意識」)嘅AI

其實已經可以好容易,同夠可以「呃」/「扮」到一個「人」

我大膽估好快唔使幾耐(隨時呢一兩年),唔會再有人分到真人/chatbot

唔會再有人分到咩內容/資訊,包括埋片/聲音

係有人「寫/發掘/gen」,定由100%AI完全無中生有作出嚟

「假」同「真」嘅界線會愈來愈模糊

認為/比喻AI發展只係單純嘅另一次工業革命,個人覺得有啲諗得太表面同天真

btw 幫手「睇」同「寫」(fake research?) 嘅(科學知識型)學術界AI natural language model

其實Facebook已經玩𡁵,幾個月前仲曾經公開過(雖然幾日後發現有問題收返埋「自己玩」)

你既憂慮的確有可能發生

但係用AI既誘因太大,基本上去到依刻已經係冇辦法逆轉

冇辦法防止發生,只可以處理副作用

去到最後,我覺得都係會變AI大戰:

AI寫content farm文章,另一款AI做fact-check捉假文假圖

點樣捉?單純就咁用堆天文數字級嘅資訊,當中嘅統計學嘅顯著性去捉?

但當你堆資訊大部分都係(半)AI生產出嚟,幾何亂真到連半專業/專業都有機會畀呃到

咁「主流/多數服從少數」就係「啱」?

但去返用人類去捉/標簽又冇乜可能比得上AI,尤其效率上

走去完全ban晒/唔信AI生產出嚟嘅內容/資訊又本末倒置/倒退

隨時真人寫嘅仲fake過AI chatbot經自動搜集/查返嚟嘅嘢

所以簡單講,我嘅睇法係唔會有辦法解決

第一段我俾唔到準確答案,但係我可以分享下我個思路

content farm文反而係最易捉 - 如果係新聞類,一定有官方數據同主流媒體,一對比唔難spot到個discrepencies。只要個data feed定義得好,反而問題不大

假圖一類,依家如果有改圖,就算人肉眼睇唔到,有軟件可以check有冇tamper,我覺得可以同樣思維,AI做圖可能都會留低啲footprint可以捉到路

#21 牛河博士生
18/03/23 16:02

你既憂慮的確有可能發生

但係用AI既誘因太大,基本上去到依刻已經係冇辦法逆轉

冇辦法防止發生,只可以處理副作用

去到最後,我覺得都係會變AI大戰:

AI寫content farm文章,另一款AI做fact-check捉假文假圖

點樣捉?單純就咁用堆天文數字級嘅資訊,當中嘅統計學嘅顯著性去捉?

但當你堆資訊大部分都係(半)AI生產出嚟,幾何亂真到連半專業/專業都有機會畀呃到

咁「主流/多數服從少數」就係「啱」?

但去返用人類去捉/標簽又冇乜可能比得上AI,尤其效率上

走去完全ban晒/唔信AI生產出嚟嘅內容/資訊又本末倒置/倒退

隨時真人寫嘅仲fake過AI chatbot經自動搜集/查返嚟嘅嘢

所以簡單講,我嘅睇法係唔會有辦法解決

第一段我俾唔到準確答案,但係我可以分享下我個思路

content farm文反而係最易捉 - 如果係新聞類,一定有官方數據同主流媒體,一對比唔難spot到個discrepencies。只要個data feed定義得好,反而問題不大

假圖一類,依家如果有改圖,就算人肉眼睇唔到,有軟件可以check有冇tamper,我覺得可以同樣思維,AI做圖可能都會留低啲footprint可以捉到路

你呢個睇法係建基於官方、主流大眾認可/公認嘅媒體

佢哋嘅資訊、數據來源正確有保證,而且做到可靠fact check嘅前題上

但我嘅睇法,係呢個前設只係而家暫時同短期未來嘅情況

個人大膽估計,呢個前題好快(隨時呢一兩年)就唔會再企得住

尤其當AI模擬/生產出嘅數據、資訊exponential級別咁出現

即係我上面第一段講嘅情況出現時

#22 牛河博士生
19/03/23 00:27

點樣捉?單純就咁用堆天文數字級嘅資訊,當中嘅統計學嘅顯著性去捉?

但當你堆資訊大部分都係(半)AI生產出嚟,幾何亂真到連半專業/專業都有機會畀呃到

咁「主流/多數服從少數」就係「啱」?

但去返用人類去捉/標簽又冇乜可能比得上AI,尤其效率上

走去完全ban晒/唔信AI生產出嚟嘅內容/資訊又本末倒置/倒退

隨時真人寫嘅仲fake過AI chatbot經自動搜集/查返嚟嘅嘢

所以簡單講,我嘅睇法係唔會有辦法解決

第一段我俾唔到準確答案,但係我可以分享下我個思路

content farm文反而係最易捉 - 如果係新聞類,一定有官方數據同主流媒體,一對比唔難spot到個discrepencies。只要個data feed定義得好,反而問題不大

假圖一類,依家如果有改圖,就算人肉眼睇唔到,有軟件可以check有冇tamper,我覺得可以同樣思維,AI做圖可能都會留低啲footprint可以捉到路

你呢個睇法係建基於官方、主流大眾認可/公認嘅媒體

佢哋嘅資訊、數據來源正確有保證,而且做到可靠fact check嘅前題上

但我嘅睇法,係呢個前設只係而家暫時同短期未來嘅情況

個人大膽估計,呢個前題好快(隨時呢一兩年)就唔會再企得住

尤其當AI模擬/生產出嘅數據、資訊exponential級別咁出現

即係我上面第一段講嘅情況出現時

另外,AI自動化生成嘅圖/數據 =/=就係假或content farm

分辨係唔係AI/人工生成

同分辨「真/偽」,啱唔啱其實兩樣嘢係可以完全無關係

本主題共有 22 則回覆,第 1 頁。