Login
Sign Up For Free
English
中文 (繁體)
中文 (香港)
中文 (简体)
日本語
Filipino
Bahasa Indonesia
Bahasa Melayu
Pусский
Português (Brasil)
Magyar
Français
Español
Deutsch
Čeština
العربية
Català
Dansk
Ελληνικά
فارسی
Suomi
Gaeilge
Hindi
עברית
Hrvatski
Italiano
Norsk bokmål
Nederlands
한국어
Polski
Română
Slovenský
Svenska
Türkçe
українська
беларуская
ไทย
Standard view
沁沁
1 years ago
ai讓人很頭痛,把不是事實的事夾在文章中假裝是真的
latest #22
沁沁
1 years ago
我發現怪怪的之後,問了白冰冰的女兒是誰,沒有一個答對,每一個gpt講的都是錯的
沁沁
1 years ago
版本不一,還很堅持自己的對的
馬克斯
說
1 years ago
所以其實生成式AI並不理解你的語意,他的邏輯還是從你的問題中,去資料庫找每個回答的字的下一個字的機率最大的那個!所以才是一個字一個字生成出來的!所以一定會有答案,因為一定會有字產出。但是如果資料庫沒有的,但是透過計算又有機率高的字,就逐漸變成機器的幻想了!
立即下載
沁沁
1 years ago
我只是問白冰冰的女兒是誰,他說是李婷婷,白冰冰的老公是周潤發
沁沁
1 years ago
就逐漸變成機器的幻想了! 這句很可怕
沁沁
1 years ago
我可能錯把ai當點google了,這樣子的用法不太好,我覺得它可能就是翻翻譯不會出錯而已
馬克斯
說
1 years ago
我覺得ChatGPT的資料沒有上網,所以資料不足時,就胡說八道了!一樣用ChatGPT的API的Bing聊天功能就能找到答案!
馬克斯
說
1 years ago
不過雖然一樣是ChatGPT的架構,但是翻譯的通順程度還是ChatGPT比較好!
沁沁
1 years ago
剛剛ai跟我說,他不能看網頁,所以我給他的網頁,是沒有用的,他需要文字檔,我剛剛試著貼文字檔給他,然後我看一下真實性,如果又亂寫就真的沒有辦法了
沁沁
1 years ago
所以我要用bing嗎?它可以有網路資訊?
沁沁
1 years ago
我只是需要ai幫我寫一篇生動的故事是真實存在的,我請他寫金融詐騙案,一整個就是亂編,跟真實的案件完全不一樣
馬克斯
說
1 years ago
Bing的資料會去搜尋網路!
沁沁
1 years ago
好的我改用bing,
懶骨頭
1 years ago
GPT真的會騙人喔我記得我最近聽了一個國際新聞就是一個國外的律師用它來來找尋是否之前有這樣的案例 GPT還無中生有還用了一個某個真的案例的編碼 那個律師可能會被法院給處罰吧
馬克斯
說
1 years ago
Bing Chat 不再限於 Edge 瀏覽器,官方稱第三方瀏覽器也可通
沁沁
1 years ago
我用app很方便
天晴雲白
1 years ago
Redd
說
1 years ago
AI 回答的內容還要再檢查過才行
沁沁
1 years ago
reddliaw
: 本來要方便,變得更麻煩了
沁沁
1 years ago
reddliaw
: 有時候會不知道是錯的,才會問ai
Redd
說
1 years ago
DOG0919
: 有時在 google 搜尋反而比較習慣
沁沁
1 years ago
reddliaw
: ? google搜尋不會寫文章、不會分析資料
back to top
delete
reply
edit
cancel
cancel