ChatGPT幫律師寫文件 結果一堆假判例 - 股票QA

Table of Contents


-------------------------------發文提醒----------------------------------
1.發文前請先詳閱[新聞]分類發文規範,未依規範發文將受處份。
2.連結過長請善用 https://bit.ly/ 等縮網址服務,連結不能點擊者板規1-2-2處份。
3.心得/評論請盡量充實,心得過短或濫竽充數將以板規 1-2-3、4-4 水桶處份。
4.發文請依照格式文章標明段落,不符合格式者依4-1刪文處分。
------------------------ 按ctrl+y 可刪除以上內容。 ----------------------

原文標題:

※請勿刪減原文標題

ChatGPT幫美國律師寫法庭文件 結果發明一堆假判例

原文連結:

※網址超過一行過長請用縮網址工具

https://ynews.page.link/PDVLX

發布時間:

※請以原文網頁/報紙之發布時間為準

2023年5月28日 週日 上午11:50

記者署名:

※原文無記載者得留空

原文內容:

聊天機器人ChatGPT近半年來爆紅,號稱不久後將能取代一堆文組工作;但科技專家也紛紛警告,ChatGPT可能自行編造內容,成為假新聞來源。美國一名律師在準備法庭文件時就讓ChatGPT來寫,結果引用的6個判例裡,沒有一個是真的,在法院紀錄裡根本找不到這些判例。

《紐約時報》27日報導,美國紐約一家律師事務所的律師史瓦茲(Steven A. Schwartz)協助客戶馬塔((Roberto Mata)打官司。馬塔自稱在2019年8月搭乘哥倫比亞航空公司(Avianca)班機從薩爾瓦多飛往紐約時,被空服員推的推車撞到膝蓋而受傷。事隔多時,他才打算控告航空公司。

曼哈頓法院今年3月駁回本案,稱訴訟時效已過。律師史瓦茲於是提交了一份10頁的文件,引用超過6項判例,包含旅客馬丁尼茲( Martinez)控告達美航空、旅客奇赫曼(Zicherman)控告大韓航空、旅客瓦吉斯(Varghese)告中國南方航空等,針對訴訟時效長篇大論了一番。

看起來很厲害,問題是,沒人找的到這份文件裡引用的判例。航空公司的律師找不到,法官本人也一頭霧水。法院訴訟紀錄上會載明判案的法院、法官、判決書編號和日期,照理說不可能找不到;航空公司委任的律師發現,史瓦茲提供的判例看起來似乎是出自聊天機器人的手筆。

史瓦茲本月25日在宣誓書裡承認,他使用了ChatGPT來準備法律文件。已經在紐約執業30年的他對法官表示,他不是故意要欺騙法庭或航空公司,這是他第一次用ChatGPT來準備開庭資料,先前從沒用過,所以不知道ChatGPT寫的東西「可能是假的」。

例如ChatGPT引用的「奇赫曼訴大韓航空」判例,聲稱是美國第11巡迴上訴法院2008年的判決。美國第11巡迴上訴法院的書記官調查後發現,ChatGPT提供的案卷編號確實存在,但是案件本身完全不相關。ChatGPT又用他編造的大韓航空去驗證另一起「瓦吉斯訴中國南方航空」,結果實際上也是沒這回事。最終,ChatGPT引用的判例裡,有6個是假的。

上當的律師史瓦茲對法官表示,他非常後悔依賴ChatGPT來工作。他甚至還有問ChatGPT說,「你提供的瓦吉斯訴中國南方航空是真的案例嗎?」ChatGPT回答「是的」。

但在史瓦茲進一步追問「你的資料來源是哪裡」時,ChatGPT道歉說,「對於先前的混淆,我深感抱歉」,然後提供了一份法律引證。史瓦茲再問,「你提供的其案例是假的嗎?」ChatGPT堅持:「不,我提供的其他案例都是真實的,可以在有公信力的法律資料庫裡找到。」

史瓦茲律師可能找不到那些判例,但本人可能將要成為新的案例。法官已下令6月8日舉行聽證會,針對律師提交這份充滿假判例的法律文件,討論潛在的制裁措施。

心得/評論:

※必需填寫滿30字,無意義者板規處分
有用chat gpt的人應該會有發現
其實搜尋一些消息會是亂湊的
還有些更誇張直接就是掰出來的資訊
如果沒有特別查證會過度相信他的統整資訊
不知道目前這個問題能不能解決

--

All Comments

James avatarJames2023-05-31
資料庫更新
Ingrid avatarIngrid2023-06-03
寫得很通順,但正確性需要仔細驗證。
Christine avatarChristine2023-06-06
笑了,自己要被告。
Edwina avatarEdwina2023-06-09
找不到就自己編一個 被抓包還會先強辯 很人性
Audriana avatarAudriana2023-06-12
這種敢用chatgpt幫寫也是很勇
Hedy avatarHedy2023-06-14
你已經違規超貼新聞了,下次不用那麼興奮一直貼,
把時間留給其他事吧
Margaret avatarMargaret2023-06-12
會狡辯,已經是強AI了,歐印
Olive avatarOlive2023-06-15
居然訓練成蘇東坡了 怕
Jessica avatarJessica2023-06-12
不要打醒本板的AI炒股夢喔
Belly avatarBelly2023-06-15
https://i.imgur.com/SN1nwE3.jpg
估計用免費的gpt3.5
Rae avatarRae2023-06-12
沒差吧修改一下參數就好了別來黑啦
Aaliyah avatarAaliyah2023-06-15
可憐,這位律師提出前根本沒看過書狀吧
Brianna avatarBrianna2023-06-12
這問題要解決不難吧,只要有專門針對法律去訓練,
應該就可以改善很多了
Ursula avatarUrsula2023-06-15
用完gpt 在用google選我正解
Dora avatarDora2023-06-12
之前查專利號也是隨便給,還是要自己檢查過
Bennie avatarBennie2023-06-15
GPT真的很有自信把一件胡扯的事情說成像真的一樣
Daph Bay avatarDaph Bay2023-06-12
這律師通用模型拿去搞專業領域好像誤會了什麼
Steve avatarSteve2023-06-15
跟人一樣不懂的也會胡說八道,但是chatgpt比較適合
作文整合,不適合直接搜索結果
Una avatarUna2023-06-12
為什麼我覺得是這位律師亂掰亂寫一通 然後推給
是chatGPT的錯?
John avatarJohn2023-06-15
我確定chatGPT會亂掰內容。我虛構兩個人名,問它
誰比較厲害,他還是煞有其事地完成分析。
Valerie avatarValerie2023-06-12
美國法律很重視判例,但是判例其實到各大法律數據庫
搜索會比較完善吧
Kristin avatarKristin2023-06-15
chatGPT 本來就是文本產生器 你怎麼會認為是真的 XD
Anonymous avatarAnonymous2023-06-12
寫的很真但內容不實XD
Dorothy avatarDorothy2023-06-15
就網路資訊很多是不正確
Puput avatarPuput2023-06-12
靠chatGPT寫完,自己都不用驗證內容嗎......
Suhail Hany avatarSuhail Hany2023-06-15
文組浮木
Rae avatarRae2023-06-12
這麼懶的律師文件生成後判例不去餵狗,你覺得他會
用付費gpt4嗎?
Edward Lewis avatarEdward Lewis2023-06-15
文組:看吧 我們還是很重要
Robert avatarRobert2023-06-12
沒有搜尋功能當然只能用掰的,用錯工具怪工具喔
Hardy avatarHardy2023-06-15
之前就說過好幾次了 這東西就尬聊APP 他會為了跟你
尬聊胡扯
Bethany avatarBethany2023-06-12
自己用還沒什麼事情 但用到商業上 被告死就是活該
Frederica avatarFrederica2023-06-15
騙不懂的87 機器人要先訓練過才能用啊
Frederic avatarFrederic2023-06-12
chatGPT是聊天AI 不是工作AI
Mason avatarMason2023-06-15
這律師很故意 怎麼可能不知道
Candice avatarCandice2023-06-12
這就是我最討厭 ChatGPT 的地方 -- 一本正經的胡說
八道
Heather avatarHeather2023-06-15
這律師是腦袋撞到?不怕被disbar?
Aaliyah avatarAaliyah2023-06-12
完了 GPT空
Callum avatarCallum2023-06-15
我coding mud時最喜歡gpt跟我鬼扯,我就是需要它鬼扯
要懂得它好用的地方,而且不要誤用它,專業的事問專家
Xanthe avatarXanthe2023-06-12
果然越來越像人類 唬爛嘴
Damian avatarDamian2023-06-15
我之前查蜘蛛,他編了一堆學名新品種,還跟我說都是
真的,真的扯
Eartha avatarEartha2023-06-12
chatGPT跟GPT 4.0都一樣,連手續費都會算錯
Gary avatarGary2023-06-15
給他算式了算出來答案還能錯,真的無言
Suhail Hany avatarSuhail Hany2023-06-12
chatgpt只適合拿來談談心
Kama avatarKama2023-06-15
笑死人 準備開告chatgpt
Victoria avatarVictoria2023-06-12
ChatGpt還是需要人去判斷啊
Frederica avatarFrederica2023-06-15
不能說chatgpt只適合尬聊 而是現在生成式AI的訓練方
Joe avatarJoe2023-06-12
式是封閉的 你餵給他屎當然就給你亂回
Suhail Hany avatarSuhail Hany2023-06-15
果然是AI 相當人性化 人類的壞習慣也都學會了
Sarah avatarSarah2023-06-12
人工智慧結果要人類去判斷 現在還剛開始而已呀
Robert avatarRobert2023-06-15
chatgpt技能樹目前沒有點在算術,不過這問題不大
Anthony avatarAnthony2023-06-12
假新聞找三明自就好,專家中的專家
Candice avatarCandice2023-06-12
ChatGPT 就是沒辦法從語境模式順利切換的符號運送
模式,這問題很大好嗎
Necoo avatarNecoo2023-06-15
我估計早晚會去點數學的科技樹的 不難
Sarah avatarSarah2023-06-12
比小學生還不如!
Selena avatarSelena2023-06-15
有玩chatgpt的應該都知道AI很會唬爛
James avatarJames2023-06-12
結果本人成為新的案例XD
Olivia avatarOlivia2023-06-15
馬上就有人秀出實測圖了 wwww
Harry avatarHarry2023-06-12
Olga avatarOlga2023-06-15
@saygogo:你去查一些 AI 大師級的發言,就會知道這
不是點不點數學科技樹的問題
Anthony avatarAnthony2023-06-15
這是現在的 AI 架構和人類大腦基本上的差異
Hazel avatarHazel2023-06-12
明明他自己答案就有108,然後還說沒有108
我被它搞到以為自己算錯了
Kyle avatarKyle2023-06-15
@ferb:呵呵呵呵
Caitlin avatarCaitlin2023-06-12
寫完檢查是義務啊 連檢查文獻都要推給ai?
Leila avatarLeila2023-06-15
人腦可以很清楚的辨別自己正在做數字與符號運算,現
在的生成式對話 AI 就是不能
Andrew avatarAndrew2023-06-12
*運算
Kelly avatarKelly2023-06-15
這不是廢話嗎
Hedwig avatarHedwig2023-06-15
說4.0 比 3.5 強很多的資訊,會不會也是3.5 唬爛瞎
掰的?
Mason avatarMason2023-06-12
哪位律師敢給ChatGPT寫文件? 不怕洩漏客戶秘密是嗎?
Mia avatarMia2023-06-15
就是這樣,明明不知道,也可以胡扯的像真的
Carolina Franco avatarCarolina Franco2023-06-12
為什麼用f大的同問題去問gpt,發現沒有回答很差啊
Belly avatarBelly2023-06-15
gpt很明確知道自己是在做數字與符號運算
Erin avatarErin2023-06-12
這是可以用增加語境的方式訓練出來的
Quanna avatarQuanna2023-06-15
因為 GPT-4 還是會出現給了公式仍然算錯的情況
Candice avatarCandice2023-06-12
很認真盡責地講完幹話
Ophelia avatarOphelia2023-06-15
我上次問ChatGPT哪裡有素食吃 給我一堆沒聽過的
Dinah avatarDinah2023-06-12
哪來的白痴文組= =
Brianna avatarBrianna2023-06-15
因為gpt不是搜尋用的,你問素食吃根本問錯人
Robert avatarRobert2023-06-12
chatgpt大部分都瞎掰
現在確實是不太實用的狀態 只是未來性可期
Aaliyah avatarAaliyah2023-06-15
律師準備告openai產品提供錯誤資訊嗎
Zanna avatarZanna2023-06-12
重點是一本正經的瞎掰 沒有相關知識還會被騙
Poppy avatarPoppy2023-06-15
靠 他自己瞎編還不註明喔 那這樣是不是他給資料 附
上引據比較好 他無法辨別真假資料咩
Daniel avatarDaniel2023-06-12
用bing搜尋啊,會給你註明出處
Zanna avatarZanna2023-06-15
就基本的gigo來源資料有問題當然得到垃圾結果
Blanche avatarBlanche2023-06-15
國一程度的聯立方程式問題
Kama avatarKama2023-06-12
老實說這個加一個相關資料庫的plug in就解決了
Delia avatarDelia2023-06-15
本來就會亂掰內容,理工的也會
Frederica avatarFrederica2023-06-12
以現狀免費版本完全贏不了嫻熟的文字使用者
Brianna avatarBrianna2023-06-15
法律個案性太強 短期間AI應該無法取代
Gilbert avatarGilbert2023-06-12
越黑越噴啦 笑死 都不敢寫 do not pay
Olivia avatarOlivia2023-06-15
黃董一直吹,股市一直漲,應用零
Ida avatarIda2023-06-12
https://youtu.be/-8-X5raHFnc
AI人工智慧應用|全球首位AI律師在美國伸張正義,Do
Kama avatarKama2023-06-15
法律邏輯跟理組邏輯差很多,要取代很難啦!頂多幫
你潤稿,要引用還是太難
Adele avatarAdele2023-06-12
不要瞎掰好嗎
Hardy avatarHardy2023-06-15
「不能順利切換」=/= 「完全不能切換」
Andrew avatarAndrew2023-06-12
每次我請他附上資料來源,他的網址點開都不是他說的
資料= =
Olivia avatarOlivia2023-06-15
比較適合用來產生稿子給蔡英文唸
Carolina Franco avatarCarolina Franco2023-06-15
Zenobia avatarZenobia2023-06-12
AI詐騙仔
Donna avatarDonna2023-06-15
Rebecca avatarRebecca2023-06-12
而是指切換的效率很差,切換後的運送力很差 -- 人
類用二十幾年前的 AI 技術就已經寫出在算方程式或
解微積分方面遠遠超出常人能力的 Mathematica (如果
是比速度,那麼連人類的高手也比不過)
Una avatarUna2023-06-15
美國的法律不清楚,但台灣很多法條設計上就自相矛
盾(感謝台灣立委),要取代不可能
Elma avatarElma2023-06-12
https://youtu.be/AmVdYPTdw2c
The Robot Lawyer Resistance with Joshua Browder
Odelette avatarOdelette2023-06-15
*運算力
Belly avatarBelly2023-06-12
問題在於現在即便是 AI 圖靈獎得主的宗師級人物,
都沒辦法讓生成式對話 AI 擁有 1/10 Mathematica
的符號與數值運算能力
Caroline avatarCaroline2023-06-15
Ai 不會說謊
Thomas avatarThomas2023-06-15
確實不會說謊
Suhail Hany avatarSuhail Hany2023-06-12
市場就是有需求啦 問題就是濫用法律欺壓老百姓
Daniel avatarDaniel2023-06-15
市場有強烈需求不過算圖應該會比文本更實用
Eden avatarEden2023-06-12
@JuiFu617:ChatGPT 只是在你這個問題上沒說謊而已
啦 XDDD ChatGPT 很會臉不紅心不喘地扯漫天大謊好
Caroline avatarCaroline2023-06-15
*也比不過它
Hamiltion avatarHamiltion2023-06-12
AI越來越像人會唬爛 噴!
Faithe avatarFaithe2023-06-15
chatGPT已經失去公信力了 盡是瞎掰 有時還死不認錯
Genevieve avatarGenevieve2023-06-12
訓練模型正確性只剩下時間問題 一堆不懂裝懂
https://youtu.be/Sx0-o0UUIPk
《TECH TALK 科技大哉問》現在最HOT的職業 AI訓練師
538 views Mar 11, 2021
Jack avatarJack2023-06-15
補充:「集成」是對岸用詞,我國通常用「整合」,
對應於英文的 "Integrated" -> 對岸講的「集成電路
」 == Integrated circuit == IC
William avatarWilliam2023-06-12
Chatgpt都瞎掰啊 我問水滸傳108星有誰 他媽的連
宋慶齡都跑出來
Elma avatarElma2023-06-15
所以 GPT4 的回答是它沒有辦法整合 Mathematica 的
符號與數值運算能力
Erin avatarErin2023-06-12
https://youtu.be/n-gvh3Llt_o
LawGPT?: Using AI to Modernize Judicial Systems,
Kumar avatarKumar2023-06-15
ChatGPT 本質上是鄉民最鄙視最愛罵的「文組腦」
Wallis avatarWallis2023-06-12
聊天機器人是期望有多高智商?
Freda avatarFreda2023-06-15
Puput avatarPuput2023-06-12
訓練個商業用的好嗎 chatgpt現在還是聊天面向
Iris avatarIris2023-06-15
問體育界成員就一堆唬爛的了
Skylar DavisLinda avatarSkylar DavisLinda2023-06-12
https://sunrisemedium.com/p/318/ai-in-law
人人都能請 AI 當律師?AI 如何翻轉法律圈生態?
Hazel avatarHazel2023-06-15
訓練個法律AI 應該比繪圖AI簡單多了
Lauren avatarLauren2023-06-12
錯用工具XD
Zenobia avatarZenobia2023-06-15
法學最好比繪圖簡單 =.=
Rae avatarRae2023-06-12
瞎掰的極致 https://youtu.be/sfKgH85C8io
這樣都能收費演講收門徒,看來chatgpt寫講稿真的可行
Hardy avatarHardy2023-06-15
之前問chatgpt三上悠亞是誰,居然回答是2000年沖繩
縣出生的日本女星、演過大河劇wtf
Charlie avatarCharlie2023-06-12
真的很會掰,畢竟原本是尬聊用的模組
Hedwig avatarHedwig2023-06-15
https://youtu.be/06Mwc5N0S4Q
How An AI Lawyer Could Fight for You!
Mary avatarMary2023-06-12
擁有寫故事的能力無誤
Lucy avatarLucy2023-06-15
那個AI寫的故事其實有點無聊...
Mia avatarMia2023-06-12
請AI講笑話也很難笑,文組可能還能苟活一段時間
,大概暫時只能取代寫財經新聞的記者
Callum avatarCallum2023-06-15
免費仔又在搞笑
Michael avatarMichael2023-06-12
用 chaptgpt 寫程式還會有很多 compile error
Robert avatarRobert2023-06-15
這種是有付費連網的嗎?
Gary avatarGary2023-06-12
現在最抖的應該是翻譯、繪圖師攝影師、財經記者和小
Caroline avatarCaroline2023-06-15
不過小模很容易轉行繼續賺... 青春就是本錢,如果外
型不錯那在任何社會都不怕沒收入
Selena avatarSelena2023-06-12
不意外 你問他小說他自創一堆
Lydia avatarLydia2023-06-15
你只要問有關文獻有關的他都會回答錯錯的
問她生物物種他會自己自創生物
Faithe avatarFaithe2023-06-12
問他小說她會自己寫劇情回答你
所以才叫生成式AI阿 無法完全取代搜尋
Robert avatarRobert2023-06-15
但就考驗你知識辯證能力啦 無腦一樣被唬爛
Iris avatarIris2023-06-12
白癡XDD
Victoria avatarVictoria2023-06-15
所以我還是重度依賴 Google 其次 Google Scholar
Leila avatarLeila2023-06-12
chatgtp :查資料很麻煩喔,隨便編一編呼嚨一下
Daniel avatarDaniel2023-06-15
問他旅遊地點也都是掰的
William avatarWilliam2023-06-12
給ChatGPT寫五分鐘code要花五天debug
Sierra Rose avatarSierra Rose2023-06-15
Andy avatarAndy2023-06-12
林北超想揍爆ai唬爛仔
Elvira avatarElvira2023-06-15
同一個問題可以錯三次,要不是林北失去耐心恐怕可以
一直錯下去
Agatha avatarAgatha2023-06-12
我覺得是一堆人故意去亂訓練把他養壞欸 還是這是他
們演算法的缺陷 競爭對手有暗地出手
Daph Bay avatarDaph Bay2023-06-15
樓上想太多了,現在的 GPT-4 已經比上一代進步很多
很多了,問題不太可能出在惡意外部人士
Anonymous avatarAnonymous2023-06-12
這是 GPT 內在性的缺陷
Irma avatarIrma2023-06-15
不過歐美人和東亞人看待「缺陷」的態度相差蠻大的,
可以想像為何歐美對它有那麼多熱烈掌聲,或許 GPT
的前景真的是很光明燦爛(非反串)
Selena avatarSelena2023-06-12
台灣也一樣
Edwina avatarEdwina2023-06-15
幹!笑死
Gilbert avatarGilbert2023-06-12
ai真不出答案的還蠻多唬爛的XD
Necoo avatarNecoo2023-06-15
股點在哪
Connor avatarConnor2023-06-12
像是這種新聞有關於真假的有爭議性的首先就要看誰寫
的是不是真的有這一條新聞都還要先驗證像是這篇就連
署名他都不敢也沒有人管新聞的來源到底是否確有其事
!然後出版商是誰經過幾個轉介點當然鄉民之所以是鄉
民就是那份純樸的感覺什麼東西轉進來他都有辦法討論
你們覺得身為一個律師使用AI出庭前難道都不會自己先
查證過嗎?也太低估律師的智商和專業了吧!
Connor avatarConnor2023-06-15
GPT目前的隱患就是這樣,用權威的語法寫幹話,這問
題滿致命的
Rebecca avatarRebecca2023-06-12
完美無缺
Zenobia avatarZenobia2023-06-15
亂用就是吹牛機
Irma avatarIrma2023-06-15
AI具創造力!
Selena avatarSelena2023-06-12
笑死 一定是下載到Reddit的廢文
Christine avatarChristine2023-06-15
笑死 比唬爛三師還更會唬爛
Vanessa avatarVanessa2023-06-12
有玩過的就知道 假訊息假資料甚至明顯錯誤都有
Blanche avatarBlanche2023-06-15
都跟你說是「生成式」AI了
Madame avatarMadame2023-06-12
設計者又沒給他判例資料庫。。。頂多教他怎麼寫判
例吧
Tracy avatarTracy2023-06-15
有用過都知道,設計者傾向讓AI瞎掰,不論有意無意
Barb Cronin avatarBarb Cronin2023-06-12
你找烏龍院作者怎麼會問gpt呢?人家是外國人,又不
能聯網,你至少要讓外國人聯網吧
Sandy avatarSandy2023-06-15
覺卿:台灣應該將AI引進司法
Mia avatarMia2023-06-12
就是不希望你們抄功課的設定呀
Kelly avatarKelly2023-06-15
它不是搜尋引擎 要說幾次
Susan avatarSusan2023-06-12
真的,一堆人都以為gpt是搜索引擎,又直接問中文問
題,gpt沒有被餵這些資料,還要翻成英文去搜索,重
點gpt又不能聯網,你又在那邊嫌難用
David avatarDavid2023-06-15
人家都跟你說是chat了 ....
Dora avatarDora2023-06-12
律師是看不懂英文逆
Franklin avatarFranklin2023-06-15
GPT沒有資料的時候就會用雲的啊,厲害的地方是他不
會讓你覺得是編出來的XD
Edith avatarEdith2023-06-12
北七喔用這種明顯免責的東西= =
這律師牌怎麼考的啊
他拿的收入本來就對應他的責任跟風險誒
Hazel avatarHazel2023-06-15
gpt4最大的問題是不知道會亂掰
Catherine avatarCatherine2023-06-12
自己的作業自己寫
Daniel avatarDaniel2023-06-15
算是法院認證文組能力有問題了
Ula avatarUla2023-06-12
New Bing:阿我怎麼都沒人用
Oscar avatarOscar2023-06-15
ChatGTP是文字接龍,不是Google
Harry avatarHarry2023-06-12
這種AI就是將大量的隨機可能性收束到“趨近”模型跟
想要的結果(輸入值) 不要拿來做需要高度正確的事~
Lauren avatarLauren2023-06-15
GPT一句抱歉就沒事了,但使用者要自行承擔造假後果
Dinah avatarDinah2023-06-12
這個包是要OpenAI賠,還是簽名的律師賠?
Ophelia avatarOphelia2023-06-15
GPT真的很會唬爛,唬爛王
Carol avatarCarol2023-06-12
看來又是一場大詐騙了
Emily avatarEmily2023-06-15
褻瀆司法的律師 關一關
Ina avatarIna2023-06-12
我用bing GPT在引用資料來源上至少好得多,點開網址
都是正確的,只是編文章的內容相較之下弱得多,沒辦
法長篇大論
Charlie avatarCharlie2023-06-15
真“雲“端軟體
Skylar DavisLinda avatarSkylar DavisLinda2023-06-12
語言模型ai不是專業領域的通用ai..