|簡體中文

比思論壇

 找回密碼
 按這成為會員
搜索



查看: 491|回復: 0
打印 上一主題 下一主題

问题越简单,人工智能越“糊涂”

[複製鏈接]

1130

主題

1

好友

3610

積分

大學生

Rank: 6Rank: 6

  • TA的每日心情
    奮斗
    昨天 08:44
  • 簽到天數: 185 天

    [LV.7]常住居民III

    推廣值
    0
    貢獻值
    0
    金錢
    5
    威望
    3610
    主題
    1130
    跳轉到指定樓層
    樓主
    發表於 2024-9-29 22:07:27 |只看該作者 |正序瀏覽
    人工智能开发人员试图通过两种主要方式提高LLM的能力,一是扩大规模,为其提供更多的训练数据和计算能力,二是根据人类反馈对其进行调整或微调。

    西班牙巴伦西亚理工大学的JoséHernández-Orallo和同事研究了LLM在规模扩大和调整过程中的表现。他们研究了OpenAI的GPT系列聊天机器人、Meta的LLaMA AI模型,以及一组名为BigScience的研究人员开发的BLOOM。

    研究人员通过设置5种类型的任务测试人工智能,即算术问题、解字谜、地理问题、科学挑战和从杂乱无章的列表中提取信息。

    结果发现,扩大和调整可以使LLM更好地回答棘手的问题,比如将异序词“yoiirtsrphaepmdhray”重新排列为“甲状旁腺功能亢进症”。但两种方式与其在基本问题上的进步并不匹配,比如问及“当把24427和7120加在一起时,会得到什么”,LLM继续出错。

    虽然在难题上的表现有所改善,但人工智能系统避免回答任何一个问题的可能性下降了——因为它不能。结果是,错误答案的可能性增加了。

    Hernández-Orallo表示,研究结果突出了将人工智能描述为无所不知的危险,就像它们的创造者经常做的那样,而一些用户太容易相信了。“我们过度依赖和信任这些系统。”他说。

    这是一个问题,因为人工智能模型对自己的知识范围并不诚实。英国牛津大学的Carissa Véliz说:“人类之所以超级聪明,部分原因在于有时我们没有意识到‘知之为知之,不知为不知’,但与大型语言模型相比,我们非常善于意识到这一点。大型语言模型不知道所拥有知识的极限。”
    您需要登錄後才可以回帖 登錄 | 按這成為會員

    重要聲明:本論壇是以即時上載留言的方式運作,比思論壇對所有留言的真實性、完整性及立場等,不負任何法律責任。而一切留言之言論只代表留言者個人意見,並非本網站之立場,讀者及用戶不應信賴內容,並應自行判斷內容之真實性。於有關情形下,讀者及用戶應尋求專業意見(如涉及醫療、法律或投資等問題)。 由於本論壇受到「即時上載留言」運作方式所規限,故不能完全監察所有留言,若讀者及用戶發現有留言出現問題,請聯絡我們比思論壇有權刪除任何留言及拒絕任何人士上載留言 (刪除前或不會作事先警告及通知 ),同時亦有不刪除留言的權利,如有任何爭議,管理員擁有最終的詮釋權。用戶切勿撰寫粗言穢語、誹謗、渲染色情暴力或人身攻擊的言論,敬請自律。本網站保留一切法律權利。

    手機版| 廣告聯繫

    GMT+8, 2024-11-23 05:00 , Processed in 0.018157 second(s), 25 queries , Gzip On.

    Powered by Discuz! X2.5

    © 2001-2012 Comsenz Inc.

    回頂部