中文字幕大香视频蕉免费丨国产精无久久久久久久免费丨亚洲色大成成人网站久久丨网站黄在线丨把少妇弄高潮了www麻豆丨极品少妇xxxx精品少妇小说丨国产成人免费看一级大黄丨伊人激情丨狠狠插av丨久久综合九色欧美综合狠狠丨国产成人8x视频网站入口丨天堂av资源丨国产九一精品丨av网天堂丨久久久久久久久久久免费av丨免费看国产zzzwww色丨国产 日韩 欧美 制服丝袜丨日本黄色录相丨久久精品99久久久久久2456丨亚洲精品无码人妻无码丨黄色免费视频丨三级毛片国产三级毛片丨亚洲精品久久午夜麻豆丨亚洲网站免费观看丨日本三级全黄少妇三2020

歡迎訪問深圳市中小企業公共服務平臺電子信息窗口

專家警告:AI系統的可解釋性存在欺騙可能

2025-07-30 來源:科技日報 原創文章
567

關鍵詞: 可解釋人工智能 X - hacking 自動化機器學習 P - hacking 特征重要性

德國人工智能研究中心(DFKI)研究團隊在日前召開的國際機器學習大會上報告稱,在可解釋人工智能(AI)領域,“X-hacking”是一個此前被普遍忽視的風險,并呼吁批判性和反思性地使用自動化機器學習(AutoML)工具。

圖片來源:princeea網站

  如果AI系統作出了正確預測,但卻以完全不同的方式解釋其得出的這些結果,會發生什么?DFKI數據科學團隊介紹了“X-hacking”給AI可信度帶來結構性風險的研究成果。

  X-hacking一詞源于統計學中的P-hacking。所謂P-hacking指的是研究人員可通過一些數據操作技巧,在統計學上得出一個有顯著意義的結果,即使這個結果實際上并無意義。這相當于一種數據篡改,可能會導致發布假陽性結果。

  相應的X-hacking描述了兩種核心機制:一是Cherry-picking,即從眾多同樣優秀的模型中,精心挑選出解釋能力最強、最能支持預期結果的模型;二是定向搜索,AutoML系統不僅能優化預測性能,還能精準地找到具有特定解釋模式的模型。但這里面存在的風險往往被低估。

  即使模型得出的結果幾乎相同,所謂的特征重要性也可能存在巨大差異。這在醫學研究或社會科學等應用領域尤為敏感,因為在這些領域,可解釋的模型通常構成關鍵決策的基礎。

  AutoML代表了開發、選擇和優化機器學習模型的自動化流程。軟件工具接管了許多以前只有經驗豐富的機器學習工程師才能完成的任務,例如選擇合適的模型架構、數據預處理和超參數優化等。在醫學、工業或社會研究等數據密集型領域,AutoML有望實現更快的開發速度、更低的進入門檻和可重復的結果。

  然而,這種自動化使得人們難以理解模型決策的制定方式,這是可解釋AI的一個關鍵問題。因此,DFKI研究團隊建議,使用AutoML的學科應該意識到方法的風險,而不僅僅只是信任軟件。