隨著越來越多的人發現 OpenAI 的 DALL-E 等工具的力量,人工智能繼續成為頭條新聞2 尤其是ChatGPT。這些看似未來的工具通過接受人類的查詢或提示並返回智能文本或視覺響應來工作。

從企業的角度來看,人工智能的採用正在迅速增長。據 Forrester 稱,花在 AI 軟件上的支出將從 2021 年的 330 億美元加速到 2025 年的 640 億美元——增長速度是原來的兩倍作為整個軟件市場。但是,儘管像 ChatGPT 這樣的工具看起來很神奇,但重要的是要了解這些解決方案並不完美。

企業領導者尤其應該抓住他們提出的最緊迫的問題之一:AI 偏見。也稱為算法偏差,AI 偏差發生在人類偏差進入算法時。這些偏見可能是預先存在的;當人類程序員創建算法時,他們可能會無意(甚至有意)選擇有限範圍的輸入數據,或者從有偏見的來源輸入數據。由於所使用的特定算法的局限性,也可能會出現 AI 偏差。

AI 偏見也不是少數人關注的問題。超過 50% 的組織 擔心人工智能偏見可能會損害他們的業務。但問題到底是什麼,企業為什麼要關心?

AI 偏見的影響

一般來說,產生攻擊性結果的 AI 可以歸因於人工智能學習的方式,以及它使用的數據集。如果數據以特定方式高估或低估了特定人群,人工智能將重複這種偏見,生成更多數據,進一步污染數據源及其自身的決策。

採取Allegheny Family 篩選模型的案例,這有助於決定一個孩子是否應該因為虐待而離開家庭。在這裡,這種偏見反映了更廣泛的社會偏見:該模型的訓練數據集僅包含公開可用的數據,這意味著它忽略了能夠負擔得起私人護理提供者的家庭。同樣,在醫療保健領域,出現了檢測黑色素瘤的人工智能軟件不太可能適用於膚色較深的人,因為用於訓練該軟件的許多數據集僅使用來自歐洲、北美和大洋洲的圖像。

在英國的背景下,2022 年在英國醫學雜誌上發表的一項由英國政府支持的研究發現 AI 模型用於通過血液檢查識別肝病高危人群,女性漏診疾病的可能性是男性的兩倍。最後, 2019 年加州大學伯克利分校的一項研究發現,AI 曾用於分配患者護理黑人患者的風險評分低於白人患者,儘管黑人患者在統計上更有可能患有合併症,因此實際上經歷了更高水平的風險。

由於這些不平等,公司可能會面臨嚴重的聲譽損失。事實上,最近一項針對英國和美國 IT 主管的調查 發現 36% 的企業受到 AI 偏見的負面影響,導致收入和客戶損失。同一項調查發現,失去客戶信任被視為 AI 偏見引起的主要風險,超過一半 (56%) 的高管提到了這一點。

雖然有些人認為 ChatGPT有可能削弱谷歌在搜索引擎領域的主導地位——甚至完全篡奪谷歌——像伯克利研究這樣的案例對此提出了質疑。事實上,谷歌的 AI 負責人 Jeff Dean 已經按照這些思路駁回了 ChatGPT 的潛在威脅, 表明人們普遍信任 Google 搜索結果的完整性

解決 AI 偏見

消除人類判斷中存在的偏見是一項艱鉅的任務,正如社會科學家所說,偏見可能是人類不可避免的特徵 大腦。值得慶幸的是,可以減少和減輕數據集中的偏差。

數據科學家必須接受培訓,以更好地管理他們使用的數據,並確保在收集和清理這些數據時遵循道德規範。他們還應該努力保存和推廣高質量的數據。

至於特定群體的代表性不足,這裡最好的解決辦法是透明度。通過確保數據“開放”並可供盡可能多的數據科學家使用,我們可以確保更多不同的人群可以對數據進行採樣並指出固有的偏見。利用這些經驗,我們還可以構建可以“訓練培訓師”的 AI 模型,可以這麼說,在識別有偏見的數據時。

更進一步,也有助於刪除與受保護信息相關的其他數據,例如郵政編碼,可用於排除某些人口統計數據。

整體方法

AI 偏見可能具有對企業造成嚴重後果,正如我們所見,這些後果很容易蔓延到更廣泛的社會。後果是否是對人工智能的普遍不信任;糟糕的商業決策;或損害整個社區福祉的決策,全社會必須齊心協力解決 AI 偏見。

數據科學家、企業領導者、學術界和政府機構有責任共同努力:自由和公開地共享數據到達我們可以更加信任人工智能的地步。很簡單,人工智能偏見太複雜、太重要,無法通過任何其他方式解決。

圖片來源: Wayne Williams

Ravi Mayuram 是首席技術官,Couchbase

By Henry Taylor

我是後端開發人員。 你們中有些人可能在開發者大會上見過我。 最近我一直在做一個開源項目。