人工智慧有可能改變健康,但我們希望確保不讓任何人掉隊。以下是我們將健康公平嵌入 AI 模型的四種重要方式。
我成為一名醫生,因為我知道醫療保健應該比我的家人在我成長過程中為父親爭取更高品質的護理時所經歷的要好。那次經歷使我努力確保每個人都能獲得有尊嚴和尊重的護理。
作為谷歌的首席健康公平官,我親眼目睹了人工智慧技術如何有可能識別和解決醫療保健領域的現有偏見,並促進健康領域的公平。但是,如果不負責任地進行,這些創新也有可能加劇不平等。為了確保這種情況不會發生,我們確定了四種方式,將健康公平納入我們的工作,並以大膽和負責任的方式推動人工智慧向前發展,以幫助人們過上更健康的生活。
採用基礎方法進行股權研究
為了反映歷史上被邊緣化的人和社區的經歷,我們首先將基本的健康公平方法(如基於社區的參與式研究 (CBPR) 納入我們的設計和評估方法。同樣重要的是,瞭解使用者的社會背景,如文化、歷史和經濟環境,以幫助我們構建更適合每個人的解決方案。我們多年來在產品中構建更公平的 AI 模型的經驗的一個例子是,我們使用 AI 查看更多膚色,這有助於我們創建適合所有人的相機功能。做對需要用心,但做錯了很容易導致傳播不公平的偏見。
優先考慮數據中的多樣化表示
從歷史上看,臨床試驗研究缺乏多樣性,在尋找預防、檢測或治療疾病的新方法時,將歷史上被邊緣化的人群排除在醫學的重要一步之外。這就是為什麼我們努力使我們的數據收集和管理過程具有包容性和公平性,並深入思考模型開發和評估過程,在過程中,我們考慮哪些數據進入大型語言模型以及如何評估其性能。今天的問題是,當涉及到數據中的多樣化表示時,沒有標準,這就是為什麼我們與更廣泛的人工智慧研究社區合作,以確定最佳實踐。我們正在努力理解和更好地治療疾病的一種方法是通過基因組測序,但我們幾十年來一直在使用的地圖是一個單一的基因組序列,並不代表人類的多樣性。今天,我們正在與美國國立衛生研究院(NIH)和其他機構合作開展泛基因組專案,以擴大我們對使我們所有人都成為獨特人類和不同的代碼的看法。 第一個泛基因組版本包括47名不同血統的人,我們正在與NIH合作,以實現明年100人擁有儘可能高品質序列的目標。
在實際用例中考慮健康公平性
歷史上使用不完整和有偏見的數據會加劇歷史上被邊緣化的人群受到傷害和偏見的風險。為了糾正這一點,我們需要仔細考慮如何在實踐中使用人工智慧系統。將大型語言模型 (LLM) 的評估建立在可用於反映邊緣化人群經歷的特定真實用例中,是減少這些問題並有望提高公平性的重要因素。在整個 Google 中,我們一直在努力提高公平性,降低偏見風險,並朝著公平的方向發展,同時不斷提高模型的性能。其中一些工作,在《自然》雜誌的一篇文章中重點介紹了我們如何將這些方法應用於醫學領域的 Med-PaLM LLM。
促進包容性合作
一個人生活、工作或上學的地方會影響他們的健康。為了創建有用的生成式人工智慧模型,我們需要能夠識別和理解這些社會驅動因素。要做到這一點,就必須與社會和行為科學、政策或教育等不同領域的專家進行合作。通過與Google 的負責任 AI 團隊及其公平 AI 研究圓桌會議 (EARR) 計劃合作,我們能夠採用多學科方法來瞭解 AI 對歷史上被邊緣化社區的影響,並將這些見解應用到我們的工作中。
我們在人工智慧和健康公平交叉領域的工作是一個持續的旅程,我們認識到需要責任和問責制。我們必須有意識地將這些努力集中在邊緣化人群身上,以建立使醫療保健更加公平並解決歷史偏見的解決方案。這項工作需要時間和意圖。我們的目標不是快速行動,而是把事情做好;替代方案不是一種選擇。
以上內容來自 [ Google Blog ] blog.google/technology/health/health-equity-and-generative-ai