AI-科技巨頭冷處理AI所帶來的偏見問題,是否成為新創公司的市場契機

Home - 新創必讀 - AI-科技巨頭冷處理AI所帶來的偏見問題,是否成為新創公司的市場契機

AI-科技巨頭冷處理AI所帶來的偏見問題,是否成為新創公司的市場契機

TAcc+新創分析師 許雅音

 

AI在學習的過程中,隨著餵入的資料屬性,AI也學習到資訊所隱含偏見,有時超出開發者的意料。2020年年底,AI驅動的Genderify被迫關閉、對杜克大學所提出的PULSE AI照片模型的爭議,及Google人工智慧倫理團隊負責人被解雇,造成對於AI的偏見和錯誤的輿論升級。

 

  • 科技巨頭冷處理AI所帶來的偏見,為新創公司帶來市場機會 — 2020年年底,Google AI解雇人工智慧倫理團隊 (Google Ethical AI) 的聯合負責人Timnit Gebru,其原因是Gebru指出Google 使用的 AI 技術是透過學習人為資料而運作,因此很有可能會模仿人類做出偏差行為或是發表仇恨言論,警告 AI 技術的使用必須非常謹慎。遭解雇的原因源於質疑Google所謂的多元化、公平性和包容性的AI運作。目前研究人員提出了兩種機制來考慮如何控制超級智慧AI,第一,是限制超智能的能力,以防止其對人類的傷害;第二,從設計之初就鼓勵AI僅追求符合人類最大利益的目標,例如將道德原則編程其中。研究結果表明,人類尚未有能力控制超級智慧AI。但從Google解雇Gebru,表示領導企業對於AI的態度,還是傾向對商業利益的追求居多。未來,重視人權的國家將陸續立法來探討AI的偏見及錯誤,屆時需要更多元、更適應不同人權需求的AI套件 (Kit) 來補足AI設立存在的問題。建議未來台灣新創公司能夠研究相關國家對AI的立法趨勢,朝往「去除偏見」、「道德適應」等利基市場的AI套件做努力。

 

參考資料:

  • “Will Humans Be Able to Control Superintelligent AI? New Study Says ‘No’,” Synced, 2021