機器學習模型中的偏差(例如 GPT-2 等語言生成系統中的偏差)會以何種方式延續社會偏見?
週二,11 2024月
by EITCA學院
機器學習模型中的偏差,特別是像 GPT-2 這樣的語言生成系統中的偏差,可能會大大延續社會偏見。這些偏見通常源自於用於訓練這些模型的數據,這些數據可以反映現有的社會刻板印象和不平等現象。當這種偏見嵌入到機器學習演算法中時,它們會以各種方式表現出來,從而導致
- 出版於 人工智能 (AI), EITC/AI/ADL高級深度學習, 負責任的創新, 負責任的創新和人工智能, 考試複習