Hiroki Naganuma

TLDR

Fairness は分布シフトの一部として解釈可能。特定のグループのみ(倫理とか関係なく、たとえば、牧草地にいるラクダや、砂漠にいる牛など)性能が劣化したり影響を受けるような分布シフトを Fairness の課題として扱う。

Introduction

機械学習の世界では、まだ見たことのないデータに対してもうまく汎化できるモデルを構築するという課題に常に取り組んでいます。分布シフト、つまりモデルが現実世界で遭遇するデータが学習データと異なる場合、一般的な障害となります。しかし、時には分布シフトがもう一つの重要な懸念事項、つまり公平性と絡み合ってきます。この関係性を、Waterbirds dataset の事例を使って以下に説明する。

The Waterbirds Conundrum

Waterbirds dataset は、画像分類、特に水鳥と陸鳥を区別するために設計されています。 このデータセットには潜在的なバイアスがあります。水鳥の画像には「水」の背景が頻繁に写っており、一方、陸鳥の画像には「陸」の背景がよく見られる。 この強い相関関係は、鳥そのものに固有のものではなく、むしろ画像の収集方法による人工的なものである。

Why “Fairness” in Waterbirds? It’s About Group Disparities

一見すると、これは単純な分布シフトのケースのように思えるかもしれません。 もしモデルがこれらの背景バイアスのある画像で学習され、 その後、陸にいる水鳥(または水辺にいる陸鳥)に遭遇した場合、誤分類する可能性があります。 「Fairness」はどこから来るのか?

公平性の懸念は、この背景バイアスがデータ内に暗黙のグループを作り出すために生じます。 次のシナリオを考える。

重要なのは、これらのグループ間の性能格差です。 モデルは一様に失敗しているのではなく、鳥の種類と背景の特定の組み合わせに対してより頻繁に失敗しているのです。 この不均一な性能は、スプリアスな相関関係によって引き起こされ、議論に公平性の概念を持ち込む。 モデルは、すべての「水鳥らしさ」または「陸鳥らしさ」を平等に扱っているわけではありません。 倫理の問題は必ずしも公平性の問題の必要条件ではない。

Distribution Shift vs. Fairness: The Spurious Correlation Distinction

Fairness は通常の分布シフトの問題と何が違うのでしょうか? その違いは、汎化性能の失敗の原因にあります。

When Distribution Shift Isn’t a Fairness Problem: Some Examples

分布シフトが必ずしも公平性の懸念を引き起こさない例を以下に示す。

これらのケースでは、性能の低下は入力データの変化による一般的な結果であり、 モデルが特定の部分集団を不利にするためにスプリアスな相関関係を利用した結果ではありません。

Fairness Problem: Some Examples

最初の二つは密接に関連するが、着目してるとこが違う。 少数派グループへの影響は、グループ間の性能格差の一つの現れ方と捉えることができます。 つまり、少数派グループの性能が低いことが、グループ間の性能格差を生み出す要因となることが多い。

具体例

Other Materials

Computer Vision

Screenshot 2022-07-03 at 11 01 42 PM Screenshot 2022-07-03 at 11 01 53 PM Screenshot 2022-07-03 at 11 01 02 PM

Reference