社会的に認知されたAI機械学習の未来とは

Blog

AIの機械学習におけるアルゴリズムの正確性と機能向上は関心が高まっている。
機械学習アルゴリズムは社会的に重要な法的決定などに対する大きな責任を与えられているため、 プライバシー・バイアス・偽情報・フィルターバブル・透過性などの課題も多く、それらを克服することが求められている。
AIエンジニアはアルゴリズムの能力向上に取り組んでおり、その成果として、以前は「ブラックボックス」と揶揄されていた謎が多く不明瞭なイメージを払拭するまで発展を遂げたのである。

ソフトウェアエンジニアとデータサイエンティストは日常のオンラインアクティビティに関わるアルゴリズムを研究し、社会的に認知された構造のものを使用している。
データサイエンティストは「差分プライバシー」という手法を用い、あえてランダムな「ノイズ」をデータセットに加えることで、データの匿名化によるユーザーのプライバシー保護を行っている。

上記の公平性条件は公平で偏りのない証拠を構築するために必要なものである。
短期的にはアルゴリズムの「ユーティリティ」とエラー率にコストがかかるという問題点もある。

しかし長期的な視点で見れば、機能学習が公平で体系的な意思決定とプライバシーの保護を行うためには社会的に認知されたアルゴリズムが必要不可欠であると考えられている。
AIの機械学習が公平で体系的な意思決定とプライバシーを保護することは、人類の未来において必要不可欠な課題といえるだろう。

 

AI(人工知能)は私たちの生活に関わる機会も増え、それに伴い社会の関心も高まっている。
とはいえ機械学習にはまだ問題点も多く、内部動作の曖昧さに加えてプライバシー保護の観点も今後の課題であるといえる。

データには個人のプライバシーが含まれており、有用性を確保しながらも個人の情報を開示しない安全性の保証が必要である。

しかしながら有益な情報を得るためにはデータは詳細なものとなり、個人の詳細なプライバシーまでも暴かれるリスクが高くなってしまうという問題点がある。

この問題を克服するために必要不可欠なアルゴリズムが「差分プライバシー」である。
差分プライバシーは特定の攻撃のみに対応した安全性ではなく、任意の攻撃に対して安全性を保証するために構築された安全性指標である。
データの有用性を高めるためにメカニズムの改善や向上が行われている。
データから有益な情報を得ることとプライバシーの保護の両立は極めて難しい課題であるが、差分プライバシーが活用できれば、組織から個人まで焦点を当てた詳細なデータから深い洞察を得られるようになるであろう。

今後あらゆる分野の事業や技術が発展していくためには有益なデータからの深い洞察が必要不可欠であり、AIの機能学習アルゴリズムに対する需要は増していくことだろう。
優れたAIエンジニアの取り組みによって、データにおける個人のプライバシーを保護するための社会的に認知されたアルゴリズムがさらなる向上を遂げていくことに期待したいものである。

参考:Socially aware algorithms are ready to help.

タイトルとURLをコピーしました