倫理-AI活用の“肝”【寄稿】サウジ・データAI庁(SDAIA) マジェド・アル・シェリ
人工知能(AI)のイノベーションが急速に進む中、強固な倫理ガイドラインと責任あるガバナンスを整備する必要性がかつてないほど高まっている。潜在的なリスクからの保護という観点から、AIの進歩を社会的価値観に沿う形で進めることが何よりも重要だ。AIの活用範囲を倫理的活動に限定するためには人間の指示が必要であり、厳格な基準なしでは、特に機械学習モデルや自動化された意思決定プロセスを悪用することで、AIシステムがアルゴリズムによるバイアスを不用意に埋め込み、社会的格差を悪化させることになりかねない。
世界的な懸念
世界的機関の間では、特に包括的な規制のガイドラインがない場合におけるAI関連の倫理的リスクに対する認識が高まりつつある。そんな中、潜在的な損失を防ぎ、AI技術の責任ある使用を担保することを目的とした、国際的な基準や枠組みを開発する動きが拡大し始めた。
国連教育科学文化機関(ユネスコ)のAI倫理勧告は、こうしたテクノロジーが格差をさらに広げ、プライバシーを侵害し、人権を脅かし、差別的な結果をもたらす可能性を強調している。同時に、先日開催されたAIの倫理について議論する国際会議Global Forum on the Ethics of AIでは、AIは公平性、包摂性、人間の尊厳の尊重を保証する方法で管理されなければならないことが力説された。
こうした懸念から、潜在的なバイアスに対処するとともに透明性を確保するための、差分プライバシー、公平性を考慮した機械学習、説明可能なAI(XAI)などの枠組みの開発が進められている。
リスクに直面する業界
AIとそれに対応するテクノロジーの進歩が、教育や文化的体験、科学研究のあり方など、私たちの日常生活に革命をもたらしていることは明らかだ。
この記事は会員限定です。
会員登録後、ログインすると続きをご覧いただけます。新規会員登録は画面下の登録フォームに必要事項をご記入のうえ、登録してください。