日立製作所、「AI倫理原則」を策定

NO BUDGET

2021-02-24 14:03

 日立製作所は、「Lumada」を中心とした社会イノベーション事業において、人間中心のAI(人工知能)を開発、社会実装するために「AI倫理原則」を策定した。

 同社は、社会イノベーション事業において、社会インフラに直結する OT(制御・運用技術)領域では、AI社会全体や人命に関わる重大な影響を及ぼすリスクがあり、IT領域ではAIの開発を誤れば差別や偏見、格差を助長する恐れがあるとしている。そこで、これらの課題を深く自覚し、AIの開発や社会実装に内在する倫理的リスクを抑制するため、独自のAI倫理原則を策定した。

 具体的には、「計画」「社会実装」「維持管理」の3つのフェーズにおける「行動規準」と、全てのフェーズに共通する7つの「実践項目」を定め、この原則に基づき、AIを利用していく。

 行動基準では、1.「持続可能社会実現のために、AIの開発、利活用を計画します」2.「人間中心の視点で、AI を社会実装します」、3.「提供価値が長期間にわたり持続するよう、AI を維持管理します」が掲げられている。また実践項目では、安全重視、プライバシー保護、公平性実現、適正開発・利活用、透明性・説明責任重視、セキュリティ重視、法令順守が掲げられている。

 同社では、AI倫理原則に先立ち、2014年にプライバシー保護対策を統括する「パーソナルデータ責任者」「プライバシー保護諮問委員会」を設置し、消費者意識の変化や社会的許容度などを捉えながら、多種多様なデータ利活用案件に対してリスク評価・対策を支援してきた。さらに6年間で700件以上のプライバシー影響評価を実施するなどさまざまな運用のノウハウを蓄積している。

 現在、社会イノベーション事業における先進の協創プロジェクトが多く集まる「Lumada Data Science Lab.」を中心に、「AI 倫理原則」をもとにしたチェックリストを活用することで、AI の利活用目的の確認や社会実装へのリスク評価、対応策立案など具体的な運用を開始している。また、対応策の一つとして、「Explainable AI(説明するための技術)」の適用なども積極的に行っている。

 今後は、AI倫理の確立に向けた取り組みをホワイトペーパーとして公開することで、社会全体での議論活性化に貢献するとともに、ステークホルダーの多様な意見を取り入れながら、継続的に検討し、内容や運用の改善、啓発を図っていくという。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]