韓国・カカオトーク運営会社が「AI倫理憲章」を自主発表

ロボティア編集部2018年2月1日(木曜日)

メッセンジャーアプリ「カカオトーク」で有名な韓国IT大手・カカオが、韓国のAI開発企業として初めて人工知能に関する倫理規範を発表した。

1月31日、カカオは「カカオアルゴリズム倫理憲章」(以下、憲章)を発布。憲章では、AI技術の目標や各社会階層に対する意図的な差別の防止、データの収集・管理の原則、アルゴリズムの説明義務などが盛り込まれた。

具体的には、まずAI技術の目標を「人類の利益と幸福追求」と定義。次いで、AIデータ分析を通じた社会弱者への意図的な差別に警戒しなければならないとした。一方、プライバシーへの懸念が提起され続けている人工知能の学習データ(ウェブの活動記録、音声など)については、社会倫理に基づいて収集・分析・活用していくと強調した。そして、アルゴリズムは、特定の個人や勢力によって恣意的に毀損もしくは歪曲されてはならず、企業の競争力を損なわない範囲内で、アルゴリズムの内容を国民に誠実に説明し透明性を確保するという原則を提示した。

今回の憲章はカカオのウェブサイトに掲載されており、同日に発刊されたオンラインマガジン「カカオAIリポート1月号」には、解説が掲載されている。

カカオ代表のイム・ジフン氏は「カカオの原則と哲学を踏まえ、アルゴリズムの開発および運営に関する意志を表明した(中略)社会が要求する倫理意識を備えたAI企業になるために、すべてのメンバーが地道な努力を傾けていくと」と話している。

人工知能やITに関連する業界では、ここ数年間、技術の飛躍的な発展に備え、倫理的な規約をつくらなければならないという指摘が相次いできた。AIが他の技術とは異なり、人間のコントロールを超えてしまう可能性があり、研究開発の段階から社会的・道徳的な暴走を防止する装置が必要であるという趣旨からだ。

参照サイト