リーテックスの企業ロゴ
PRESS RELEASE
2024.10.17

リーテックス、ローマ教皇庁のAI倫理宣言に共感署名 あいおいニッセイ同和損保、イオンなどとともに、日本企業で初「責任あるAI」の実現目指す

thumbnail

「真実を証明する力」をビジョンに掲げ、ブロックチェーン技術を基に電子署名の革新的サービスを生み出しているリーテックス株式会社(本社:東京都新宿区、代表取締役社長:小倉隆志)は、ローマ教皇庁生命アカデミー、マイクロソフト、IBM、シスコシステムズ、国連食料農業機関(FAO)などが2020年に共同で発表した「Rome Call for AI Ethics」(RCAE、AI倫理についてのローマからの要請)に共感し、イオン、あいおいニッセイ同和損害保険など6社とともに2024年10月8日、東京・九段下において共感署名式を開催しました。日本企業としてRCAEに共感署名※1 したのは初めてのことです。当社が目指す「責任あるAI」の幅広い実現が目的です。

【共感署名式の概要】

日 程 : 2024年10月8日16時10分~17時

場 所 : 九段会館(東京都千代田区)

参加者 : (敬称略)

カトリック教会

秋葉悦子

教皇庁生命アカデミー正会員、

富山大学名誉教授

カトリック教会

Fabrice Rivet

カトリック東京大司教区Andrea Lembo司教の代理出席

立会人

大島葉子

日本マイクロソフト㈱ 執行役員

立会人

Anthony Luna

日本IBM㈱ 取締役執行役員

立会人

濱田義之

シスコシステムズ(同) 代表執行役員社長

立会人

河原淳平

前・警察庁 サイバー警察局長、

リーテックス㈱ 特別顧問

署名者(AIの提供者)

小倉隆志

リーテックス㈱ 代表取締役社長

署名者(AIの提供者)

浜崎正己

㈱メディアインキュベート 代表取締役社長

署名者(AIの開発者)

鈴木麟太郎

Fotographer AI㈱ 代表取締役社長

署名者(AIの開発者)

山並憲司

㈱Smart Opinion 代表取締役社長

署名者(AIの利用者)

山田英司

あいおいニッセイ同和損害保険㈱

専務執行役員

署名者(AIの利用者)

小林哲也

イオン㈱ ブランディング部長

署名者(AIの利用者)

近藤大揮

㈱近藤紡績 代表取締役社長

【経緯、並びに、参加することの当社にとっての意義】

当社は、生成AIを使ったフェイクやなりすましが横行するデジタル上において、人間の意思を反映させる「電子署名」の仕組みを提供し、「人間ならではの場」「人間が責任をとる世界」をつくることに努めてきました。この「人間ならではの場」は、AIを開発する者、提供する者、利用する者それぞれの強い責任と倫理によって支えられる必要があると考えてまいりました。

そのような中、AI倫理を人類愛の見地からとりまとめた「Rome Call for AI Ethics」と出会い、これが世界共通の普遍的AI倫理であると考え、共感いたしました。また、RCAEへの共感の広がりが、当社が目指す「責任あるAI」実現に役立つと考え、複数の企業にお声がけをさせていただいたところ6社から理解をいただき、今般の署名式の実現にいたりました。

※1 Rome Call for Ethicsには賛同署名と共感署名があります。ローマ教皇庁が正式に認めた賛同署名は原則に賛同し実践する義務があるのに対し、共感署名は宣言の理念や目標に対して共感や指示を表明することを意味しますが、具体的な行動の義務は伴いません。

【代表取締役社長 小倉隆志コメント】

生成AIの発展は、どんな状況になっていくのか予想がつかず、また急速な変化をもたらすものと思われます。規制は間に合いませんし、そもそも利用者の利用の仕方の規制は困難です。AIに関するガバナンスは一人一人の倫理観、企業それぞれの行動指針に委ねられている部分が大きいと考えます。この観点から全世界的な普遍性をもつRome Call for AI Ethicsは極めて重要だと考えます。10月8日の共感署名式は第一歩です。今後、弊社も率先して、AIガバナンスについて行動してまいりたいと考えます。

【教皇庁「AI倫理に関するローマからの要請」とは?】

  • ローマ教皇庁生命アカデミーは、2020年2月28日に「Rome Call for AI Ethics」(AI倫理に関するローマからの要請)を公表しました。
  • これは、人類とAIとの共生のための適切な関係を図るために、人格主義的倫理学(人類愛)の立場から、「倫理」「教育」「権利」の3章と、以下6つの原則を示したものです。
  • キリスト教のみならず、諸宗教にも開放されており、実際に賛同署名も多数行われています。

1.透明性

(Transparency)

原則として、AI システムは、説明可能でなければならない。

2.包摂

(Inclusion)

誰もが利益を得ることができ、すべての個人が自らを表現し、発展させるための可能な最善の条件を提供されるよう、すべての人間のニーズが考慮されなければならない。

3.責任

(Responsibility)

AI の使用を設計し、展開する者は、責任とトレーサビリティをもって前進しなければならない。

4.公明正大

(Impartiality)

バイアス〔偏見〕に従って創造または行為しない。かくして公正と人間の尊厳を保護するためである。

5.信頼性

(Reliability)

AI システムは、信頼性をもって作動できなければならない。

6.安全とプライバシー

(Security and privacy)

AI システムは安全に作動しなければならず、ユーザーのプライバシーを尊重しなければならない。

【当日の様子など】