私たちは今、人工知能(AI)の時代に生きています。人工知能は私たちの日常生活に浸透しつつあり、遅かれ早かれ、人間の知能と人工知能を区別するのが難しい共通の現実になるかもしれません。
DeepBrain AI は AI Humans を開発しています。私たちは、デジタルペルソナの延長として、誰もが自分の AI アバターを持つ世界を思い描いています。私たちの AI ヒューマンはメタバースと互換性がありますが、3Dキャラクター以上の存在です。私たちの洗練されたモデルは、本物そっくりに見え、リアルに聞こえ、本物の人間のように表現します。
「バーチャルヒューマン」というフレーズは、もはやサイエンスフィクションではありません。アジアの企業はすでにDeepBrain AIのテクノロジーを使用して、オフィスや自宅で顧客とつながっています。たとえば、AI銀行の窓口担当者は、銀行のキオスクや自宅の携帯電話で簡単にアクセスできます。
AI との出会いが日常茶飯事になりつつあるように、AI の倫理原則についての議論は、世界中の技術コミュニティ、大学、政府で活発に行われています。AI 倫理とは、人工知能を公正かつ安全に使用し、すべての人間の利益のために共存できるようにするための人工知能の開発と使用の原則を指します。
2020年12月、大韓民国の科学・情報通信・未来計画省は、 「人工知能倫理基準」「この新しいAI時代における人工知能の開発と利用の望ましい方向性を提案すること。人類のための人工知能を対象とした倫理基準案は、学界、企業、市民団体のさまざまな専門家から意見を集めて作成されました。
3 つの基本原則は次のとおりです。
人工知能を開発・活用して人類を実現する過程で、
- 人間の尊厳の原則
- 社会における透明性の原則
- 技術の目的の原則は守られなければならない。
主な要件は以下の10項目です。
この3つの基本原則を実践し実行するために人工知能を開発・利用する全過程において、
- 人権保証
- プライバシー保護
- 多様性の尊重
- 侵害なし
- 開放性
- 連帯
- データ管理
- アカウンタビリティ
- 安全性
- 透明性の要件を満たす必要があります。
さらに、韓国の国家人権委員会は最近、人工知能(AI)技術の開発と法規制の制定と改正に関連する人権保護のガイドラインを推奨しました。韓国国家人権委員会が人工知能関連の勧告を行ったのは今回が初めてです。
韓国の国家人権委員会は、「人工知能の開発と普及により個人の生活の質の向上が期待されるが、個人情報の侵害、プライバシー、差別など、人権を侵害する問題が増加している」と述べた。人工知能の開発と利用に関する人権保護基準を作成することが推奨される」
このように、韓国政府はAI倫理の鉄則を開示しているし、企業もAI倫理を作って公開している。義務ではないガイドラインレベルではあるが、効果が出るかどうか疑問が生じることもある。倫理的な問題は事業活動に直接影響するので、それに答えればうまくいくと思います。これは、市場における消費者の水準が高いからです。
では、AI倫理は今後どのように構築されるべきなのでしょうか。
抽象的なガイドラインだけでは効果がないので、AI開発倫理をいくつかの分野に分けて見る必要があります。例えば、チャットボット、メタヒューマン、ディープフェイク、自動運転に分けることができます。より広い視野で、AI 倫理よりも倫理そのものに注目してみてはどうだろうか。DeepBrain AIは、テクノロジーと人が一緒に作り上げるデジタルカルチャーにも取り組んでいます。