OpenAI、ChatGPTの製作者は、安全なAIシステムの開発に取り組むことを約束します。

イメージ1.png

OpenAIは新しいブログ記事を公開し、安全で広く利益のある人工知能(AI)の開発に取り組むことを約束しました。

ChatGPTは、OpenAIの最新モデルであるGPT-4を利用しています。ChatGPTは生産性を向上させ、創造性を高め、カスタマイズされた学習体験を提供することができます。

ただし、OpenAIはAIツールには潜在的なリスクがあることを認識しており、安全対策と責任ある展開を通じて取り組む必要があると認識しています。

会社がこれらのリスクを軽減するために行っている対策は以下の通りです。

AIシステムの安全性を確保する

OpenAIは新しいシステムを公開する前に、徹底的なテストを行い、専門家からの外部のガイダンスを求め、人間のフィードバックを受けてAIモデルを改善しています。

GPT-4のリリースは、ユーザーのニーズとの整合性と安全性を確保するため、例えば6か月以上にわたるテストが行われました。

OpenAIは、堅牢なAIシステムを厳格な安全評価の対象とすべきであり、規制の必要性を支持しています。

リアルワールドの使用から学ぶ

リアルワールドでの使用は安全なAIシステムの開発において重要な要素です。OpenAIは新しいモデルを徐々に拡大するユーザーベースにリリースすることで、予期しない問題に対応する改善を行うことができます。

OpenAIは、APIとウェブサイトを通じてAIモデルを提供することで、誤用を監視し、適切な対策を講じ、リスクをバランスさせるために緻密な方針を開発することができます。

子供の保護とプライバシーの尊重

OpenAIは、年齢確認を求め、有害なコンテンツを生成するために技術を利用しないようにし、子供の保護を最優先に考えています。

プライバシーは、OpenAIの取り組みにおける別の重要な側面です。この組織は、ユーザーのプライバシーを保護しながら、モデルをより役立つものにするためにデータを使用しています。

また、OpenAIはトレーニングデータセットから個人情報を削除し、モデルを微調整して個人情報の要求を拒否します。

オープンAIは、システムからの個人情報の削除リクエストに応じます。

事実の正確性を向上する

事実の正確さはOpenAIの重要な焦点です。GPT-4は、前作のGPT-3.5よりも正確なコンテンツをよりよく生成する可能性が40%高いです。

組織は、AIツールの限界と不正確性の可能性について、ユーザーに啓蒙を図っています。

継続的な研究と参加

OpenAIは、効果的な緩和策と調整技術の研究に時間とリソースを注ぎ込むことを信じています。

ただし、それは単独で行えるものではありません。安全問題に取り組むには、関係者間での広範な議論、実験、および参加が必要です。

OpenAIは、安全なAIエコシステムの創出のために、協力とオープンな対話を重視しています。

存在のリスクに関する批判

OpenAIのAIシステムの安全性と広範な利益を確保するという取り組みにもかかわらず、このブログ投稿に対してソーシャルメディア上で批判が起こりました。

Twitterのユーザーは、OpenAIがAIの開発に関連する存在的なリスクに対処していないとして失望を表明しました。

あるTwitterユーザーは、OpenAIが創設時の使命を裏切り、無謀な商業化に焦点を当てているとして、失望の意を表明しました。

ユーザーは、OpenAIの安全対策は表面的であり、本当の存在の危険に対処するよりも批判者を安心させることに重点を置いていると指摘しています。

これは悲しいがっかりです、中身のないPRのような見掛け倒しです。

多くの市民、技術者、AI研究者、AI業界のリーダー、そしてあなた自身のCEOである @sama を含む多くの人々が懸念しているAIによる存亡の危険についてさえ触れていません。@OpenAIは裏切っています...

— Geoffrey Miller (@primalpoly) 2023年4月5日

別のユーザーは、発表に不満を表明し、実際の問題をあいまいに扱っていると主張しています。このユーザーはまた、報告書がAIの自己認識に関連する重要な倫理的問題やリスクを無視していることを指摘し、OpenAIのセキュリティ問題に対するアプローチが不十分であるとほのめかしています。

GPT-4のファンとして、あなたの記事に失望しています。

それは現実の問題をうやむやにし、曖昧さを残し、AIの自己認識に関わる重要な倫理的問題やリスクを無視しています。

イノベーションには感謝していますが、これはセキュリティの問題に取り組む正しいアプローチではありません。

— FrankyLabs (@FrankyLabs) 2023年4月5日

その批判は、AIの開発によって引き起こされる存在のリスクに関するより広範な懸念と継続的な議論を強調しています。

オープンAIの発表では、安全性、プライバシー、正確性への取り組みが明記されていますが、より重要な懸念に対処するためのさらなる議論が必要であることを認識することが重要です。

関連記事

もっと見る >>

HIX.AI で AI の力を解き放ちましょう!