量子データを扱うことを学んだ量子ニューラルネットワーク

ビデオ: 量子データを扱うことを学んだ量子ニューラルネットワーク

Отличия серверных жестких дисков от десктопных
ビデオ: 量子化によるニューラルネットワークのコンパクト化 2023, 1月
量子データを扱うことを学んだ量子ニューラルネットワーク
量子データを扱うことを学んだ量子ニューラルネットワーク
Anonim
Image
Image

物理学者は、人工パーセプトロンの概念を量子システムに一般化し、任意の計算を実行できる量子ニューラルネットワークを開発しました。ニューラルネットワークは、ノイズの多いサンプルでもランダムなマルチキュービット変換を決定する問題で優れた予測能力を示しており、科学者によって提示された教授法は、ディープニューラルネットワークのトレーニングで指数関数的な加速をもたらす可能性があります。 NatureCommunicationsに掲載された作品。

機械学習アルゴリズムは、計算が非常に複雑です。現在、古典的なコンピューターの能力が成長しなくなったとき(ムーアの法則が破られ始めたとき)、学習への新しいアプローチが必要になります。これには、ニューラルネットワークの根本的に異なる実装が必要です。同時に、特定のタスクで従来のコンピューターよりも優れたパフォーマンスを発揮できる量子デバイスにより、量子機械学習の実装が可能になります。

科学者たちは長い間、予測アルゴリズムと量子コンピューティングの共生を使用してきました。たとえば、物理学者は機械学習を使用して、キュービットが構築されている多粒子システムのダイナミクスを予測します。量子コンピューティングは、古典的な学習アルゴリズムの高速化に役立ちます。このような機械学習の1つの領域には、量子データから学習できる量子ニューラルネットワークの構築が含まれます。このようなネットワークを構築するには、科学者は量子システムに人工ニューロンを実装し、ネットワークアーキテクチャと学習モデルを開発する必要があります。

ラモナウルフ教授が率いるハノーバーのライプニッツ大学の物理学者は、フィードフォワードニューラルネットワークを形成するニューロンの古典的なモデルの量子アナログを発表しました。たとえば、このようなネットワークは、ユニバーサル量子コンピューティングを実行できます。

このようなニューラルネットワークの基本ブロックは、古典的な機械学習で使用されるパーセプトロンの類似体である量子パーセプトロンです。パーセプトロンを実装するために、物理学者は、mキュービットの状態をnキュービットの状態に変換するローカルユニタリ演算を使用しました。このような演算には22(m + n)-1個のパラメーターがあります。入力データは、量子ビットの入力層の量子状態を使用し、予測として、科学者は量子ビットの出力層の状態を取得しました。

Image
Image

ユニタリ変換がニューロンとして機能する量子ニューラルネットワークのモデル。

トレーニングには、ニューラルネットワーク操作のメトリックである損失関数を導入する必要があります。これはさらに最小化されます。量子状態は入力データと出力データの役割を果たすため、自然損失関数は逆忠実度であり、特定の量子状態が目的の量子状態にどれだけ近いかを示します。状態が一致する場合、逆信頼性は値0を取り、状態が可能な限り異なる場合、1。ネットワークをトレーニングするために、物理学者は、トレーニングサンプル全体で平均化された信頼性を最大化するために、ローカルユニタリ変換のパラメーターを変更しました。 。

提示されたトレーニング方法の興味深い特徴は、ローカル変換のパラメーターをレイヤーごとに計算できることです。つまり、すべてのキュービットに変換を適用する必要はありません。その結果、変更されたパラメーターの数は、ネットワークの幅(番号mおよびn)。これにより、非常に深いニューラルネットワークのトレーニングが可能になります。

ネットワーク操作の例として、科学者は、次元がネットワークの幅よりも小さい量子状態のランダムな入力および出力ベクトルの限定されたセットからランダム行列を取得する問題を検討しました。ニューラルネットワークは、優れた学習ダイナミクスと、さらに、ノイズの多いデータに対する耐性を示しました。

Image
Image

量子ニューラルネットワークの学習成果。サンプル内のペアの数に応じて、ネットワークの数値シミュレーション(オレンジ色のドット)と理論モデル(紫色のドット)から得られた逆損失関数。挿入図は、ノイズの多いデータに対するネットワークの回復力を示しています。

物理学者によって提示された量子ニューラルネットワークは、予測に必要な中間状態を格納するために必要なキュービットの数を減らすことができますが、損失関数の導関数を推定するには、ネットワークを何度も実行する必要があります。ただし、最新の量子デバイスは非常に高速に計算を実行できます。たとえば、Googleの最近の量子超越性実験では、プロセッサが回路を100万回実行するのにわずか200秒しかかかりませんでした。

以前、Googleは分子をモデル化するためにニューラルネットワークと見なすこともできる変分量子アルゴリズムを使用し、2017年に米国の科学者は、亜鉛ベースの量子ドットを使用して大規模なニューラルネットワークを作成することを提案しました。

トピックによって人気があります