タグ

GPUに関するichirokunigoのブックマーク (6)

  • これで分かるOpenCL。NVIDIAのOpenCLセミナーから,OpenCLの正体と可能性を再確認する

    これで分かるOpenCL。NVIDIAのOpenCLセミナーから,OpenCLの正体と可能性を再確認する ライター:米田 聡 速報記事でお伝えしているとおり,2009年10月29日,NVIDIAは東京・秋葉原で開発者向けのイベント「OpenCL seminar〜GPUコンピューティングがもたらすもの〜」を開催した。 OpenCLは,NVIDIAの「CUDA」(Compute Unified Device Architecture)や,DirectX 11の「DirectCompute」などと同じく,GPUコンピューティングを実現する仕組みの一つである。 GPUコンピューティングアーキテクチャとして,自社のCUDAを強力にプッシュしているNVIDIAが,なぜOpenCLなのか。NVIDIAは,開発者向けイベントの冒頭でわざわざ説明したほどなので,それだけ,OpenCLの立ち位置,そしてCUD

    これで分かるOpenCL。NVIDIAのOpenCLセミナーから,OpenCLの正体と可能性を再確認する
  • 後藤弘茂のWeekly海外ニュース

    ■後藤弘茂のWeekly海外ニュース■ KhronosがGDCでGPUやCell B.E.をサポートするOpenCLのデモを公開 ●OpenCLの実装テストのスタートは5月 世界中のゲーム開発者が集まるカンファレンス「GDC (Game Developers Conference)」でKhronos Groupは、ヘテロジニアスな並列コンピューティングのためのプログラミング言語である「OpenCL」のオーバービューのセッションを行なった。 OpenCLは、NVIDIAの「C for CUDA (OpenCLもCUDAのランタイムに落とし込むため、従来の拡張CをベースにしたCUDAはC for CUDAと呼ぶようになった)」のように、GPUを汎用コンピューティングに使うことができるプログラミング言語だ。しかし、NVIDIA独自のC for CUDAとは異なり、クロスプラットフォームのプログラ

  • NVIDIA、恒例となった高校生向けCUDAセミナーを開催

  • 高校生のための NVIDIA CUDA サマーキャンプ 2012 8/30 thu. | NVIDIA

    CUDA Zone CUDA® is a parallel computing platform and programming model developed by NVIDIA for general computing on graphical processing units (GPUs). With CUDA, developers are able to dramatically speed up computing applications by harnessing the power of GPUs. In GPU-accelerated applications, the sequential part of the workload runs on the CPU – which is optimized for single-threaded performance

    高校生のための NVIDIA CUDA サマーキャンプ 2012 8/30 thu. | NVIDIA
  • GPGPU - Wikipedia

    GPGPU(General-purpose computing on graphics processing units; GPUによる汎用計算)とは、GPUの演算資源を画像処理以外に応用する技術である[1][2]。ビッグデータなどに対し大量の科学技術計算などを実行できるため、広く使われるようになった[3]。2022年、単一マシンとしては世界初のエクサスケールコンピュータとなった米HPEの「フロンティア」にもベクトル計算用にAMDGPUが搭載されるなど、世界最速を競うスーパーコンピュータでの利用も一般的である。 GPGPUは、GPUが持つベクトル計算機としての特性を活かした汎用的なストリーム・プロセッシングの一形態である。GPUはコンピュータゲームで多用されるリアルタイム画像処理向けのデータ並列計算とパイプライン処理に特化した命令発行形態を持ち、またGPUとメインメモリ間の帯域幅は通例狭

  • CUDA - Wikipedia

    CUDA(Compute Unified Device Architecture:クーダ)とは、NVIDIAが開発・提供している、GPU向けの汎用並列コンピューティングプラットフォーム(並列コンピューティングアーキテクチャ)およびプログラミングモデルである[4][5][6]。専用のC/C++コンパイラ (nvcc) やライブラリ (API) などが提供されている。なおNVIDIA製GPUにおいては、OpenCL/DirectComputeなどの類似APIコールは、すべて共通のGPGPUプラットフォームであるCUDAを経由することになる[7]。 CUDAの処理の流れ 1. メインメモリ(ホストメモリ)からデータをGPU用メモリ(デバイスメモリ)にコピーする。 2. CPUGPUに対して処理を指示する。 3. GPUが必要なデータを取り込み各コアで並列実行する。 4. 結果をGPU用メモリか

    CUDA - Wikipedia
  • 1