Bibliothèques écrites en Cuda

instant-ngp

Primitives graphiques neuronales instantanées: NeRF ultra-rapide et plus encore.
  • 13.4k
  • GNU General Public License v3.0

deep-high-resolution-net.pytorch

Le projet est une mise en œuvre officielle de notre article CVPR2019 "Apprentissage profond de la représentation à haute résolution pour l'estimation de la pose humaine".
  • 4.1k
  • MIT

cub

Primitives coopératives pour CUDA C++. (par Nvidia).
  • 1.5k
  • BSD 3-clause "New" or "Revised"

cugraph

cuGraph - Bibliothèque d'analyse de graphes RAPIDS.
  • 1.3k
  • Apache License 2.0

blocksparse

Noyaux GPU efficaces pour la multiplication et la convolution de matrices clairsemées de blocs.
  • 948
  • MIT

k2

Algorithmes FSA/FST, différentiables, avec compatibilité PyTorch.
  • 927
  • Apache License 2.0

nv-wavenet

Implémentation de référence de l'inférence wavenet autorégressive en temps réel.
  • 700
  • BSD 3-clause "New" or "Revised"

nvParse

Analyseur CSV rapide basé sur GPU.
  • 550
  • Apache License 2.0

instant-ngp-Windows

Primitives graphiques neuronales instantanées: NeRF ultra-rapide et plus encore.
  • 458
  • GNU General Public License v3.0

nccl-tests

Tests NCCL.
  • 436
  • BSD 3-clause "New" or "Revised"

MegBA

MegBA: une bibliothèque distribuée basée sur GPU pour l'ajustement de bundles à grande échelle.
  • 368
  • Apache License 2.0

raft

RAFT contient des algorithmes et des primitives fondamentaux largement utilisés pour la science des données, les graphes et l'apprentissage automatique. (par rapidsai).
  • 278
  • Apache License 2.0

dietgpu

Implémentation GPU d'un encodeur et d'un décodeur d'entropie ANS (système numérique asymétrique) rapide et généralisé, avec des extensions pour la compression sans perte de types de données numériques et autres dans les applications HPC/ML.
  • 247
  • MIT

TorchPQ

Recherche approximative du voisin le plus proche avec quantification du produit sur GPU dans pytorch et cuda.
  • 173
  • MIT

Lantern

  • 163
  • BSD 3-clause "New" or "Revised"

RWKV-CUDA

La version CUDA du modèle de langage RWKV (https://github.com/BlinkDL/RWKV-LM).
  • 113

cuhnsw

Implémentation CUDA de l'algorithme Hierarchical Navigable Small World Graph.
  • 88
  • Apache License 2.0

CUB

CE RÉFÉRENTIEL A DÉMÉNAGÉ VERS github.com/nvidia/cub, QUI EST AUTOMATIQUEMENT EN MIROIR ICI..
  • 71
  • BSD 3-clause "New" or "Revised"

array-language-comparisons

Une comparaison des langages et bibliothèques de tableaux: APL, J, BQN, Q, Julia, R, NumPy, Nial, Futhark, SaC et ArrayFire.
  • 60
  • MIT

mish-cuda

Fonction d'activation Mish pour PyTorch (par JunnYu).
  • 48
  • MIT

rocm-examples

  • 39
  • MIT

xgboost-node

Exécutez le modèle XGBoost et faites des prédictions dans Node.js.
  • 33
  • GNU General Public License v3.0

CUDA-Guide

CUDA Guide.
  • 29

kobra

Moteur de jeu orienté recherche explorant les techniques de rendu de pointe (par vedavamadathil).
  • 21

CryptoGPU

Analyse des prix des crypto-monnaies.
  • 16

LSQR-CUDA

Il s'agit d'une implémentation LSQR-CUDA écrite par Lawrence Ayers sous la supervision de Stefan Guthe de l'institut GRIS de la Technische Universität Darmstadt. La bibliothèque LSQR a été créée par Chris Paige et Michael Saunders.
  • 11
  • MIT

SBNN

Réseau neuronal binarisé singulier basé sur les opérations binaires GPU (voir notre article SC-19).
  • 10
  • GNU General Public License v3.0

GCGT

Code source de l'article: Traversée de graphes compressés basée sur GPU.
  • 7
  • MIT

FirstCollisionTimestepRarefiedGasSimulator

Ce simulateur calcule toutes les intersections possibles pour un très petit pas de temps pour un modèle particulaire.
  • 2

DOKSparse

tenseurs DOK clairsemés sur GPU, pytorch.
  • 1
  • MIT