Bibliothèques écrites en Jupyter Notebook

neural-tangents

Réseaux de neurones infinis rapides et faciles en Python.
  • 2.1k
  • Apache License 2.0

GPEN

  • 2.0k

carefree-creator

Les magies de l'IA rencontrent le tableau de dessin infini.
  • 2.0k
  • MIT

FinanceDatabase

Il s'agit d'une base de données de plus de 300 000 symboles contenant des actions, des ETF, des fonds, des indices, des devises, des crypto-monnaies et des marchés monétaires.
  • 2.0k
  • MIT

awesome-notebooks

Modèles de données et d'IA prêts à l'emploi, organisés par outils pour démarrer vos projets et produits de données en quelques minutes. 😎 publié par la communauté Naas..
  • 2.0k
  • BSD 3-clause "New" or "Revised"

zero-to-mastery-ml

Tous les supports de cours pour le cours Zero to Mastery Machine Learning et Data Science.
  • 2.0k

TensorRT

Compilateur PyTorch/TorchScript/FX pour GPU NVIDIA utilisant TensorRT (par pytorch).
  • 2.0k
  • BSD 3-clause "New" or "Revised"

tensorflow-onnx

Convertissez les modèles TensorFlow, Keras, Tensorflow.js et Tflite en ONNX.
  • 2.0k
  • Apache License 2.0

100-pandas-puzzles

100 énigmes de données pour les pandas, allant de courtes et simples à super délicates (complètes à 60 %).
  • 2.0k
  • MIT

fma

FMA: un ensemble de données pour l'analyse de la musique.
  • 2.0k
  • MIT

kubric

Un pipeline de génération de données pour créer des vidéos multi-objets synthétiques semi-réalistes avec des annotations riches telles que des masques de segmentation d'instance, des cartes de profondeur et un flux optique.
  • 2.0k
  • Apache License 2.0

gs-quant

Boîte à outils Python pour la finance quantitative.
  • 1.9k
  • Apache License 2.0

checklist

Au-delà de la précision: test comportemental des modèles PNL avec CheckList.
  • 1.9k
  • MIT

SimCLR

Implémentation PyTorch de SimCLR: A Simple Framework for Contrastive Learning of Visual Representations (par sthalles).
  • 1.9k
  • MIT

FinMind

Open Data, more than 50 financial data. 提供超過 50 個金融資料(台股為主),每天更新 https://finmind.github.io/.
  • 1.9k
  • Apache License 2.0

Alpaca-CoT

We unified the interfaces of instruction-tuning data (e.g., CoT data), multiple LLMs and parameter-efficient methods (e.g., lora, p-tuning) together for easy use. Meanwhile, we created a new branch to build a Tabular LLM.(我们分别统一了丰富的IFT数据(如CoT数据,目前仍不断扩充)、多种训练效率方法(如lora,p-tuning)以及多种LLMs,三个层面上的接口,打造方便研究人员上手的LLM-IFT研究平台。同时tabular_llm分支构建了面向表格智能任务的LLM。.
  • 1.9k
  • Apache License 2.0

CodeSearchNet

Jeux de données, outils et benchmarks pour l'apprentissage de la représentation du code.
  • 1.9k
  • MIT

MEDIUM_NoteBook

Dépôt contenant les carnets de mes publications sur Medium.
  • 1.9k
  • MIT

jellyfish

🪼 une bibliothèque python pour faire des correspondances approximatives et phonétiques de chaînes..
  • 1.9k
  • MIT

SfMLearner

Un cadre d'apprentissage non supervisé pour l'estimation de la profondeur et des mouvements de l'ego à partir de vidéos monoculaires.
  • 1.9k
  • MIT

DeepLearningForNLPInPytorch

Un tutoriel IPython Notebook sur l'apprentissage en profondeur pour le traitement du langage naturel, y compris la prédiction de structure.
  • 1.9k
  • MIT

Andrew-NG-Notes

Voici les notes manuscrites d'Andrew NG Coursera.
  • 1.8k

simple-llm-finetuner

Interface utilisateur simple pour le réglage fin du modèle LLM.
  • 1.8k
  • MIT

NAB

La référence des anomalies de Numenta.
  • 1.8k
  • GNU Affero General Public License v3.0

pymc-resources

Ressources pédagogiques PyMC.
  • 1.8k
  • MIT

ecco

Expliquez, analysez et visualisez les modèles de langage NLP. Ecco crée des visualisations interactives directement dans les blocs-notes Jupyter expliquant le comportement des modèles de langage basés sur Transformer (comme GPT2, BERT, RoBERTA, T5 et T0).
  • 1.8k
  • BSD 3-clause "New" or "Revised"

stable-diffusion

  • 1.7k
  • GNU Affero General Public License v3.0

ganspace

Découvrir les contrôles GAN interprétables [NeurIPS 2020].
  • 1.7k
  • Apache License 2.0

pythoncode-tutorials

Les didacticiels de code Python.
  • 1.7k
  • MIT

chain-of-thought-hub

Analyse comparative de la capacité de raisonnement complexe des grands modèles de langage avec l'incitation à la chaîne de pensée.
  • 1.7k
  • MIT