gpgpu-sem-2/lab1-pytorch-cifar10
2023-03-01 16:06:46 +07:00
..
.gitignore Lab 1 CIFAR10 initial done 2023-03-01 16:06:46 +07:00
alexnet.py Lab 1 CIFAR10 initial done 2023-03-01 16:06:46 +07:00
README.md Lab 1 CIFAR10 initial done 2023-03-01 16:06:46 +07:00
requirements.txt Lab 1 CIFAR10 initial done 2023-03-01 16:06:46 +07:00
test.py Lab 1 CIFAR10 initial done 2023-03-01 16:06:46 +07:00
train.py Lab 1 CIFAR10 initial done 2023-03-01 16:06:46 +07:00

"Тензорные ядра CUDA для глубокого обучения"

  1. С помощью фреймворка PyTorch реализовать архитектуру AlexNet для распознавания изображений из набора данных CIFAR10.
  2. Обучить модель с помощью GPU на тренировочном наборе данных в двух режимах — без использования тензорных CUDA-ядер (FP32) и с их использованием (FP16).
  3. Эксперимент 1: сравнить время обучения модели в разных режимах.
  4. Эксперимент 2: сравнить точности распознавания изображений из тестового набора данных при разных режимах обучения модели.
  5. Эксперимент 3: сравнить реальные вычислительные сложности пакетного умножения матриц (Batch Matrix Multiplication) на GPU а режимах FP32 и FP16; построить графики сложностей.
  6. Объяснить результаты вычислительных экспериментов.

Отчет должен содержать: исходный код, результаты экспериментов, обсуждение полученных результатов.