Роман Роман, Так переделайте шапку вопроса. Этот сайт - не гугл, здесь отвечают живые люди. Им будет лениво открывать вопрос, разбираться в комментариях и искать, что же вы на самом деле хотели спросить. Более того после того как на ваш вопрос ответят, он будет бесполезен для других людей из-за путаницы в заголовке.
Если не нравится этот гироскоп, возьмите обычный шилд от ардуины с MEMS, поставьте в теплом боксе на верхушку вашей антенны, так точность будет больше.
Армянское Радио
@gbg Куратор тега Системное администрирование
Вася Пупкин, Отвечаю - правильно с точки зрения логики и практики сначала собрать требования к решаемой задаче (нет, "хочу СХД" - это не требование), потом на основании требований появляется ТЗ, потом по ТЗ делается покупка железа и реализация ТЗ, которая проверяется на соответствие требованиям.
Ваш вопрос сейчас звучит "мы купили железо (кстати, подозреваю, вендорлокнутое, - поставить туда диск не от HP может быть невозможно без танцев с бубном) под неизвестно что, как теперь быть?".
Например, вы хотите сделать виртуальную машину, на которую сложить файлы - какую цель вы при этом достигаете? ("так делают большие компании, у них все серверы на виртуалках" - это не ответ)
Даниил, компилятор C++ видит for(int i=0;i<10000; i++){ a=b+c;} и использует специальные инструкции CPU для того, чтобы ускорить эти сложения - и CPU делает это довольно быстро.
Чтобы это сложение сделать на GPU, нужно будет загрузить в GPU 20 000 интов, а потом выгрузить из GPU 10 000 интов. (Это в предположении, что вычислительное ядро уже откомпилировано и загружено в GPU, иначе придется компилировать и грузить еще и его, что уж точно займет больше времени, чем сложение этих чисел на CPU).
На 2021 год, если вы на C# явно не пишете, что хотите работать с GPU, вы работаете с обычной RAM и обычным CPU.
Не встроена во все языки потому, что большая часть того, что делается на компьютере - однопоточная фигня типа штампования форм, а также потому, что разработка под GPU требует более дорогих программистов.
Из-за разницы в архитектуре, нельзя перенести код для CPU на GPU так, чтобы он был эффективен и там и там - это нужно писать специальным образом, а такое программирование стоит дороже и занимает больше времени, поэтому GPU применяется там, где это действительно нужно - в графике и научных расчетах.