My1Name, неполный, это значит что у вас в вопросе не скроллится дальше цитата onclick="showA цитата
это первое.
второе первый аргумент, который опрокидывается в эту функцию будет clickEvent, оттуда нужно вылавливать target id.
мб дело в кешировании таких запросов?
а самое главное - какая версия шарпа?
там в последних версиях завезли профилируемый компилятор, так что оптимизаций там очень много
Альберт Ефремов, там чисто реализация вебсокетов, она имеет клиент как для js, так и для бека.
проблема его в том, что он теряет связь если например обновить страницу и при этом не сделать переподключение, без доменной логики шляпа получится на выходе, а с firebase, например, можно получить ивент, если что-то пришло
мне этот вариант не очень подходит в виду проблем реализаций на беке.
все-таки без вебсокетов никак? в таком случае signalR на js имеет так себе совместимость с vue3
Максим Припадчев, вопрос... а как это обучение?? я вроде ну...
щас вот на фотках там я в метрах заполнил матрицу
т.е признак (измерение, дистанция в метрах) и элементы - на скрине их 10
типо и в вики тоже там формула чисто идет, без ML...
я может о чем-то другом говорю? просто если задача решается только через применение нейросети, то она мне не подходит.
Максим Припадчев, ого, спасибо большое за кладезь информации, обязательно пойду разбираться!
а так если интересно... то задача смешная.
студенты находятся в аудиториях. их местоположение я собираю через gps, в том числе и преподавателя (точка, от которой все удалены в аудитории)
по формуле Хаверсина - получаю расстояние от нулевой точки (преподавателя) до каждого человека.
так вот, данные могут поступить со всех людей. заявлено в аудитории 90 человек, а по факту хз... 50
40 человек в отгуле. я имею их местоположение и разумеется оно будет больше до нулевой точки, чем человека в аудитории.
собственно мне и нужна классификация - чтобы я мог отличить кто действительно сидит в аудитории, а кто гуляет.
а точность нужна чтобы исключить ситуацию когда я стою за дверью здания :)
Там человек в самом конце сказал про кластеризацию... полез искать - самый первый попавшийся алгоритм
k-средних (k-means)
я попробовал его и он действительно работает так, как мне нужно.
я хотел бы узнать, а чем кластеризация отличается от поиска типа распределения с последующим анализом ее свойств и прочего?
и допустимо ли в принципе использовать кластеризацию в моем случае?
т.е как я понимаю тут динамически вычислять эту историю не получится... если б эта задача решалась один раз, это хорошо, но она должна вычисляться при каждом запросе после получения этого самого набора данных
и предполагается что далеко не всегда эта верхняя граница = 8м, она может быть и больше. главное мне нужно отделить мух от котлет и чем точнее, тем, конечно, лучше )