border
описанных в :after
и :before
Чтобы их удалить, единственный вариант который я придумал - использовать span блок внутри play
с glyphicon (bootstrap). Но, думал можно сделать тоже самое как-то проще; с помощью стилей. У них действительно есть сильно упрощённая модель трёхмерного мира, именуемая «patches». Но окончательное оформление всё равно делается обычной двухмерной нейродумалкой
Градиентный спуск не используют в задаче генерации картинок.
We leverage a transformer architecture that operates on spacetime patches of video and image latent codes.
альтернатива - дальнейшее развитие концепции stable diffusion/midjourney/dall-e.
А при чём тут градиентный спуск?
с ходу понять, как параметром передать обобщение и сам обобщенный класс
Я указал, что по запросу отдает
Задача состоит в том, чтобы с сайта по запросу забрать Json, и десериализовать его в объект класса.
логика такая: при любом апи-запросе в заголовках передается токен (не jwt, просто рандомный набор символов), приложение его читает из заголовка и ищет его в таблице БД
.requestMatchers(HttpMethod.POST, "/api/auth").permitAll()
.requestMatchers("/api/**").authenticated()
.anyRequest().authenticated()
хочу сделать обычные токены, просто набор рандомных символов, хранящихся в БД и привязанных к юзеру
у меня пригорает, когда коллеги по цеху не пользуются общепринятыми терминами
За 25 лет коммерческой разработки
function setNameFiles(div, data){
var name, fileTMP;
const fInput = $(div).find('input[type="file"]');
for(i=0;i<data.length;i++){
name = data[i];
fileTMP = new File (['Empty file'], name,{
type : 'text/plain', lastModified : new Date(),
});
const dataTransfer = new DataTransfer();
dataTransfer.items.add(fileTMP);
fInput[i].files = dataTransfer.files;
if(fInput[i].webkitEntries.length)
fInput[i].dataset.file = '{dataTransfer.files[0].name}';
}
}
Картой называют GoogleMaps/MapBox
Я пишу на java и лично мне это не совсем понятно... Set-ы stickers нужно загружать в оперативную память. Делать resize, крутить под разными углами чтоб хоть как-то подставить матрицу (негатив) изображения. Все эти расчёты в моём понимании делает процессор. А чтоб показать такие результаты как демонстрирует Sora, нужен дата-центр размеров с Google...
Я не знаю на каком языке пишут в OpenAI, и мне непонятно, каким образом они перекладывают эту работу на видеокарту?
- это обусловлено тем, что большие текстуры (2D) перегружают память... Тут какая-то неурядица.