Ну так стандартно, fastapi кладет запрос в какую либо очередь сообщений и ждет ответа, ML-модель, обычно запущенная отдельный сервисом, читает из этой очереди, обрабатывает и подобным образом передает обратно в fastapi. Это базовое, дальше уже начинаются работы по развитию, относительно возникающих требований, настройка таймутов и отмены работ, усложнение REST API, от простого запрос - ответ, к например, запрос - создание фоновой задачи - периодической проверки ее выполнения, масштабирование через создание нескольких сервисов с моделью и т.п, и т.д.