По поводу экспорта данных в ажур, вот что я пока уловил - каждый день надо мониторить, что-то выходит в прод, что-то в превью.
Вот тут есть статья, может уже не самая актуальная, как использовать change racking + azure data flow для перемещения дельты в azure data lake (по сути в blob storage).
https://docs.microsoft.com/en-us/azu...feature-portal
В примере используется azure sql database, но это на самом деле не критично, был вэбинар, где они настраивали это попроще - скриптами для локальной базы.
А что касается DAX 365 - там вообще этот экспорт встроен в систему.
https://docs.microsoft.com/ru-ru/dyn...tore-data-lake
Но цель одна - выгрузить sql данные в azure blob (считай - .CSV). Потому что стоимость хранения blob на порядок (а может и два) меньше, чем в azure sql базе. И МС понял, что хранить все данные мира в реляционном виде - ту мач даже для них ) И дорого для клиентов, и не нужно для питания отчетности.
Дальше вараинты
- вы строите модель в power bi прям из этих "csv"
- вы докупаете azure synapse (облачный sql движок, оплачивается по фактическому использованию), в котором можно напилить вьюхи поверх этих csv и дальше обращаься к ним на языке T-sql, как к обычным sql таблицам, и так же строите модель поверх этих вьюх.