Показать сообщение отдельно
Старый 11.08.2020, 13:07   #20  
imir is offline
imir
Участник
 
159 / 161 (6) ++++++
Регистрация: 28.05.2010
По поводу экспорта данных в ажур, вот что я пока уловил - каждый день надо мониторить, что-то выходит в прод, что-то в превью.

Вот тут есть статья, может уже не самая актуальная, как использовать change racking + azure data flow для перемещения дельты в azure data lake (по сути в blob storage). https://docs.microsoft.com/en-us/azu...feature-portal
В примере используется azure sql database, но это на самом деле не критично, был вэбинар, где они настраивали это попроще - скриптами для локальной базы.

А что касается DAX 365 - там вообще этот экспорт встроен в систему. https://docs.microsoft.com/ru-ru/dyn...tore-data-lake

Но цель одна - выгрузить sql данные в azure blob (считай - .CSV). Потому что стоимость хранения blob на порядок (а может и два) меньше, чем в azure sql базе. И МС понял, что хранить все данные мира в реляционном виде - ту мач даже для них ) И дорого для клиентов, и не нужно для питания отчетности.

Дальше вараинты
- вы строите модель в power bi прям из этих "csv"
- вы докупаете azure synapse (облачный sql движок, оплачивается по фактическому использованию), в котором можно напилить вьюхи поверх этих csv и дальше обращаься к ним на языке T-sql, как к обычным sql таблицам, и так же строите модель поверх этих вьюх.

Последний раз редактировалось imir; 11.08.2020 в 13:27.