![]() |
#1 |
Молодой, подающий надежды
|
D365FO - импорт файлов периодической операцией через BULK INSERT
Процесс:
В D365FO насколько я понял аналог сетевой шары можно сделать через Azure File Storage, который можно замаунтить и использовать, как диск. Но во всех примерах с Azure BULK INSERT используется Blob storage, который, как я понял, замаунтить нельзя. Вопросы к тем, кто, может быть, уже решал аналогичную задачу.
На второй вопрос пока вижу ответ, средствами Ах копировать из File в Blob, передавать на SQL Blob, после успешной/неуспешной вставки данных этот Blob удалять и манипулировать дальше с File опять из Ах. Но как-то сложно это всё выглядит ![]() |
|
![]() |
#2 |
Модератор
|
__________________
-ТСЯ или -ТЬСЯ ? |
|
|
За это сообщение автора поблагодарили: pedrozzz (2). |
![]() |
#3 |
Участник
|
https://community.dynamics.com/365/f...e-file-storage
можно наверное прочитать во временную таблицу и сделать insert_recordset или типа того |
|
|
За это сообщение автора поблагодарили: pedrozzz (2). |
![]() |
#4 |
Модератор
|
Цитата:
Сообщение от trud
![]() https://community.dynamics.com/365/f...e-file-storage
можно наверное прочитать во временную таблицу и сделать insert_recordset или типа того ![]()
__________________
-ТСЯ или -ТЬСЯ ? |
|
![]() |
#5 |
Молодой, подающий надежды
|
Цитата:
Сообщение от trud
![]() https://community.dynamics.com/365/f...e-file-storage
можно наверное прочитать во временную таблицу и сделать insert_recordset или типа того |
|
![]() |
#6 |
Молодой, подающий надежды
|
Спасибо за ссылку, почитаю. Пока не совсем понял, как оно может помочь. Здесь полный цикл в том числе и механизмы для импорта файлов? Или оно только помогает раскидывать файлы по каталогам? Как оно ведет себя с большими и очень большими файлами? Пока интересуют около 10 Гб и до 100 миллионов записей в файле.
|
|
![]() |
#7 |
Banned
|
Цитата:
Сообщение от pedrozzz
![]() Спасибо за ссылку, почитаю. Пока не совсем понял, как оно может помочь. Здесь полный цикл в том числе и механизмы для импорта файлов? Или оно только помогает раскидывать файлы по каталогам? Как оно ведет себя с большими и очень большими файлами? Пока интересуют около 10 Гб и до 100 миллионов записей в файле.
|
|
|
За это сообщение автора поблагодарили: pedrozzz (2). |
![]() |
#8 |
Боец
|
|
|
|
За это сообщение автора поблагодарили: pedrozzz (2). |
Теги |
d365fo, data management, recurring integration |
|
Опции темы | Поиск в этой теме |
Опции просмотра | |
|