將Mxd檔案壓縮並上傳到Geodatabase!

2021-09-08 16:14:19 字數 1397 閱讀 2314

把mxd檔案壓縮上傳測試**!

1

using

system;

2using

system.collections.generic;

3using

system.linq;

4using

system.text;

5using

system.io.compression;

6using

system.io;

7using

esri.arcgis.datasourcesgdb;

8using

esri.arcgis.esrisystem;

9using

esri.arcgis.geodatabase;

10using

esri.arcgis.geometry;

11namespace

compressmxd

1221

public

static

bool readandcompressmxdfile(string

filename, iworkspace pwsp)

2244

row.store();45}

46}47catch

(system.exception ex)

4851

52return

true;53

}54public

static

bool decompressmxdfile(string

filename,iworkspace pwsp)

5571

return

true;72

}73private

static

byte compress(byte

bytes)

7486}87

88private

static

byte

decompress(byte bytes)

89102

}103

}104

}105 }

這裡的這個思路和**完全可以將任何檔案上傳到geodatabase中!當然檔案大小是受限制的。這和access有關和機器的位數有關,在oracle中是否可以放開一些檔案大小方面的限制?

對檔案進行管理,通過hash演算法進行檔案的版本控制!這個想法確實不錯,不過具體要做成什麼樣子呢,我也不知道!

微軟提供了compress(gzipstream類)和security命名空間分別實現了lz77和哈弗曼編碼結合的壓縮演算法,實現了加密的演算法,可以直接呼叫。

說實話不太喜歡拿來主義,用是很方便,但是真的不是自己做出來的,感覺理解方面還是有很多困難。不知道其內部機制到底是怎樣的!!!

自動打包檔案並上傳到ftp

bin bash ftpserver ftp.aaa rmtdir bbb user user pass password filename project date y m d tar.bz2 subdir date y m d release echo generating tarball.if...

Flume監聽檔案並上傳到hdfs

監聽hive日誌,並上傳到hdfs中 flume yymmddhh 目錄下,檔案字首為logs 每乙個小時新建重新建立乙個資料夾,每接收10m資料落地一次,當資料不足10m時15分鐘落地一次 匯入以下jar包到flume路徑下的lib裡,裡為相應版本,在hadoop路徑下share hadoop下都...

將本地檔案上傳到Github

1 先進入專案資料夾 通過命令 git init 把這個目錄變成git可以管理的倉庫 git init2 把檔案新增到版本庫中,使用命令 git add 新增到暫存區裡面去,不要忘記後面的小數點 意為新增資料夾下的所有檔案 git add 3 用命令 git commit告訴git,把檔案提交到倉庫...