Aws
Redshift 深拷貝磁碟空間
我正在嘗試在 RS 上執行深層複製。請參閱http://docs.aws.amazon.com/redshift/latest/dg/performing-a-deep-copy.html
我使用具有壓縮設置的 SAME DDL 創建了新的/臨時表作為原始表。
我有 3 個節點,每個節點使用 21% 的磁碟空間。
當我執行副本時:
insert into events_tmp (select * from events);
我用完了磁碟空間。深拷貝不壓縮數據嗎?
謝謝!
請參閱 vceron 在https://discourse.snowplowanalytics.com/t/redshift-maintenance-best-practices/1124/2上的文章
在高度未排序的表中進行深度複製時,Redshift 需要在插入新表之前對該表進行排序。
這種排序操作會在一個中間臨時表中進行,最初是放在記憶體中,但由於數據集太大,最終會溢出到磁碟。
但是,這些臨時表沒有被壓縮,如果沒有足夠的空間儲存臨時數據,Redshift 會為該操作分配臨時磁碟空間,這會導致磁碟已滿錯誤。