Aws

Redshift 深拷貝磁碟空間

  • October 30, 2017

我正在嘗試在 RS 上執行深層複製。請參閱http://docs.aws.amazon.com/redshift/latest/dg/performing-a-deep-copy.html

我使用具有壓縮設置的 SAME DDL 創建了新的/臨時表作為原始表。

我有 3 個節點,每個節點使用 21% 的磁碟空間。

當我執行副本時:

insert into events_tmp (select * from events); 

我用完了磁碟空間。深拷貝不壓縮數據嗎?

謝謝!

崩潰和燃燒

請參閱 vceron 在https://discourse.snowplowanalytics.com/t/redshift-maintenance-best-practices/1124/2上的文章

在高度未排序的表中進行深度複製時,Redshift 需要在插入新表之前對該表進行排序。

這種排序操作會在一個中間臨時表中進行,最初是放在記憶體中,但由於數據集太大,最終會溢出到磁碟。

但是,這些臨時表沒有被壓縮,如果沒有足夠的空間儲存臨時數據,Redshift 會為該操作分配臨時磁碟空間,這會導致磁碟已滿錯誤。

引用自:https://dba.stackexchange.com/questions/182015