]> arthur.barton.de Git - bup.git/blobdiff - lib/bup/hashsplit.py
Use absolute_import from the __future__ everywhere
[bup.git] / lib / bup / hashsplit.py
index 5df627f7f04bb3a651f3a5039601a336360a6282..3cbcfc981b4e1280604712b2b0ffe2fbeff9411e 100644 (file)
@@ -1,12 +1,11 @@
-import math, os
 
-from bup import _helpers
+from __future__ import absolute_import
+import io, math, os
+
+from bup import _helpers, helpers
 from bup.helpers import sc_page_size
 
-try:
-    _fmincore = _helpers.fmincore
-except AttributeError, e:
-    _fmincore = None
+_fmincore = getattr(helpers, 'fmincore', None)
 
 BLOB_MAX = 8192*4   # 8192 is the "typical" blob size for bupsplit
 BLOB_READ_SIZE = 1024*1024
@@ -14,10 +13,9 @@ MAX_PER_TREE = 256
 progress_callback = None
 fanout = 16
 
-GIT_MODE_FILE = 0100644
-GIT_MODE_TREE = 040000
-GIT_MODE_SYMLINK = 0120000
-assert(GIT_MODE_TREE != 40000)  # 0xxx should be treated as octal
+GIT_MODE_FILE = 0o100644
+GIT_MODE_TREE = 0o40000
+GIT_MODE_SYMLINK = 0o120000
 
 # The purpose of this type of buffer is to avoid copying on peek(), get(),
 # and eat().  We do copy the buffer contents on put(), but that should
@@ -56,7 +54,7 @@ def _fadvise_pages_done(fd, first_page, count):
                               count * sc_page_size)
 
 
-def _nonresident_page_regions(status_bytes, max_region_len=None):
+def _nonresident_page_regions(status_bytes, incore_mask, max_region_len=None):
     """Return (start_page, count) pairs in ascending start_page order for
     each contiguous region of nonresident pages indicated by the
     mincore() status_bytes.  Limit the number of pages in each region
@@ -64,7 +62,7 @@ def _nonresident_page_regions(status_bytes, max_region_len=None):
     assert(max_region_len is None or max_region_len > 0)
     start = None
     for i, x in enumerate(status_bytes):
-        in_core = ord(x) & 1
+        in_core = x & incore_mask
         if start is None:
             if not in_core:
                 start = i
@@ -98,10 +96,17 @@ def readfile_iter(files, progress=None):
         b = ''
         fd = rpr = rstart = rlen = None
         if _fmincore and hasattr(f, 'fileno'):
-            fd = f.fileno()
-            max_chunk = max(1, (8 * 1024 * 1024) / sc_page_size)
-            rpr = _nonresident_page_regions(_helpers.fmincore(fd), max_chunk)
-            rstart, rlen = next(rpr, (None, None))
+            try:
+                fd = f.fileno()
+            except io.UnsupportedOperation:
+                pass
+            if fd:
+                mcore = _fmincore(fd)
+                if mcore:
+                    max_chunk = max(1, (8 * 1024 * 1024) / sc_page_size)
+                    rpr = _nonresident_page_regions(mcore, helpers.MINCORE_INCORE,
+                                                    max_chunk)
+                    rstart, rlen = next(rpr, (None, None))
         while 1:
             if progress:
                 progress(filenum, len(b))