]> arthur.barton.de Git - bup.git/blobdiff - lib/bup/_helpers.c
hashsplit: replace join_bytes with cat_bytes
[bup.git] / lib / bup / _helpers.c
index b93e24c06427630be4b796fd525dd065201d3758..5f13d6a1c4f932792cc05e2fdb1e3960e2136bdb 100644 (file)
@@ -71,16 +71,49 @@ typedef struct {
     int istty2;
 } state_t;
 
+// cstr_argf: for byte vectors without null characters (e.g. paths)
+// rbuf_argf: for read-only byte vectors
+// wbuf_argf: for mutable byte vectors
+
 #if PY_MAJOR_VERSION < 3
 static state_t state;
 #  define get_state(x) (&state)
 #  define cstr_argf "s"
+#  define rbuf_argf "s#"
+#  define wbuf_argf "s*"
 #else
 #  define get_state(x) ((state_t *) PyModule_GetState(x))
 #  define cstr_argf "y"
+#  define rbuf_argf "y#"
+#  define wbuf_argf "y*"
 #endif // PY_MAJOR_VERSION >= 3
 
 
+static void *checked_malloc(size_t n, size_t size)
+{
+    size_t total;
+    if (__builtin_mul_overflow(n, size, &total))
+    {
+        PyErr_Format(PyExc_OverflowError,
+                     "request to allocate %lu items of size %lu is too large",
+                     n, size);
+        return NULL;
+    }
+    void *result = malloc(total);
+    if (!result)
+        return PyErr_NoMemory();
+    return result;
+}
+
+static void *checked_calloc(size_t n, size_t size)
+{
+    void *result = calloc(n, size);
+    if (!result)
+        PyErr_NoMemory();
+    return result;
+}
+
+
 #ifndef htonll
 // This function should technically be macro'd out if it's going to be used
 // more than ocasionally.  As of this writing, it'll actually never be called
@@ -96,14 +129,22 @@ static uint64_t htonll(uint64_t value)
 #endif
 
 
+// Disabling sign-compare here should be fine since we're explicitly
+// checking for a sign mismatch, i.e. if the signs don't match, then
+// it doesn't matter what the value comparison says.
+// FIXME: ... so should we reverse the order?
 #define INTEGRAL_ASSIGNMENT_FITS(dest, src)                             \
     ({                                                                  \
+        _Pragma("GCC diagnostic push");                                 \
+        _Pragma("GCC diagnostic ignored \"-Wsign-compare\"");           \
         *(dest) = (src);                                                \
-        *(dest) == (src) && (*(dest) < 1) == ((src) < 1);               \
+        int result = *(dest) == (src) && (*(dest) < 1) == ((src) < 1);  \
+        _Pragma("GCC diagnostic pop");                                  \
+        result;                                                         \
     })
 
 
-// At the moment any code that calls INTGER_TO_PY() will have to
+// At the moment any code that calls INTEGER_TO_PY() will have to
 // disable -Wtautological-compare for clang.  See below.
 
 #define INTEGER_TO_PY(x) \
@@ -232,6 +273,49 @@ static PyObject *bup_bytescmp(PyObject *self, PyObject *args)
 }
 
 
+static PyObject *bup_cat_bytes(PyObject *self, PyObject *args)
+{
+    unsigned char *bufx = NULL, *bufy = NULL;
+    Py_ssize_t bufx_len, bufx_ofs, bufx_n;
+    Py_ssize_t bufy_len, bufy_ofs, bufy_n;
+    if (!PyArg_ParseTuple(args,
+                          rbuf_argf "nn"
+                          rbuf_argf "nn",
+                          &bufx, &bufx_len, &bufx_ofs, &bufx_n,
+                          &bufy, &bufy_len, &bufy_ofs, &bufy_n))
+       return NULL;
+    if (bufx_ofs < 0)
+        return PyErr_Format(PyExc_ValueError, "negative x offset");
+    if (bufx_n < 0)
+        return PyErr_Format(PyExc_ValueError, "negative x extent");
+    if (bufx_ofs > bufx_len)
+        return PyErr_Format(PyExc_ValueError, "x offset greater than length");
+    if (bufx_n > bufx_len - bufx_ofs)
+        return PyErr_Format(PyExc_ValueError, "x extent past end of buffer");
+
+    if (bufy_ofs < 0)
+        return PyErr_Format(PyExc_ValueError, "negative y offset");
+    if (bufy_n < 0)
+        return PyErr_Format(PyExc_ValueError, "negative y extent");
+    if (bufy_ofs > bufy_len)
+        return PyErr_Format(PyExc_ValueError, "y offset greater than length");
+    if (bufy_n > bufy_len - bufy_ofs)
+        return PyErr_Format(PyExc_ValueError, "y extent past end of buffer");
+
+    if (bufy_n > PY_SSIZE_T_MAX - bufx_n)
+        return PyErr_Format(PyExc_OverflowError, "result length too long");
+
+    PyObject *result = PyBytes_FromStringAndSize(NULL, bufx_n + bufy_n);
+    if (!result)
+        return PyErr_NoMemory();
+    char *buf = PyBytes_AS_STRING(result);
+    memcpy(buf, bufx + bufx_ofs, bufx_n);
+    memcpy(buf + bufx_n, bufy + bufy_ofs, bufy_n);
+    return result;
+}
+
+
+
 // Probably we should use autoconf or something and set HAVE_PY_GETARGCARGV...
 #if __WIN32__ || __CYGWIN__
 
@@ -376,7 +460,7 @@ static byte* find_trailing_zeros(const byte * const start,
 
 static byte *find_non_sparse_end(const byte * const start,
                                  const byte * const end,
-                                 const unsigned long long min_len)
+                                 const ptrdiff_t min_len)
 {
     // Return the first pointer to a min_len sparse block in [start,
     // end) if there is one, otherwise a pointer to the start of any
@@ -449,13 +533,16 @@ static PyObject *bup_write_sparsely(PyObject *self, PyObject *args)
     unsigned char *buf = NULL;
     Py_ssize_t sbuf_len;
     PyObject *py_min_sparse_len, *py_prev_sparse_len;
-    if (!PyArg_ParseTuple(args, "it#OO",
+    if (!PyArg_ParseTuple(args, "i" rbuf_argf "OO",
                           &fd, &buf, &sbuf_len,
                           &py_min_sparse_len, &py_prev_sparse_len))
        return NULL;
-    unsigned long long min_sparse_len, prev_sparse_len, buf_len;
-    if (!bup_ullong_from_py(&min_sparse_len, py_min_sparse_len, "min_sparse_len"))
+    ptrdiff_t min_sparse_len;
+    unsigned long long prev_sparse_len, buf_len, ul_min_sparse_len;
+    if (!bup_ullong_from_py(&ul_min_sparse_len, py_min_sparse_len, "min_sparse_len"))
         return NULL;
+    if (!INTEGRAL_ASSIGNMENT_FITS(&min_sparse_len, ul_min_sparse_len))
+        return PyErr_Format(PyExc_OverflowError, "min_sparse_len too large");
     if (!bup_ullong_from_py(&prev_sparse_len, py_prev_sparse_len, "prev_sparse_len"))
         return NULL;
     if (sbuf_len < 0)
@@ -564,7 +651,7 @@ static PyObject *bitmatch(PyObject *self, PyObject *args)
     Py_ssize_t byte;
     int bit;
 
-    if (!PyArg_ParseTuple(args, "t#t#", &buf1, &len1, &buf2, &len2))
+    if (!PyArg_ParseTuple(args, rbuf_argf rbuf_argf, &buf1, &len1, &buf2, &len2))
        return NULL;
     
     bit = 0;
@@ -591,7 +678,7 @@ static PyObject *firstword(PyObject *self, PyObject *args)
     Py_ssize_t len = 0;
     uint32_t v;
 
-    if (!PyArg_ParseTuple(args, "t#", &buf, &len))
+    if (!PyArg_ParseTuple(args, rbuf_argf, &buf, &len))
        return NULL;
     
     if (len < 4)
@@ -660,72 +747,95 @@ BLOOM_GET_BIT(bloom_get_bit5, to_bloom_address_bitmask5, uint32_t)
 
 static PyObject *bloom_add(PyObject *self, PyObject *args)
 {
-    unsigned char *sha = NULL, *bloom = NULL;
-    unsigned char *end;
-    Py_ssize_t len = 0, blen = 0;
+    Py_buffer bloom, sha;
     int nbits = 0, k = 0;
+    if (!PyArg_ParseTuple(args, wbuf_argf wbuf_argf "ii",
+                          &bloom, &sha, &nbits, &k))
+        return NULL;
 
-    if (!PyArg_ParseTuple(args, "w#s#ii", &bloom, &blen, &sha, &len, &nbits, &k))
-       return NULL;
+    PyObject *result = NULL;
 
-    if (blen < 16+(1<<nbits) || len % 20 != 0)
-       return NULL;
+    if (bloom.len < 16+(1<<nbits) || sha.len % 20 != 0)
+        goto clean_and_return;
 
     if (k == 5)
     {
-       if (nbits > 29)
-           return NULL;
-       for (end = sha + len; sha < end; sha += 20/k)
-           bloom_set_bit5(bloom, sha, nbits);
+        if (nbits > 29)
+            goto clean_and_return;
+        unsigned char *cur = sha.buf;
+        unsigned char *end;
+        for (end = cur + sha.len; cur < end; cur += 20/k)
+            bloom_set_bit5(bloom.buf, cur, nbits);
     }
     else if (k == 4)
     {
-       if (nbits > 37)
-           return NULL;
-       for (end = sha + len; sha < end; sha += 20/k)
-           bloom_set_bit4(bloom, sha, nbits);
+        if (nbits > 37)
+            goto clean_and_return;
+        unsigned char *cur = sha.buf;
+        unsigned char *end = cur + sha.len;
+        for (; cur < end; cur += 20/k)
+            bloom_set_bit4(bloom.buf, cur, nbits);
     }
     else
-       return NULL;
+        goto clean_and_return;
 
+    result = Py_BuildValue("n", sha.len / 20);
 
-    return Py_BuildValue("n", len/20);
+ clean_and_return:
+    PyBuffer_Release(&bloom);
+    PyBuffer_Release(&sha);
+    return result;
 }
 
 static PyObject *bloom_contains(PyObject *self, PyObject *args)
 {
-    unsigned char *sha = NULL, *bloom = NULL;
-    Py_ssize_t len = 0, blen = 0;
+    Py_buffer bloom;
+    unsigned char *sha = NULL;
+    Py_ssize_t len = 0;
     int nbits = 0, k = 0;
-    unsigned char *end;
-    int steps;
+    if (!PyArg_ParseTuple(args, wbuf_argf rbuf_argf "ii",
+                          &bloom, &sha, &len, &nbits, &k))
+        return NULL;
 
-    if (!PyArg_ParseTuple(args, "t#s#ii", &bloom, &blen, &sha, &len, &nbits, &k))
-       return NULL;
+    PyObject *result = NULL;
 
     if (len != 20)
-       return NULL;
+        goto clean_and_return;
 
     if (k == 5)
     {
-       if (nbits > 29)
-           return NULL;
-       for (steps = 1, end = sha + 20; sha < end; sha += 20/k, steps++)
-           if (!bloom_get_bit5(bloom, sha, nbits))
-               return Py_BuildValue("Oi", Py_None, steps);
+        if (nbits > 29)
+            goto clean_and_return;
+        int steps;
+        unsigned char *end;
+        for (steps = 1, end = sha + 20; sha < end; sha += 20/k, steps++)
+            if (!bloom_get_bit5(bloom.buf, sha, nbits))
+            {
+                result = Py_BuildValue("Oi", Py_None, steps);
+                goto clean_and_return;
+            }
     }
     else if (k == 4)
     {
-       if (nbits > 37)
-           return NULL;
-       for (steps = 1, end = sha + 20; sha < end; sha += 20/k, steps++)
-           if (!bloom_get_bit4(bloom, sha, nbits))
-               return Py_BuildValue("Oi", Py_None, steps);
+        if (nbits > 37)
+            goto clean_and_return;
+        int steps;
+        unsigned char *end;
+        for (steps = 1, end = sha + 20; sha < end; sha += 20/k, steps++)
+            if (!bloom_get_bit4(bloom.buf, sha, nbits))
+            {
+                result = Py_BuildValue("Oi", Py_None, steps);
+                goto clean_and_return;
+            }
     }
     else
-       return NULL;
+        goto clean_and_return;
+
+    result = Py_BuildValue("ii", 1, k);
 
-    return Py_BuildValue("ii", 1, k);
+ clean_and_return:
+    PyBuffer_Release(&bloom);
+    return result;
 }
 
 
@@ -746,7 +856,7 @@ static PyObject *extract_bits(PyObject *self, PyObject *args)
     Py_ssize_t len = 0;
     int nbits = 0;
 
-    if (!PyArg_ParseTuple(args, "t#i", &buf, &len, &nbits))
+    if (!PyArg_ParseTuple(args, rbuf_argf "i", &buf, &len, &nbits))
        return NULL;
     
     if (len < 4)
@@ -775,7 +885,7 @@ struct idx {
     int name_base;
 };
 
-static void _fix_idx_order(struct idx **idxs, int *last_i)
+static void _fix_idx_order(struct idx **idxs, Py_ssize_t *last_i)
 {
     struct idx *idx;
     int low, mid, high, c = 0;
@@ -825,36 +935,51 @@ static uint32_t _get_idx_i(struct idx *idx)
 
 static PyObject *merge_into(PyObject *self, PyObject *args)
 {
-    PyObject *py_total, *ilist = NULL;
-    unsigned char *fmap = NULL;
     struct sha *sha_ptr, *sha_start = NULL;
     uint32_t *table_ptr, *name_ptr, *name_start;
-    struct idx **idxs = NULL;
-    Py_ssize_t flen = 0;
-    int bits = 0, i;
+    int i;
     unsigned int total;
     uint32_t count, prefix;
-    int num_i;
-    int last_i;
 
-    if (!PyArg_ParseTuple(args, "w#iOO",
-                          &fmap, &flen, &bits, &py_total, &ilist))
+
+    Py_buffer fmap;
+    int bits;;
+    PyObject *py_total, *ilist = NULL;
+    if (!PyArg_ParseTuple(args, wbuf_argf "iOO",
+                          &fmap, &bits, &py_total, &ilist))
        return NULL;
 
+    PyObject *result = NULL;
+    struct idx **idxs = NULL;
+    Py_ssize_t num_i = 0;
+    int *idx_buf_init = NULL;
+    Py_buffer *idx_buf = NULL;
+
     if (!bup_uint_from_py(&total, py_total, "total"))
-        return NULL;
+        goto clean_and_return;
 
     num_i = PyList_Size(ilist);
-    idxs = (struct idx **)PyMem_Malloc(num_i * sizeof(struct idx *));
+
+    if (!(idxs = checked_malloc(num_i, sizeof(struct idx *))))
+        goto clean_and_return;
+    if (!(idx_buf_init = checked_calloc(num_i, sizeof(int))))
+        goto clean_and_return;
+    if (!(idx_buf = checked_malloc(num_i, sizeof(Py_buffer))))
+        goto clean_and_return;
 
     for (i = 0; i < num_i; i++)
     {
        long len, sha_ofs, name_map_ofs;
-       idxs[i] = (struct idx *)PyMem_Malloc(sizeof(struct idx));
+       if (!(idxs[i] = checked_malloc(1, sizeof(struct idx))))
+            goto clean_and_return;
        PyObject *itup = PyList_GetItem(ilist, i);
-       if (!PyArg_ParseTuple(itup, "t#llli", &idxs[i]->map, &idxs[i]->bytes,
-                   &len, &sha_ofs, &name_map_ofs, &idxs[i]->name_base))
+       if (!PyArg_ParseTuple(itup, wbuf_argf "llli",
+                              &(idx_buf[i]), &len, &sha_ofs, &name_map_ofs,
+                              &idxs[i]->name_base))
            return NULL;
+        idx_buf_init[i] = 1;
+        idxs[i]->map = idx_buf[i].buf;
+        idxs[i]->bytes = idx_buf[i].len;
        idxs[i]->cur = (struct sha *)&idxs[i]->map[sha_ofs];
        idxs[i]->end = &idxs[i]->cur[len];
        if (name_map_ofs)
@@ -862,11 +987,11 @@ static PyObject *merge_into(PyObject *self, PyObject *args)
        else
            idxs[i]->cur_name = NULL;
     }
-    table_ptr = (uint32_t *)&fmap[MIDX4_HEADERLEN];
+    table_ptr = (uint32_t *) &((unsigned char *) fmap.buf)[MIDX4_HEADERLEN];
     sha_start = sha_ptr = (struct sha *)&table_ptr[1<<bits];
     name_start = name_ptr = (uint32_t *)&sha_ptr[total];
 
-    last_i = num_i-1;
+    Py_ssize_t last_i = num_i - 1;
     count = 0;
     prefix = 0;
     while (last_i >= 0)
@@ -888,15 +1013,32 @@ static PyObject *merge_into(PyObject *self, PyObject *args)
        _fix_idx_order(idxs, &last_i);
        ++count;
     }
-    while (prefix < (1<<bits))
+    while (prefix < ((uint32_t) 1 << bits))
        table_ptr[prefix++] = htonl(count);
     assert(count == total);
-    assert(prefix == (1<<bits));
+    assert(prefix == ((uint32_t) 1 << bits));
     assert(sha_ptr == sha_start+count);
     assert(name_ptr == name_start+count);
 
-    PyMem_Free(idxs);
-    return PyLong_FromUnsignedLong(count);
+    result = PyLong_FromUnsignedLong(count);
+
+ clean_and_return:
+    if (idx_buf_init)
+    {
+        for (i = 0; i < num_i; i++)
+            if (idx_buf_init[i])
+                PyBuffer_Release(&(idx_buf[i]));
+        free(idx_buf_init);
+        free(idx_buf);
+    }
+    if (idxs)
+    {
+        for (i = 0; i < num_i; i++)
+            free(idxs[i]);
+        free(idxs);
+    }
+    PyBuffer_Release(&fmap);
+    return result;
 }
 
 #define FAN_ENTRIES 256
@@ -906,8 +1048,6 @@ static PyObject *write_idx(PyObject *self, PyObject *args)
     char *filename = NULL;
     PyObject *py_total, *idx = NULL;
     PyObject *part;
-    unsigned char *fmap = NULL;
-    Py_ssize_t flen = 0;
     unsigned int total = 0;
     uint32_t count;
     int i, j, ofs64_count;
@@ -915,21 +1055,27 @@ static PyObject *write_idx(PyObject *self, PyObject *args)
     uint64_t *ofs64_ptr;
     struct sha *sha_ptr;
 
-    if (!PyArg_ParseTuple(args, "sw#OO",
-                          &filename, &fmap, &flen, &idx, &py_total))
+    Py_buffer fmap;
+    if (!PyArg_ParseTuple(args, cstr_argf wbuf_argf "OO",
+                          &filename, &fmap, &idx, &py_total))
        return NULL;
 
+    PyObject *result = NULL;
+
     if (!bup_uint_from_py(&total, py_total, "total"))
-        return NULL;
+        goto clean_and_return;
 
     if (PyList_Size (idx) != FAN_ENTRIES) // Check for list of the right length.
-        return PyErr_Format (PyExc_TypeError, "idx must contain %d entries",
-                             FAN_ENTRIES);
+    {
+        result = PyErr_Format (PyExc_TypeError, "idx must contain %d entries",
+                               FAN_ENTRIES);
+        goto clean_and_return;
+    }
 
     const char idx_header[] = "\377tOc\0\0\0\002";
-    memcpy (fmap, idx_header, sizeof(idx_header) - 1);
+    memcpy (fmap.buf, idx_header, sizeof(idx_header) - 1);
 
-    fan_ptr = (uint32_t *)&fmap[sizeof(idx_header) - 1];
+    fan_ptr = (uint32_t *)&((unsigned char *)fmap.buf)[sizeof(idx_header) - 1];
     sha_ptr = (struct sha *)&fan_ptr[FAN_ENTRIES];
     crc_ptr = (uint32_t *)&sha_ptr[total];
     ofs_ptr = (uint32_t *)&crc_ptr[total];
@@ -953,18 +1099,18 @@ static PyObject *write_idx(PyObject *self, PyObject *args)
            unsigned int crc;
             unsigned PY_LONG_LONG ofs_ull;
            uint64_t ofs;
-           if (!PyArg_ParseTuple(PyList_GET_ITEM(part, j), "t#OO",
+           if (!PyArg_ParseTuple(PyList_GET_ITEM(part, j), rbuf_argf "OO",
                                  &sha, &sha_len, &crc_py, &ofs_py))
-               return NULL;
+                goto clean_and_return;
             if(!bup_uint_from_py(&crc, crc_py, "crc"))
-                return NULL;
+                goto clean_and_return;
             if(!bup_ullong_from_py(&ofs_ull, ofs_py, "ofs"))
-                return NULL;
+                goto clean_and_return;
             assert(crc <= UINT32_MAX);
             assert(ofs_ull <= UINT64_MAX);
            ofs = ofs_ull;
            if (sha_len != sizeof(struct sha))
-               return NULL;
+                goto clean_and_return;
            memcpy(sha_ptr++, sha, sizeof(struct sha));
            *crc_ptr++ = htonl(crc);
            if (ofs > 0x7fffffff)
@@ -976,11 +1122,18 @@ static PyObject *write_idx(PyObject *self, PyObject *args)
        }
     }
 
-    int rc = msync(fmap, flen, MS_ASYNC);
+    int rc = msync(fmap.buf, fmap.len, MS_ASYNC);
     if (rc != 0)
-       return PyErr_SetFromErrnoWithFilename(PyExc_IOError, filename);
+    {
+        result = PyErr_SetFromErrnoWithFilename(PyExc_IOError, filename);
+        goto clean_and_return;
+    }
 
-    return PyLong_FromUnsignedLong(count);
+    result = PyLong_FromUnsignedLong(count);
+
+ clean_and_return:
+    PyBuffer_Release(&fmap);
+    return result;
 }
 
 
@@ -1054,7 +1207,7 @@ static PyObject *random_sha(PyObject *self, PyObject *args)
     memset(shabuf, 0, sizeof(shabuf));
     for (i=0; i < 20/4; i++)
        shabuf[i] = random();
-    return Py_BuildValue("s#", shabuf, 20);
+    return Py_BuildValue(rbuf_argf, shabuf, 20);
 }
 
 
@@ -1090,7 +1243,7 @@ static PyObject *open_noatime(PyObject *self, PyObject *args)
 {
     char *filename = NULL;
     int fd;
-    if (!PyArg_ParseTuple(args, "s", &filename))
+    if (!PyArg_ParseTuple(args, cstr_argf, &filename))
        return NULL;
     fd = _open_noatime(filename, 0);
     if (fd < 0)
@@ -1137,7 +1290,7 @@ static PyObject *bup_get_linux_file_attr(PyObject *self, PyObject *args)
     char *path;
     int fd;
 
-    if (!PyArg_ParseTuple(args, "s", &path))
+    if (!PyArg_ParseTuple(args, cstr_argf, &path))
         return NULL;
 
     fd = _open_noatime(path, O_NONBLOCK);
@@ -1169,7 +1322,7 @@ static PyObject *bup_set_linux_file_attr(PyObject *self, PyObject *args)
     PyObject *py_attr;
     int fd;
 
-    if (!PyArg_ParseTuple(args, "sO", &path, &py_attr))
+    if (!PyArg_ParseTuple(args, cstr_argf "O", &path, &py_attr))
         return NULL;
 
     if (!bup_uint_from_py(&attr, py_attr, "attr"))
@@ -1399,7 +1552,7 @@ static PyObject *stat_struct_to_py(const struct stat *st,
     // compile time, but not (easily) the unspecified types, so handle
     // those via INTEGER_TO_PY().  Assumes ns values will fit in a
     // long.
-    return Py_BuildValue("OKOOOOOL(Ol)(Ol)(Ol)",
+    return Py_BuildValue("NKNNNNNL(Nl)(Nl)(Nl)",
                          INTEGER_TO_PY(st->st_mode),
                          (unsigned PY_LONG_LONG) st->st_ino,
                          INTEGER_TO_PY(st->st_dev),
@@ -1514,7 +1667,8 @@ static PyObject *bup_mincore(PyObject *self, PyObject *args)
         result = PyErr_Format(PyExc_OverflowError, "(src_off + src_n) too large");
         goto clean_and_return;
     }
-    if (src_region_end > src.len) {
+    assert(src.len >= 0);
+    if (src_region_end > (unsigned long long) src.len) {
         result = PyErr_Format(PyExc_OverflowError, "region runs off end of src");
         goto clean_and_return;
     }
@@ -1614,6 +1768,8 @@ static PyMethodDef helper_methods[] = {
 #endif
     { "bytescmp", bup_bytescmp, METH_VARARGS,
       "Return a negative value if x < y, zero if equal, positive otherwise."},
+    { "cat_bytes", bup_cat_bytes, METH_VARARGS,
+      "For (x_bytes, x_ofs, x_n, y_bytes, y_ofs, y_n) arguments, return their concatenation."},
 #ifdef BUP_MINCORE_BUF_TYPE
     { "mincore", bup_mincore, METH_VARARGS,
       "For mincore(src, src_n, src_off, dest, dest_off)"
@@ -1622,6 +1778,35 @@ static PyMethodDef helper_methods[] = {
     { NULL, NULL, 0, NULL },  // sentinel
 };
 
+static void test_integral_assignment_fits(void)
+{
+    assert(sizeof(signed short) == sizeof(unsigned short));
+    assert(sizeof(signed short) < sizeof(signed long long));
+    assert(sizeof(signed short) < sizeof(unsigned long long));
+    assert(sizeof(unsigned short) < sizeof(signed long long));
+    assert(sizeof(unsigned short) < sizeof(unsigned long long));
+    assert(sizeof(Py_ssize_t) <= sizeof(size_t));
+    {
+        signed short ss, ssmin = SHRT_MIN, ssmax = SHRT_MAX;
+        unsigned short us, usmax = USHRT_MAX;
+        signed long long sllmin = LLONG_MIN, sllmax = LLONG_MAX;
+        unsigned long long ullmax = ULLONG_MAX;
+
+        assert(INTEGRAL_ASSIGNMENT_FITS(&ss, ssmax));
+        assert(INTEGRAL_ASSIGNMENT_FITS(&ss, ssmin));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&ss, usmax));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&ss, sllmin));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&ss, sllmax));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&ss, ullmax));
+
+        assert(INTEGRAL_ASSIGNMENT_FITS(&us, usmax));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&us, ssmin));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&us, sllmin));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&us, sllmax));
+        assert(!INTEGRAL_ASSIGNMENT_FITS(&us, ullmax));
+    }
+}
+
 static int setup_module(PyObject *m)
 {
     // FIXME: migrate these tests to configure, or at least don't
@@ -1636,6 +1821,8 @@ static int setup_module(PyObject *m)
     assert(sizeof(PY_LONG_LONG) <= sizeof(long long));
     assert(sizeof(unsigned PY_LONG_LONG) <= sizeof(unsigned long long));
 
+    test_integral_assignment_fits();
+
     // Originally required by append_sparse_region()
     {
         off_t probe;