]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
MetaStoreReader.__del__: replace with context management
[bup.git] / lib / bup / index.py
1
2 from __future__ import absolute_import, print_function
3 import errno, os, stat, struct, tempfile
4
5 from bup import metadata, xstat
6 from bup._helpers import UINT_MAX, bytescmp
7 from bup.compat import pending_raise, range
8 from bup.helpers import (add_error, log, merge_iter, mmap_readwrite,
9                          progress, qprogress, resolve_parent, slashappend)
10
11 EMPTY_SHA = b'\0' * 20
12 FAKE_SHA = b'\x01' * 20
13
14 INDEX_HDR = b'BUPI\0\0\0\7'
15
16 # Time values are handled as integer nanoseconds since the epoch in
17 # memory, but are written as xstat/metadata timespecs.  This behavior
18 # matches the existing metadata/xstat/.bupm code.
19
20 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
21 # store all of the times in the index so they won't interfere with the
22 # forthcoming metadata cache.
23 INDEX_SIG = ('!'
24              'Q'                # dev
25              'Q'                # ino
26              'Q'                # nlink
27              'qQ'               # ctime_s, ctime_ns
28              'qQ'               # mtime_s, mtime_ns
29              'qQ'               # atime_s, atime_ns
30              'Q'                # size
31              'I'                # mode
32              'I'                # gitmode
33              '20s'              # sha
34              'H'                # flags
35              'Q'                # children_ofs
36              'I'                # children_n
37              'Q')               # meta_ofs
38
39 ENTLEN = struct.calcsize(INDEX_SIG)
40 FOOTER_SIG = '!Q'
41 FOOTLEN = struct.calcsize(FOOTER_SIG)
42
43 IX_EXISTS = 0x8000        # file exists on filesystem
44 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
45 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
46
47 class Error(Exception):
48     pass
49
50
51 class MetaStoreReader:
52     def __init__(self, filename):
53         self._file = None
54         self._file = open(filename, 'rb')
55
56     def close(self):
57         if self._file:
58             self._file.close()
59             self._file = None
60
61     def __enter__(self):
62         return self
63
64     def __exit__(self, type, value, traceback):
65         with pending_raise(value, rethrow=True):
66             self.close()
67
68     def metadata_at(self, ofs):
69         self._file.seek(ofs)
70         return metadata.Metadata.read(self._file)
71
72
73 class MetaStoreWriter:
74     # For now, we just append to the file, and try to handle any
75     # truncation or corruption somewhat sensibly.
76
77     def __init__(self, filename):
78         # Map metadata hashes to bupindex.meta offsets.
79         self._offsets = {}
80         self._filename = filename
81         self._file = None
82         # FIXME: see how slow this is; does it matter?
83         m_file = open(filename, 'ab+')
84         try:
85             m_file.seek(0)
86             try:
87                 m_off = m_file.tell()
88                 m = metadata.Metadata.read(m_file)
89                 while m:
90                     m_encoded = m.encode()
91                     self._offsets[m_encoded] = m_off
92                     m_off = m_file.tell()
93                     m = metadata.Metadata.read(m_file)
94             except EOFError:
95                 pass
96             except:
97                 log('index metadata in %r appears to be corrupt\n' % filename)
98                 raise
99         finally:
100             m_file.close()
101         self._file = open(filename, 'ab')
102
103     def close(self):
104         if self._file:
105             self._file.close()
106             self._file = None
107
108     def __del__(self):
109         # Be optimistic.
110         self.close()
111
112     def store(self, metadata):
113         meta_encoded = metadata.encode(include_path=False)
114         ofs = self._offsets.get(meta_encoded)
115         if ofs:
116             return ofs
117         ofs = self._file.tell()
118         self._file.write(meta_encoded)
119         self._offsets[meta_encoded] = ofs
120         return ofs
121
122
123 class Level:
124     def __init__(self, ename, parent):
125         self.parent = parent
126         self.ename = ename
127         self.list = []
128         self.count = 0
129
130     def write(self, f):
131         (ofs,n) = (f.tell(), len(self.list))
132         if self.list:
133             count = len(self.list)
134             #log('popping %r with %d entries\n'
135             #    % (''.join(self.ename), count))
136             for e in self.list:
137                 e.write(f)
138             if self.parent:
139                 self.parent.count += count + self.count
140         return (ofs,n)
141
142
143 def _golevel(level, f, ename, newentry, metastore, tmax):
144     # close nodes back up the tree
145     assert(level)
146     default_meta_ofs = metastore.store(metadata.Metadata())
147     while ename[:len(level.ename)] != level.ename:
148         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
149         n.flags |= IX_EXISTS
150         (n.children_ofs,n.children_n) = level.write(f)
151         level.parent.list.append(n)
152         level = level.parent
153
154     # create nodes down the tree
155     while len(level.ename) < len(ename):
156         level = Level(ename[:len(level.ename)+1], level)
157
158     # are we in precisely the right place?
159     assert(ename == level.ename)
160     n = newentry or \
161         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
162     (n.children_ofs,n.children_n) = level.write(f)
163     if level.parent:
164         level.parent.list.append(n)
165     level = level.parent
166
167     return level
168
169
170 class Entry:
171     def __init__(self, basename, name, meta_ofs, tmax):
172         assert basename is None or isinstance(basename, bytes)
173         assert name is None or isinstance(name, bytes)
174         self.basename = basename
175         self.name = name
176         self.meta_ofs = meta_ofs
177         self.tmax = tmax
178         self.children_ofs = 0
179         self.children_n = 0
180
181     def __repr__(self):
182         return ("(%r,0x%04x,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
183                 % (self.name, self.dev, self.ino, self.nlink,
184                    self.ctime, self.mtime, self.atime,
185                    self.size, self.mode, self.gitmode,
186                    self.flags, self.meta_ofs,
187                    self.children_ofs, self.children_n))
188
189     def packed(self):
190         try:
191             ctime = xstat.nsecs_to_timespec(self.ctime)
192             mtime = xstat.nsecs_to_timespec(self.mtime)
193             atime = xstat.nsecs_to_timespec(self.atime)
194             return struct.pack(INDEX_SIG,
195                                self.dev, self.ino, self.nlink,
196                                ctime[0], ctime[1],
197                                mtime[0], mtime[1],
198                                atime[0], atime[1],
199                                self.size, self.mode,
200                                self.gitmode, self.sha, self.flags,
201                                self.children_ofs, self.children_n,
202                                self.meta_ofs)
203         except (DeprecationWarning, struct.error) as e:
204             log('pack error: %s (%r)\n' % (e, self))
205             raise
206
207     def stale(self, st, check_device=True):
208         if self.size != st.st_size:
209             return True
210         if self.mtime != st.st_mtime:
211             return True
212         if self.sha == EMPTY_SHA:
213             return True
214         if not self.gitmode:
215             return True
216         if self.ctime != st.st_ctime:
217             return True
218         if self.ino != st.st_ino:
219             return True
220         if self.nlink != st.st_nlink:
221             return True
222         if not (self.flags & IX_EXISTS):
223             return True
224         if check_device and (self.dev != st.st_dev):
225             return True
226         return False
227
228     def update_from_stat(self, st, meta_ofs):
229         # Should only be called when the entry is stale(), and
230         # invalidate() should almost certainly be called afterward.
231         self.dev = st.st_dev
232         self.ino = st.st_ino
233         self.nlink = st.st_nlink
234         self.ctime = st.st_ctime
235         self.mtime = st.st_mtime
236         self.atime = st.st_atime
237         self.size = st.st_size
238         self.mode = st.st_mode
239         self.flags |= IX_EXISTS
240         self.meta_ofs = meta_ofs
241         self._fixup()
242
243     def _fixup(self):
244         self.mtime = self._fixup_time(self.mtime)
245         self.ctime = self._fixup_time(self.ctime)
246
247     def _fixup_time(self, t):
248         if self.tmax != None and t > self.tmax:
249             return self.tmax
250         else:
251             return t
252
253     def is_valid(self):
254         f = IX_HASHVALID|IX_EXISTS
255         return (self.flags & f) == f
256
257     def invalidate(self):
258         self.flags &= ~IX_HASHVALID
259
260     def validate(self, gitmode, sha):
261         assert(sha)
262         assert(gitmode)
263         assert(gitmode+0 == gitmode)
264         self.gitmode = gitmode
265         self.sha = sha
266         self.flags |= IX_HASHVALID|IX_EXISTS
267
268     def exists(self):
269         return not self.is_deleted()
270
271     def sha_missing(self):
272         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
273
274     def is_deleted(self):
275         return (self.flags & IX_EXISTS) == 0
276
277     def set_deleted(self):
278         if self.flags & IX_EXISTS:
279             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
280
281     def is_real(self):
282         return not self.is_fake()
283
284     def is_fake(self):
285         return not self.ctime
286
287     def _cmp(self, other):
288         # Note reversed name ordering
289         bc = bytescmp(other.name, self.name)
290         if bc != 0:
291             return bc
292         vc = self.is_valid() - other.is_valid()
293         if vc != 0:
294             return vc
295         fc = self.is_fake() - other.is_fake()
296         if fc != 0:
297             return fc
298         return 0
299
300     def __eq__(self, other):
301         return self._cmp(other) == 0
302
303     def __ne__(self, other):
304         return self._cmp(other) != 0
305
306     def __lt__(self, other):
307         return self._cmp(other) < 0
308
309     def __gt__(self, other):
310         return self._cmp(other) > 0
311
312     def __le__(self, other):
313         return self._cmp(other) <= 0
314
315     def __ge__(self, other):
316         return self._cmp(other) >= 0
317
318     def write(self, f):
319         f.write(self.basename + b'\0' + self.packed())
320
321
322 class NewEntry(Entry):
323     def __init__(self, basename, name, tmax, dev, ino, nlink,
324                  ctime, mtime, atime,
325                  size, mode, gitmode, sha, flags, meta_ofs,
326                  children_ofs, children_n):
327         Entry.__init__(self, basename, name, meta_ofs, tmax)
328         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
329          self.size, self.mode, self.gitmode, self.sha,
330          self.flags, self.children_ofs, self.children_n
331          ) = (dev, ino, nlink, ctime, mtime, atime,
332               size, mode, gitmode, sha, flags, children_ofs, children_n)
333         self._fixup()
334
335
336 class BlankNewEntry(NewEntry):
337     def __init__(self, basename, meta_ofs, tmax):
338         NewEntry.__init__(self, basename, basename, tmax,
339                           0, 0, 0, 0, 0, 0, 0, 0,
340                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
341
342
343 class ExistingEntry(Entry):
344     def __init__(self, parent, basename, name, m, ofs):
345         Entry.__init__(self, basename, name, None, None)
346         self.parent = parent
347         self._m = m
348         self._ofs = ofs
349         (self.dev, self.ino, self.nlink,
350          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
351          self.size, self.mode, self.gitmode, self.sha,
352          self.flags, self.children_ofs, self.children_n, self.meta_ofs
353          ) = struct.unpack(INDEX_SIG, m[ofs : ofs + ENTLEN])
354         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
355         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
356         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
357
358     # effectively, we don't bother messing with IX_SHAMISSING if
359     # not IX_HASHVALID, since it's redundant, and repacking is more
360     # expensive than not repacking.
361     # This is implemented by having sha_missing() check IX_HASHVALID too.
362     def set_sha_missing(self, val):
363         val = val and 1 or 0
364         oldval = self.sha_missing() and 1 or 0
365         if val != oldval:
366             flag = val and IX_SHAMISSING or 0
367             newflags = (self.flags & (~IX_SHAMISSING)) | flag
368             self.flags = newflags
369             self.repack()
370
371     def unset_sha_missing(self, flag):
372         if self.flags & IX_SHAMISSING:
373             self.flags &= ~IX_SHAMISSING
374             self.repack()
375
376     def repack(self):
377         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
378         if self.parent and not self.is_valid():
379             self.parent.invalidate()
380             self.parent.repack()
381
382     def iter(self, name=None, wantrecurse=None):
383         dname = name
384         if dname and not dname.endswith(b'/'):
385             dname += b'/'
386         ofs = self.children_ofs
387         assert(ofs <= len(self._m))
388         assert(self.children_n <= UINT_MAX)  # i.e. python struct 'I'
389         for i in range(self.children_n):
390             eon = self._m.find(b'\0', ofs)
391             assert(eon >= 0)
392             assert(eon >= ofs)
393             assert(eon > ofs)
394             basename = self._m[ofs : ofs + (eon - ofs)]
395             child = ExistingEntry(self, basename, self.name + basename,
396                                   self._m, eon+1)
397             if (not dname
398                  or child.name.startswith(dname)
399                  or child.name.endswith(b'/') and dname.startswith(child.name)):
400                 if not wantrecurse or wantrecurse(child):
401                     for e in child.iter(name=name, wantrecurse=wantrecurse):
402                         yield e
403             if not name or child.name == name or child.name.startswith(dname):
404                 yield child
405             ofs = eon + 1 + ENTLEN
406
407     def __iter__(self):
408         return self.iter()
409
410
411 class Reader:
412     def __init__(self, filename):
413         self.filename = filename
414         self.m = b''
415         self.writable = False
416         self.count = 0
417         f = None
418         try:
419             f = open(filename, 'rb+')
420         except IOError as e:
421             if e.errno == errno.ENOENT:
422                 pass
423             else:
424                 raise
425         if f:
426             b = f.read(len(INDEX_HDR))
427             if b != INDEX_HDR:
428                 log('warning: %s: header: expected %r, got %r\n'
429                                  % (filename, INDEX_HDR, b))
430             else:
431                 st = os.fstat(f.fileno())
432                 if st.st_size:
433                     self.m = mmap_readwrite(f)
434                     self.writable = True
435                     self.count = struct.unpack(FOOTER_SIG,
436                                                self.m[st.st_size - FOOTLEN
437                                                       : st.st_size])[0]
438
439     def __del__(self):
440         self.close()
441
442     def __len__(self):
443         return int(self.count)
444
445     def forward_iter(self):
446         ofs = len(INDEX_HDR)
447         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
448             eon = self.m.find(b'\0', ofs)
449             assert(eon >= 0)
450             assert(eon >= ofs)
451             assert(eon > ofs)
452             basename = self.m[ofs : ofs + (eon - ofs)]
453             yield ExistingEntry(None, basename, basename, self.m, eon+1)
454             ofs = eon + 1 + ENTLEN
455
456     def iter(self, name=None, wantrecurse=None):
457         if len(self.m) > len(INDEX_HDR)+ENTLEN:
458             dname = name
459             if dname and not dname.endswith(b'/'):
460                 dname += b'/'
461             root = ExistingEntry(None, b'/', b'/',
462                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
463             for sub in root.iter(name=name, wantrecurse=wantrecurse):
464                 yield sub
465             if not dname or dname == root.name:
466                 yield root
467
468     def __iter__(self):
469         return self.iter()
470
471     def find(self, name):
472         return next((e for e in self.iter(name, wantrecurse=lambda x : True)
473                      if e.name == name),
474                     None)
475
476     def exists(self):
477         return self.m
478
479     def save(self):
480         if self.writable and self.m:
481             self.m.flush()
482
483     def close(self):
484         self.save()
485         if self.writable and self.m:
486             self.m.close()
487             self.m = None
488             self.writable = False
489
490     def filter(self, prefixes, wantrecurse=None):
491         for (rp, path) in reduce_paths(prefixes):
492             any_entries = False
493             for e in self.iter(rp, wantrecurse=wantrecurse):
494                 any_entries = True
495                 assert(e.name.startswith(rp))
496                 name = path + e.name[len(rp):]
497                 yield (name, e)
498             if not any_entries:
499                 # Always return at least the top for each prefix.
500                 # Otherwise something like "save x/y" will produce
501                 # nothing if x is up to date.
502                 pe = self.find(rp)
503                 assert(pe)
504                 name = path + pe.name[len(rp):]
505                 yield (name, pe)
506
507 # FIXME: this function isn't very generic, because it splits the filename
508 # in an odd way and depends on a terminating '/' to indicate directories.
509 def pathsplit(p):
510     """Split a path into a list of elements of the file system hierarchy."""
511     l = p.split(b'/')
512     l = [i + b'/' for i in l[:-1]] + l[-1:]
513     if l[-1] == b'':
514         l.pop()  # extra blank caused by terminating '/'
515     return l
516
517
518 class Writer:
519     def __init__(self, filename, metastore, tmax):
520         self.rootlevel = self.level = Level([], None)
521         self.f = None
522         self.count = 0
523         self.lastfile = None
524         self.filename = None
525         self.filename = filename = resolve_parent(filename)
526         self.metastore = metastore
527         self.tmax = tmax
528         (dir,name) = os.path.split(filename)
529         ffd, self.tmpname = tempfile.mkstemp(b'.tmp', filename, dir)
530         self.f = os.fdopen(ffd, 'wb', 65536)
531         self.f.write(INDEX_HDR)
532
533     def __del__(self):
534         self.abort()
535
536     def abort(self):
537         f = self.f
538         self.f = None
539         if f:
540             f.close()
541             os.unlink(self.tmpname)
542
543     def flush(self):
544         if self.level:
545             self.level = _golevel(self.level, self.f, [], None,
546                                   self.metastore, self.tmax)
547             self.count = self.rootlevel.count
548             if self.count:
549                 self.count += 1
550             self.f.write(struct.pack(FOOTER_SIG, self.count))
551             self.f.flush()
552         assert(self.level == None)
553
554     def close(self):
555         self.flush()
556         f = self.f
557         self.f = None
558         if f:
559             f.close()
560             os.rename(self.tmpname, self.filename)
561
562     def _add(self, ename, entry):
563         if self.lastfile and self.lastfile <= ename:
564             raise Error('%r must come before %r'
565                              % (''.join(ename), ''.join(self.lastfile)))
566         self.lastfile = ename
567         self.level = _golevel(self.level, self.f, ename, entry,
568                               self.metastore, self.tmax)
569
570     def add(self, name, st, meta_ofs, hashgen = None):
571         endswith = name.endswith(b'/')
572         ename = pathsplit(name)
573         basename = ename[-1]
574         #log('add: %r %r\n' % (basename, name))
575         flags = IX_EXISTS
576         sha = None
577         if hashgen:
578             (gitmode, sha) = hashgen(name)
579             flags |= IX_HASHVALID
580         else:
581             (gitmode, sha) = (0, EMPTY_SHA)
582         if st:
583             isdir = stat.S_ISDIR(st.st_mode)
584             assert(isdir == endswith)
585             e = NewEntry(basename, name, self.tmax,
586                          st.st_dev, st.st_ino, st.st_nlink,
587                          st.st_ctime, st.st_mtime, st.st_atime,
588                          st.st_size, st.st_mode, gitmode, sha, flags,
589                          meta_ofs, 0, 0)
590         else:
591             assert(endswith)
592             meta_ofs = self.metastore.store(metadata.Metadata())
593             e = BlankNewEntry(basename, meta_ofs, self.tmax)
594             e.gitmode = gitmode
595             e.sha = sha
596             e.flags = flags
597         self._add(ename, e)
598
599     def add_ixentry(self, e):
600         e.children_ofs = e.children_n = 0
601         self._add(pathsplit(e.name), e)
602
603     def new_reader(self):
604         self.flush()
605         return Reader(self.tmpname)
606
607
608 def _slashappend_or_add_error(p, caller):
609     """Return p, after ensuring it has a single trailing slash if it names
610     a directory, unless there's an OSError, in which case, call
611     add_error() and return None."""
612     try:
613         st = os.lstat(p)
614     except OSError as e:
615         add_error('%s: %s' % (caller, e))
616         return None
617     else:
618         if stat.S_ISDIR(st.st_mode):
619             return slashappend(p)
620         return p
621
622
623 def unique_resolved_paths(paths):
624     "Return a collection of unique resolved paths."
625     rps = (_slashappend_or_add_error(resolve_parent(p), 'unique_resolved_paths')
626            for p in paths)
627     return frozenset((x for x in rps if x is not None))
628
629
630 def reduce_paths(paths):
631     xpaths = []
632     for p in paths:
633         rp = _slashappend_or_add_error(resolve_parent(p), 'reduce_paths')
634         if rp:
635             xpaths.append((rp, slashappend(p) if rp.endswith(b'/') else p))
636     xpaths.sort()
637
638     paths = []
639     prev = None
640     for (rp, p) in xpaths:
641         if prev and (prev == rp
642                      or (prev.endswith(b'/') and rp.startswith(prev))):
643             continue # already superceded by previous path
644         paths.append((rp, p))
645         prev = rp
646     paths.sort(reverse=True)
647     return paths
648
649
650 def merge(*iters):
651     def pfunc(count, total):
652         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
653     def pfinal(count, total):
654         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
655     return merge_iter(iters, 1024, pfunc, pfinal, key='name')