]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
MetaStoreReader: protect __del__ against init failures
[bup.git] / lib / bup / index.py
1
2 from __future__ import absolute_import, print_function
3 import errno, os, stat, struct, tempfile
4
5 from bup import metadata, xstat
6 from bup._helpers import UINT_MAX, bytescmp
7 from bup.compat import pending_raise, range
8 from bup.helpers import (add_error, log, merge_iter, mmap_readwrite,
9                          progress, qprogress, resolve_parent, slashappend)
10
11 EMPTY_SHA = b'\0' * 20
12 FAKE_SHA = b'\x01' * 20
13
14 INDEX_HDR = b'BUPI\0\0\0\7'
15
16 # Time values are handled as integer nanoseconds since the epoch in
17 # memory, but are written as xstat/metadata timespecs.  This behavior
18 # matches the existing metadata/xstat/.bupm code.
19
20 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
21 # store all of the times in the index so they won't interfere with the
22 # forthcoming metadata cache.
23 INDEX_SIG = ('!'
24              'Q'                # dev
25              'Q'                # ino
26              'Q'                # nlink
27              'qQ'               # ctime_s, ctime_ns
28              'qQ'               # mtime_s, mtime_ns
29              'qQ'               # atime_s, atime_ns
30              'Q'                # size
31              'I'                # mode
32              'I'                # gitmode
33              '20s'              # sha
34              'H'                # flags
35              'Q'                # children_ofs
36              'I'                # children_n
37              'Q')               # meta_ofs
38
39 ENTLEN = struct.calcsize(INDEX_SIG)
40 FOOTER_SIG = '!Q'
41 FOOTLEN = struct.calcsize(FOOTER_SIG)
42
43 IX_EXISTS = 0x8000        # file exists on filesystem
44 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
45 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
46
47 class Error(Exception):
48     pass
49
50
51 class MetaStoreReader:
52     def __init__(self, filename):
53         self._file = None
54         self._file = open(filename, 'rb')
55
56     def close(self):
57         f, self._file = self._file, None
58         if f:
59             f.close()
60
61     def __del__(self):
62         assert not self._file
63
64     def __enter__(self):
65         return self
66
67     def __exit__(self, type, value, traceback):
68         with pending_raise(value, rethrow=True):
69             self.close()
70
71     def metadata_at(self, ofs):
72         self._file.seek(ofs)
73         return metadata.Metadata.read(self._file)
74
75
76 class MetaStoreWriter:
77     # For now, we just append to the file, and try to handle any
78     # truncation or corruption somewhat sensibly.
79
80     def __init__(self, filename):
81         self._closed = False
82         # Map metadata hashes to bupindex.meta offsets.
83         self._offsets = {}
84         self._filename = filename
85         self._file = None
86         # FIXME: see how slow this is; does it matter?
87         m_file = open(filename, 'ab+')
88         try:
89             m_file.seek(0)
90             try:
91                 m_off = m_file.tell()
92                 m = metadata.Metadata.read(m_file)
93                 while m:
94                     m_encoded = m.encode()
95                     self._offsets[m_encoded] = m_off
96                     m_off = m_file.tell()
97                     m = metadata.Metadata.read(m_file)
98             except EOFError:
99                 pass
100             except:
101                 log('index metadata in %r appears to be corrupt\n' % filename)
102                 raise
103         finally:
104             m_file.close()
105         self._file = open(filename, 'ab')
106
107     def close(self):
108         self._closed = True
109         if self._file:
110             self._file.close()
111             self._file = None
112
113     def __del__(self):
114         assert self._closed
115
116     def __enter__(self):
117         return self
118
119     def __exit__(self, type, value, traceback):
120         with pending_raise(value, rethrow=False):
121             self.close()
122
123     def store(self, metadata):
124         meta_encoded = metadata.encode(include_path=False)
125         ofs = self._offsets.get(meta_encoded)
126         if ofs:
127             return ofs
128         ofs = self._file.tell()
129         self._file.write(meta_encoded)
130         self._offsets[meta_encoded] = ofs
131         return ofs
132
133
134 class Level:
135     def __init__(self, ename, parent):
136         self.parent = parent
137         self.ename = ename
138         self.list = []
139         self.count = 0
140
141     def write(self, f):
142         (ofs,n) = (f.tell(), len(self.list))
143         if self.list:
144             count = len(self.list)
145             #log('popping %r with %d entries\n'
146             #    % (''.join(self.ename), count))
147             for e in self.list:
148                 e.write(f)
149             if self.parent:
150                 self.parent.count += count + self.count
151         return (ofs,n)
152
153
154 def _golevel(level, f, ename, newentry, metastore, tmax):
155     # close nodes back up the tree
156     assert(level)
157     default_meta_ofs = metastore.store(metadata.Metadata())
158     while ename[:len(level.ename)] != level.ename:
159         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
160         n.flags |= IX_EXISTS
161         (n.children_ofs,n.children_n) = level.write(f)
162         level.parent.list.append(n)
163         level = level.parent
164
165     # create nodes down the tree
166     while len(level.ename) < len(ename):
167         level = Level(ename[:len(level.ename)+1], level)
168
169     # are we in precisely the right place?
170     assert(ename == level.ename)
171     n = newentry or \
172         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
173     (n.children_ofs,n.children_n) = level.write(f)
174     if level.parent:
175         level.parent.list.append(n)
176     level = level.parent
177
178     return level
179
180
181 class Entry:
182     def __init__(self, basename, name, meta_ofs, tmax):
183         assert basename is None or isinstance(basename, bytes)
184         assert name is None or isinstance(name, bytes)
185         self.basename = basename
186         self.name = name
187         self.meta_ofs = meta_ofs
188         self.tmax = tmax
189         self.children_ofs = 0
190         self.children_n = 0
191
192     def __repr__(self):
193         return ("(%r,0x%04x,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
194                 % (self.name, self.dev, self.ino, self.nlink,
195                    self.ctime, self.mtime, self.atime,
196                    self.size, self.mode, self.gitmode,
197                    self.flags, self.meta_ofs,
198                    self.children_ofs, self.children_n))
199
200     def packed(self):
201         try:
202             ctime = xstat.nsecs_to_timespec(self.ctime)
203             mtime = xstat.nsecs_to_timespec(self.mtime)
204             atime = xstat.nsecs_to_timespec(self.atime)
205             return struct.pack(INDEX_SIG,
206                                self.dev, self.ino, self.nlink,
207                                ctime[0], ctime[1],
208                                mtime[0], mtime[1],
209                                atime[0], atime[1],
210                                self.size, self.mode,
211                                self.gitmode, self.sha, self.flags,
212                                self.children_ofs, self.children_n,
213                                self.meta_ofs)
214         except (DeprecationWarning, struct.error) as e:
215             log('pack error: %s (%r)\n' % (e, self))
216             raise
217
218     def stale(self, st, check_device=True):
219         if self.size != st.st_size:
220             return True
221         if self.mtime != st.st_mtime:
222             return True
223         if self.sha == EMPTY_SHA:
224             return True
225         if not self.gitmode:
226             return True
227         if self.ctime != st.st_ctime:
228             return True
229         if self.ino != st.st_ino:
230             return True
231         if self.nlink != st.st_nlink:
232             return True
233         if not (self.flags & IX_EXISTS):
234             return True
235         if check_device and (self.dev != st.st_dev):
236             return True
237         return False
238
239     def update_from_stat(self, st, meta_ofs):
240         # Should only be called when the entry is stale(), and
241         # invalidate() should almost certainly be called afterward.
242         self.dev = st.st_dev
243         self.ino = st.st_ino
244         self.nlink = st.st_nlink
245         self.ctime = st.st_ctime
246         self.mtime = st.st_mtime
247         self.atime = st.st_atime
248         self.size = st.st_size
249         self.mode = st.st_mode
250         self.flags |= IX_EXISTS
251         self.meta_ofs = meta_ofs
252         self._fixup()
253
254     def _fixup(self):
255         self.mtime = self._fixup_time(self.mtime)
256         self.ctime = self._fixup_time(self.ctime)
257
258     def _fixup_time(self, t):
259         if self.tmax != None and t > self.tmax:
260             return self.tmax
261         else:
262             return t
263
264     def is_valid(self):
265         f = IX_HASHVALID|IX_EXISTS
266         return (self.flags & f) == f
267
268     def invalidate(self):
269         self.flags &= ~IX_HASHVALID
270
271     def validate(self, gitmode, sha):
272         assert(sha)
273         assert(gitmode)
274         assert(gitmode+0 == gitmode)
275         self.gitmode = gitmode
276         self.sha = sha
277         self.flags |= IX_HASHVALID|IX_EXISTS
278
279     def exists(self):
280         return not self.is_deleted()
281
282     def sha_missing(self):
283         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
284
285     def is_deleted(self):
286         return (self.flags & IX_EXISTS) == 0
287
288     def set_deleted(self):
289         if self.flags & IX_EXISTS:
290             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
291
292     def is_real(self):
293         return not self.is_fake()
294
295     def is_fake(self):
296         return not self.ctime
297
298     def _cmp(self, other):
299         # Note reversed name ordering
300         bc = bytescmp(other.name, self.name)
301         if bc != 0:
302             return bc
303         vc = self.is_valid() - other.is_valid()
304         if vc != 0:
305             return vc
306         fc = self.is_fake() - other.is_fake()
307         if fc != 0:
308             return fc
309         return 0
310
311     def __eq__(self, other):
312         return self._cmp(other) == 0
313
314     def __ne__(self, other):
315         return self._cmp(other) != 0
316
317     def __lt__(self, other):
318         return self._cmp(other) < 0
319
320     def __gt__(self, other):
321         return self._cmp(other) > 0
322
323     def __le__(self, other):
324         return self._cmp(other) <= 0
325
326     def __ge__(self, other):
327         return self._cmp(other) >= 0
328
329     def write(self, f):
330         f.write(self.basename + b'\0' + self.packed())
331
332
333 class NewEntry(Entry):
334     def __init__(self, basename, name, tmax, dev, ino, nlink,
335                  ctime, mtime, atime,
336                  size, mode, gitmode, sha, flags, meta_ofs,
337                  children_ofs, children_n):
338         Entry.__init__(self, basename, name, meta_ofs, tmax)
339         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
340          self.size, self.mode, self.gitmode, self.sha,
341          self.flags, self.children_ofs, self.children_n
342          ) = (dev, ino, nlink, ctime, mtime, atime,
343               size, mode, gitmode, sha, flags, children_ofs, children_n)
344         self._fixup()
345
346
347 class BlankNewEntry(NewEntry):
348     def __init__(self, basename, meta_ofs, tmax):
349         NewEntry.__init__(self, basename, basename, tmax,
350                           0, 0, 0, 0, 0, 0, 0, 0,
351                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
352
353
354 class ExistingEntry(Entry):
355     def __init__(self, parent, basename, name, m, ofs):
356         Entry.__init__(self, basename, name, None, None)
357         self.parent = parent
358         self._m = m
359         self._ofs = ofs
360         (self.dev, self.ino, self.nlink,
361          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
362          self.size, self.mode, self.gitmode, self.sha,
363          self.flags, self.children_ofs, self.children_n, self.meta_ofs
364          ) = struct.unpack(INDEX_SIG, m[ofs : ofs + ENTLEN])
365         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
366         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
367         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
368
369     # effectively, we don't bother messing with IX_SHAMISSING if
370     # not IX_HASHVALID, since it's redundant, and repacking is more
371     # expensive than not repacking.
372     # This is implemented by having sha_missing() check IX_HASHVALID too.
373     def set_sha_missing(self, val):
374         val = val and 1 or 0
375         oldval = self.sha_missing() and 1 or 0
376         if val != oldval:
377             flag = val and IX_SHAMISSING or 0
378             newflags = (self.flags & (~IX_SHAMISSING)) | flag
379             self.flags = newflags
380             self.repack()
381
382     def unset_sha_missing(self, flag):
383         if self.flags & IX_SHAMISSING:
384             self.flags &= ~IX_SHAMISSING
385             self.repack()
386
387     def repack(self):
388         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
389         if self.parent and not self.is_valid():
390             self.parent.invalidate()
391             self.parent.repack()
392
393     def iter(self, name=None, wantrecurse=None):
394         dname = name
395         if dname and not dname.endswith(b'/'):
396             dname += b'/'
397         ofs = self.children_ofs
398         assert(ofs <= len(self._m))
399         assert(self.children_n <= UINT_MAX)  # i.e. python struct 'I'
400         for i in range(self.children_n):
401             eon = self._m.find(b'\0', ofs)
402             assert(eon >= 0)
403             assert(eon >= ofs)
404             assert(eon > ofs)
405             basename = self._m[ofs : ofs + (eon - ofs)]
406             child = ExistingEntry(self, basename, self.name + basename,
407                                   self._m, eon+1)
408             if (not dname
409                  or child.name.startswith(dname)
410                  or child.name.endswith(b'/') and dname.startswith(child.name)):
411                 if not wantrecurse or wantrecurse(child):
412                     for e in child.iter(name=name, wantrecurse=wantrecurse):
413                         yield e
414             if not name or child.name == name or child.name.startswith(dname):
415                 yield child
416             ofs = eon + 1 + ENTLEN
417
418     def __iter__(self):
419         return self.iter()
420
421
422 class Reader:
423     def __init__(self, filename):
424         self.closed = False
425         self.filename = filename
426         self.m = b''
427         self.writable = False
428         self.count = 0
429         f = None
430         try:
431             f = open(filename, 'rb+')
432         except IOError as e:
433             if e.errno == errno.ENOENT:
434                 pass
435             else:
436                 raise
437         if f:
438             b = f.read(len(INDEX_HDR))
439             if b != INDEX_HDR:
440                 log('warning: %s: header: expected %r, got %r\n'
441                                  % (filename, INDEX_HDR, b))
442             else:
443                 st = os.fstat(f.fileno())
444                 if st.st_size:
445                     self.m = mmap_readwrite(f)
446                     self.writable = True
447                     self.count = struct.unpack(FOOTER_SIG,
448                                                self.m[st.st_size - FOOTLEN
449                                                       : st.st_size])[0]
450
451     def __enter__(self):
452         return self
453
454     def __exit__(self, type, value, traceback):
455         with pending_raise(value, rethrow=False):
456             self.close()
457
458     def __len__(self):
459         return int(self.count)
460
461     def forward_iter(self):
462         ofs = len(INDEX_HDR)
463         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
464             eon = self.m.find(b'\0', ofs)
465             assert(eon >= 0)
466             assert(eon >= ofs)
467             assert(eon > ofs)
468             basename = self.m[ofs : ofs + (eon - ofs)]
469             yield ExistingEntry(None, basename, basename, self.m, eon+1)
470             ofs = eon + 1 + ENTLEN
471
472     def iter(self, name=None, wantrecurse=None):
473         if len(self.m) > len(INDEX_HDR)+ENTLEN:
474             dname = name
475             if dname and not dname.endswith(b'/'):
476                 dname += b'/'
477             root = ExistingEntry(None, b'/', b'/',
478                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
479             for sub in root.iter(name=name, wantrecurse=wantrecurse):
480                 yield sub
481             if not dname or dname == root.name:
482                 yield root
483
484     def __iter__(self):
485         return self.iter()
486
487     def find(self, name):
488         return next((e for e in self.iter(name, wantrecurse=lambda x : True)
489                      if e.name == name),
490                     None)
491
492     def exists(self):
493         return self.m
494
495     def save(self):
496         if self.writable and self.m:
497             self.m.flush()
498
499     def close(self):
500         self.closed = True
501         self.save()
502         if self.writable and self.m:
503             self.m.close()
504             self.m = None
505             self.writable = False
506
507     def __del__(self):
508         assert self.closed
509
510     def filter(self, prefixes, wantrecurse=None):
511         for (rp, path) in reduce_paths(prefixes):
512             any_entries = False
513             for e in self.iter(rp, wantrecurse=wantrecurse):
514                 any_entries = True
515                 assert(e.name.startswith(rp))
516                 name = path + e.name[len(rp):]
517                 yield (name, e)
518             if not any_entries:
519                 # Always return at least the top for each prefix.
520                 # Otherwise something like "save x/y" will produce
521                 # nothing if x is up to date.
522                 pe = self.find(rp)
523                 if not pe:
524                     raise Exception("cannot find %r" % rp)
525                 name = path + pe.name[len(rp):]
526                 yield (name, pe)
527
528 # FIXME: this function isn't very generic, because it splits the filename
529 # in an odd way and depends on a terminating '/' to indicate directories.
530 def pathsplit(p):
531     """Split a path into a list of elements of the file system hierarchy."""
532     l = p.split(b'/')
533     l = [i + b'/' for i in l[:-1]] + l[-1:]
534     if l[-1] == b'':
535         l.pop()  # extra blank caused by terminating '/'
536     return l
537
538
539 class Writer:
540     def __init__(self, filename, metastore, tmax):
541         self.closed = False
542         self.rootlevel = self.level = Level([], None)
543         self.f = None
544         self.count = 0
545         self.lastfile = None
546         self.filename = None
547         self.filename = filename = resolve_parent(filename)
548         self.metastore = metastore
549         self.tmax = tmax
550         (dir,name) = os.path.split(filename)
551         ffd, self.tmpname = tempfile.mkstemp(b'.tmp', filename, dir)
552         self.f = os.fdopen(ffd, 'wb', 65536)
553         self.f.write(INDEX_HDR)
554
555     def __enter__(self):
556         return self
557
558     def __exit__(self, type, value, traceback):
559         with pending_raise(value, rethrow=False):
560             self.abort()
561
562     def abort(self):
563         self.closed = True
564         f = self.f
565         self.f = None
566         if f:
567             f.close()
568             os.unlink(self.tmpname)
569
570     def flush(self):
571         if self.level:
572             self.level = _golevel(self.level, self.f, [], None,
573                                   self.metastore, self.tmax)
574             self.count = self.rootlevel.count
575             if self.count:
576                 self.count += 1
577             self.f.write(struct.pack(FOOTER_SIG, self.count))
578             self.f.flush()
579         assert(self.level == None)
580
581     def close(self):
582         self.closed = True
583         self.flush()
584         f = self.f
585         self.f = None
586         if f:
587             f.close()
588             os.rename(self.tmpname, self.filename)
589
590     def __del__(self):
591         assert self.closed
592
593     def _add(self, ename, entry):
594         if self.lastfile and self.lastfile <= ename:
595             raise Error('%r must come before %r'
596                              % (''.join(ename), ''.join(self.lastfile)))
597         self.lastfile = ename
598         self.level = _golevel(self.level, self.f, ename, entry,
599                               self.metastore, self.tmax)
600
601     def add(self, name, st, meta_ofs, hashgen = None):
602         endswith = name.endswith(b'/')
603         ename = pathsplit(name)
604         basename = ename[-1]
605         #log('add: %r %r\n' % (basename, name))
606         flags = IX_EXISTS
607         sha = None
608         if hashgen:
609             (gitmode, sha) = hashgen(name)
610             flags |= IX_HASHVALID
611         else:
612             (gitmode, sha) = (0, EMPTY_SHA)
613         if st:
614             isdir = stat.S_ISDIR(st.st_mode)
615             assert(isdir == endswith)
616             e = NewEntry(basename, name, self.tmax,
617                          st.st_dev, st.st_ino, st.st_nlink,
618                          st.st_ctime, st.st_mtime, st.st_atime,
619                          st.st_size, st.st_mode, gitmode, sha, flags,
620                          meta_ofs, 0, 0)
621         else:
622             assert(endswith)
623             meta_ofs = self.metastore.store(metadata.Metadata())
624             e = BlankNewEntry(basename, meta_ofs, self.tmax)
625             e.gitmode = gitmode
626             e.sha = sha
627             e.flags = flags
628         self._add(ename, e)
629
630     def add_ixentry(self, e):
631         e.children_ofs = e.children_n = 0
632         self._add(pathsplit(e.name), e)
633
634     def new_reader(self):
635         self.flush()
636         return Reader(self.tmpname)
637
638
639 def _slashappend_or_add_error(p, caller):
640     """Return p, after ensuring it has a single trailing slash if it names
641     a directory, unless there's an OSError, in which case, call
642     add_error() and return None."""
643     try:
644         st = os.lstat(p)
645     except OSError as e:
646         add_error('%s: %s' % (caller, e))
647         return None
648     else:
649         if stat.S_ISDIR(st.st_mode):
650             return slashappend(p)
651         return p
652
653
654 def unique_resolved_paths(paths):
655     "Return a collection of unique resolved paths."
656     rps = (_slashappend_or_add_error(resolve_parent(p), 'unique_resolved_paths')
657            for p in paths)
658     return frozenset((x for x in rps if x is not None))
659
660
661 def reduce_paths(paths):
662     xpaths = []
663     for p in paths:
664         rp = _slashappend_or_add_error(resolve_parent(p), 'reduce_paths')
665         if rp:
666             xpaths.append((rp, slashappend(p) if rp.endswith(b'/') else p))
667     xpaths.sort()
668
669     paths = []
670     prev = None
671     for (rp, p) in xpaths:
672         if prev and (prev == rp
673                      or (prev.endswith(b'/') and rp.startswith(prev))):
674             continue # already superceded by previous path
675         paths.append((rp, p))
676         prev = rp
677     paths.sort(reverse=True)
678     return paths
679
680
681 def merge(*iters):
682     def pfunc(count, total):
683         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
684     def pfinal(count, total):
685         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
686     return merge_iter(iters, 1024, pfunc, pfinal, key='name')