]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
5f6c366957cb93d0b98e90dd411c4b09bd890f08
[bup.git] / lib / bup / index.py
1 import errno, metadata, os, stat, struct, tempfile
2
3 from bup import xstat
4 from bup._helpers import UINT_MAX
5 from bup.helpers import (add_error, log, merge_iter, mmap_readwrite,
6                          progress, qprogress, resolve_parent, slashappend)
7
8 EMPTY_SHA = '\0'*20
9 FAKE_SHA = '\x01'*20
10
11 INDEX_HDR = 'BUPI\0\0\0\7'
12
13 # Time values are handled as integer nanoseconds since the epoch in
14 # memory, but are written as xstat/metadata timespecs.  This behavior
15 # matches the existing metadata/xstat/.bupm code.
16
17 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
18 # store all of the times in the index so they won't interfere with the
19 # forthcoming metadata cache.
20 INDEX_SIG = ('!'
21              'Q'                # dev
22              'Q'                # ino
23              'Q'                # nlink
24              'qQ'               # ctime_s, ctime_ns
25              'qQ'               # mtime_s, mtime_ns
26              'qQ'               # atime_s, atime_ns
27              'Q'                # size
28              'I'                # mode
29              'I'                # gitmode
30              '20s'              # sha
31              'H'                # flags
32              'Q'                # children_ofs
33              'I'                # children_n
34              'Q')               # meta_ofs
35
36 ENTLEN = struct.calcsize(INDEX_SIG)
37 FOOTER_SIG = '!Q'
38 FOOTLEN = struct.calcsize(FOOTER_SIG)
39
40 IX_EXISTS = 0x8000        # file exists on filesystem
41 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
42 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
43
44 class Error(Exception):
45     pass
46
47
48 class MetaStoreReader:
49     def __init__(self, filename):
50         self._file = None
51         self._file = open(filename, 'rb')
52
53     def close(self):
54         if self._file:
55             self._file.close()
56             self._file = None
57
58     def __del__(self):
59         self.close()
60
61     def metadata_at(self, ofs):
62         self._file.seek(ofs)
63         return metadata.Metadata.read(self._file)
64
65
66 class MetaStoreWriter:
67     # For now, we just append to the file, and try to handle any
68     # truncation or corruption somewhat sensibly.
69
70     def __init__(self, filename):
71         # Map metadata hashes to bupindex.meta offsets.
72         self._offsets = {}
73         self._filename = filename
74         self._file = None
75         # FIXME: see how slow this is; does it matter?
76         m_file = open(filename, 'ab+')
77         try:
78             m_file.seek(0)
79             try:
80                 m_off = m_file.tell()
81                 m = metadata.Metadata.read(m_file)
82                 while m:
83                     m_encoded = m.encode()
84                     self._offsets[m_encoded] = m_off
85                     m_off = m_file.tell()
86                     m = metadata.Metadata.read(m_file)
87             except EOFError:
88                 pass
89             except:
90                 log('index metadata in %r appears to be corrupt' % filename)
91                 raise
92         finally:
93             m_file.close()
94         self._file = open(filename, 'ab')
95
96     def close(self):
97         if self._file:
98             self._file.close()
99             self._file = None
100
101     def __del__(self):
102         # Be optimistic.
103         self.close()
104
105     def store(self, metadata):
106         meta_encoded = metadata.encode(include_path=False)
107         ofs = self._offsets.get(meta_encoded)
108         if ofs:
109             return ofs
110         ofs = self._file.tell()
111         self._file.write(meta_encoded)
112         self._offsets[meta_encoded] = ofs
113         return ofs
114
115
116 class Level:
117     def __init__(self, ename, parent):
118         self.parent = parent
119         self.ename = ename
120         self.list = []
121         self.count = 0
122
123     def write(self, f):
124         (ofs,n) = (f.tell(), len(self.list))
125         if self.list:
126             count = len(self.list)
127             #log('popping %r with %d entries\n' 
128             #    % (''.join(self.ename), count))
129             for e in self.list:
130                 e.write(f)
131             if self.parent:
132                 self.parent.count += count + self.count
133         return (ofs,n)
134
135
136 def _golevel(level, f, ename, newentry, metastore, tmax):
137     # close nodes back up the tree
138     assert(level)
139     default_meta_ofs = metastore.store(metadata.Metadata())
140     while ename[:len(level.ename)] != level.ename:
141         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
142         n.flags |= IX_EXISTS
143         (n.children_ofs,n.children_n) = level.write(f)
144         level.parent.list.append(n)
145         level = level.parent
146
147     # create nodes down the tree
148     while len(level.ename) < len(ename):
149         level = Level(ename[:len(level.ename)+1], level)
150
151     # are we in precisely the right place?
152     assert(ename == level.ename)
153     n = newentry or \
154         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
155     (n.children_ofs,n.children_n) = level.write(f)
156     if level.parent:
157         level.parent.list.append(n)
158     level = level.parent
159
160     return level
161
162
163 class Entry:
164     def __init__(self, basename, name, meta_ofs, tmax):
165         self.basename = str(basename)
166         self.name = str(name)
167         self.meta_ofs = meta_ofs
168         self.tmax = tmax
169         self.children_ofs = 0
170         self.children_n = 0
171
172     def __repr__(self):
173         return ("(%s,0x%04x,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
174                 % (self.name, self.dev, self.ino, self.nlink,
175                    self.ctime, self.mtime, self.atime,
176                    self.size, self.mode, self.gitmode,
177                    self.flags, self.meta_ofs,
178                    self.children_ofs, self.children_n))
179
180     def packed(self):
181         try:
182             ctime = xstat.nsecs_to_timespec(self.ctime)
183             mtime = xstat.nsecs_to_timespec(self.mtime)
184             atime = xstat.nsecs_to_timespec(self.atime)
185             return struct.pack(INDEX_SIG,
186                                self.dev, self.ino, self.nlink,
187                                ctime[0], ctime[1],
188                                mtime[0], mtime[1],
189                                atime[0], atime[1],
190                                self.size, self.mode,
191                                self.gitmode, self.sha, self.flags,
192                                self.children_ofs, self.children_n,
193                                self.meta_ofs)
194         except (DeprecationWarning, struct.error) as e:
195             log('pack error: %s (%r)\n' % (e, self))
196             raise
197
198     def stale(self, st, tstart, check_device=True):
199         if self.size != st.st_size:
200             return True
201         if self.mtime != st.st_mtime:
202             return True
203         if self.sha == EMPTY_SHA:
204             return True
205         if not self.gitmode:
206             return True
207         if self.ctime != st.st_ctime:
208             return True
209         if self.ino != st.st_ino:
210             return True
211         if self.nlink != st.st_nlink:
212             return True
213         if not (self.flags & IX_EXISTS):
214             return True
215         if check_device and (self.dev != st.st_dev):
216             return True
217         # Check that the ctime's "second" is at or after tstart's.
218         ctime_sec_in_ns = xstat.fstime_floor_secs(st.st_ctime) * 10**9
219         if ctime_sec_in_ns >= tstart:
220             return True
221         return False
222
223     def update_from_stat(self, st, meta_ofs):
224         # Should only be called when the entry is stale(), and
225         # invalidate() should almost certainly be called afterward.
226         self.dev = st.st_dev
227         self.ino = st.st_ino
228         self.nlink = st.st_nlink
229         self.ctime = st.st_ctime
230         self.mtime = st.st_mtime
231         self.atime = st.st_atime
232         self.size = st.st_size
233         self.mode = st.st_mode
234         self.flags |= IX_EXISTS
235         self.meta_ofs = meta_ofs
236         self._fixup()
237
238     def _fixup(self):
239         self.mtime = self._fixup_time(self.mtime)
240         self.ctime = self._fixup_time(self.ctime)
241
242     def _fixup_time(self, t):
243         if self.tmax != None and t > self.tmax:
244             return self.tmax
245         else:
246             return t
247
248     def is_valid(self):
249         f = IX_HASHVALID|IX_EXISTS
250         return (self.flags & f) == f
251
252     def invalidate(self):
253         self.flags &= ~IX_HASHVALID
254
255     def validate(self, gitmode, sha):
256         assert(sha)
257         assert(gitmode)
258         assert(gitmode+0 == gitmode)
259         self.gitmode = gitmode
260         self.sha = sha
261         self.flags |= IX_HASHVALID|IX_EXISTS
262
263     def exists(self):
264         return not self.is_deleted()
265
266     def sha_missing(self):
267         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
268
269     def is_deleted(self):
270         return (self.flags & IX_EXISTS) == 0
271
272     def set_deleted(self):
273         if self.flags & IX_EXISTS:
274             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
275
276     def is_real(self):
277         return not self.is_fake()
278
279     def is_fake(self):
280         return not self.ctime
281
282     def __cmp__(a, b):
283         return (cmp(b.name, a.name)
284                 or cmp(a.is_valid(), b.is_valid())
285                 or cmp(a.is_fake(), b.is_fake()))
286
287     def write(self, f):
288         f.write(self.basename + '\0' + self.packed())
289
290
291 class NewEntry(Entry):
292     def __init__(self, basename, name, tmax, dev, ino, nlink,
293                  ctime, mtime, atime,
294                  size, mode, gitmode, sha, flags, meta_ofs,
295                  children_ofs, children_n):
296         Entry.__init__(self, basename, name, meta_ofs, tmax)
297         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
298          self.size, self.mode, self.gitmode, self.sha,
299          self.flags, self.children_ofs, self.children_n
300          ) = (dev, ino, nlink, ctime, mtime, atime,
301               size, mode, gitmode, sha, flags, children_ofs, children_n)
302         self._fixup()
303
304
305 class BlankNewEntry(NewEntry):
306     def __init__(self, basename, meta_ofs, tmax):
307         NewEntry.__init__(self, basename, basename, tmax,
308                           0, 0, 0, 0, 0, 0, 0, 0,
309                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
310
311
312 class ExistingEntry(Entry):
313     def __init__(self, parent, basename, name, m, ofs):
314         Entry.__init__(self, basename, name, None, None)
315         self.parent = parent
316         self._m = m
317         self._ofs = ofs
318         (self.dev, self.ino, self.nlink,
319          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
320          self.size, self.mode, self.gitmode, self.sha,
321          self.flags, self.children_ofs, self.children_n, self.meta_ofs
322          ) = struct.unpack(INDEX_SIG, str(buffer(m, ofs, ENTLEN)))
323         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
324         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
325         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
326
327     # effectively, we don't bother messing with IX_SHAMISSING if
328     # not IX_HASHVALID, since it's redundant, and repacking is more
329     # expensive than not repacking.
330     # This is implemented by having sha_missing() check IX_HASHVALID too.
331     def set_sha_missing(self, val):
332         val = val and 1 or 0
333         oldval = self.sha_missing() and 1 or 0
334         if val != oldval:
335             flag = val and IX_SHAMISSING or 0
336             newflags = (self.flags & (~IX_SHAMISSING)) | flag
337             self.flags = newflags
338             self.repack()
339
340     def unset_sha_missing(self, flag):
341         if self.flags & IX_SHAMISSING:
342             self.flags &= ~IX_SHAMISSING
343             self.repack()
344
345     def repack(self):
346         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
347         if self.parent and not self.is_valid():
348             self.parent.invalidate()
349             self.parent.repack()
350
351     def iter(self, name=None, wantrecurse=None):
352         dname = name
353         if dname and not dname.endswith('/'):
354             dname += '/'
355         ofs = self.children_ofs
356         assert(ofs <= len(self._m))
357         assert(self.children_n <= UINT_MAX)  # i.e. python struct 'I'
358         for i in xrange(self.children_n):
359             eon = self._m.find('\0', ofs)
360             assert(eon >= 0)
361             assert(eon >= ofs)
362             assert(eon > ofs)
363             basename = str(buffer(self._m, ofs, eon-ofs))
364             child = ExistingEntry(self, basename, self.name + basename,
365                                   self._m, eon+1)
366             if (not dname
367                  or child.name.startswith(dname)
368                  or child.name.endswith('/') and dname.startswith(child.name)):
369                 if not wantrecurse or wantrecurse(child):
370                     for e in child.iter(name=name, wantrecurse=wantrecurse):
371                         yield e
372             if not name or child.name == name or child.name.startswith(dname):
373                 yield child
374             ofs = eon + 1 + ENTLEN
375
376     def __iter__(self):
377         return self.iter()
378             
379
380 class Reader:
381     def __init__(self, filename):
382         self.filename = filename
383         self.m = ''
384         self.writable = False
385         self.count = 0
386         f = None
387         try:
388             f = open(filename, 'r+')
389         except IOError as e:
390             if e.errno == errno.ENOENT:
391                 pass
392             else:
393                 raise
394         if f:
395             b = f.read(len(INDEX_HDR))
396             if b != INDEX_HDR:
397                 log('warning: %s: header: expected %r, got %r\n'
398                                  % (filename, INDEX_HDR, b))
399             else:
400                 st = os.fstat(f.fileno())
401                 if st.st_size:
402                     self.m = mmap_readwrite(f)
403                     self.writable = True
404                     self.count = struct.unpack(FOOTER_SIG,
405                           str(buffer(self.m, st.st_size-FOOTLEN, FOOTLEN)))[0]
406
407     def __del__(self):
408         self.close()
409
410     def __len__(self):
411         return int(self.count)
412
413     def forward_iter(self):
414         ofs = len(INDEX_HDR)
415         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
416             eon = self.m.find('\0', ofs)
417             assert(eon >= 0)
418             assert(eon >= ofs)
419             assert(eon > ofs)
420             basename = str(buffer(self.m, ofs, eon-ofs))
421             yield ExistingEntry(None, basename, basename, self.m, eon+1)
422             ofs = eon + 1 + ENTLEN
423
424     def iter(self, name=None, wantrecurse=None):
425         if len(self.m) > len(INDEX_HDR)+ENTLEN:
426             dname = name
427             if dname and not dname.endswith('/'):
428                 dname += '/'
429             root = ExistingEntry(None, '/', '/',
430                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
431             for sub in root.iter(name=name, wantrecurse=wantrecurse):
432                 yield sub
433             if not dname or dname == root.name:
434                 yield root
435
436     def __iter__(self):
437         return self.iter()
438
439     def find(self, name):
440         return next((e for e in self.iter(name, wantrecurse=lambda x : True)
441                      if e.name == name),
442                     None)
443
444     def exists(self):
445         return self.m
446
447     def save(self):
448         if self.writable and self.m:
449             self.m.flush()
450
451     def close(self):
452         self.save()
453         if self.writable and self.m:
454             self.m.close()
455             self.m = None
456             self.writable = False
457
458     def filter(self, prefixes, wantrecurse=None):
459         for (rp, path) in reduce_paths(prefixes):
460             any_entries = False
461             for e in self.iter(rp, wantrecurse=wantrecurse):
462                 any_entries = True
463                 assert(e.name.startswith(rp))
464                 name = path + e.name[len(rp):]
465                 yield (name, e)
466             if not any_entries:
467                 # Always return at least the top for each prefix.
468                 # Otherwise something like "save x/y" will produce
469                 # nothing if x is up to date.
470                 pe = self.find(rp)
471                 assert(pe)
472                 name = path + pe.name[len(rp):]
473                 yield (name, pe)
474
475 # FIXME: this function isn't very generic, because it splits the filename
476 # in an odd way and depends on a terminating '/' to indicate directories.
477 def pathsplit(p):
478     """Split a path into a list of elements of the file system hierarchy."""
479     l = p.split('/')
480     l = [i+'/' for i in l[:-1]] + l[-1:]
481     if l[-1] == '':
482         l.pop()  # extra blank caused by terminating '/'
483     return l
484
485
486 class Writer:
487     def __init__(self, filename, metastore, tmax):
488         self.rootlevel = self.level = Level([], None)
489         self.f = None
490         self.count = 0
491         self.lastfile = None
492         self.filename = None
493         self.filename = filename = resolve_parent(filename)
494         self.metastore = metastore
495         self.tmax = tmax
496         (dir,name) = os.path.split(filename)
497         (ffd,self.tmpname) = tempfile.mkstemp('.tmp', filename, dir)
498         self.f = os.fdopen(ffd, 'wb', 65536)
499         self.f.write(INDEX_HDR)
500
501     def __del__(self):
502         self.abort()
503
504     def abort(self):
505         f = self.f
506         self.f = None
507         if f:
508             f.close()
509             os.unlink(self.tmpname)
510
511     def flush(self):
512         if self.level:
513             self.level = _golevel(self.level, self.f, [], None,
514                                   self.metastore, self.tmax)
515             self.count = self.rootlevel.count
516             if self.count:
517                 self.count += 1
518             self.f.write(struct.pack(FOOTER_SIG, self.count))
519             self.f.flush()
520         assert(self.level == None)
521
522     def close(self):
523         self.flush()
524         f = self.f
525         self.f = None
526         if f:
527             f.close()
528             os.rename(self.tmpname, self.filename)
529
530     def _add(self, ename, entry):
531         if self.lastfile and self.lastfile <= ename:
532             raise Error('%r must come before %r' 
533                              % (''.join(ename), ''.join(self.lastfile)))
534         self.lastfile = ename
535         self.level = _golevel(self.level, self.f, ename, entry,
536                               self.metastore, self.tmax)
537
538     def add(self, name, st, meta_ofs, hashgen = None):
539         endswith = name.endswith('/')
540         ename = pathsplit(name)
541         basename = ename[-1]
542         #log('add: %r %r\n' % (basename, name))
543         flags = IX_EXISTS
544         sha = None
545         if hashgen:
546             (gitmode, sha) = hashgen(name)
547             flags |= IX_HASHVALID
548         else:
549             (gitmode, sha) = (0, EMPTY_SHA)
550         if st:
551             isdir = stat.S_ISDIR(st.st_mode)
552             assert(isdir == endswith)
553             e = NewEntry(basename, name, self.tmax,
554                          st.st_dev, st.st_ino, st.st_nlink,
555                          st.st_ctime, st.st_mtime, st.st_atime,
556                          st.st_size, st.st_mode, gitmode, sha, flags,
557                          meta_ofs, 0, 0)
558         else:
559             assert(endswith)
560             meta_ofs = self.metastore.store(metadata.Metadata())
561             e = BlankNewEntry(basename, meta_ofs, self.tmax)
562             e.gitmode = gitmode
563             e.sha = sha
564             e.flags = flags
565         self._add(ename, e)
566
567     def add_ixentry(self, e):
568         e.children_ofs = e.children_n = 0
569         self._add(pathsplit(e.name), e)
570
571     def new_reader(self):
572         self.flush()
573         return Reader(self.tmpname)
574
575
576 def _slashappend_or_add_error(p, caller):
577     """Return p, after ensuring it has a single trailing slash if it names
578     a directory, unless there's an OSError, in which case, call
579     add_error() and return None."""
580     try:
581         st = os.lstat(p)
582     except OSError as e:
583         add_error('%s: %s' % (caller, e))
584         return None
585     else:
586         if stat.S_ISDIR(st.st_mode):
587             return slashappend(p)
588         return p
589
590
591 def unique_resolved_paths(paths):
592     "Return a collection of unique resolved paths."
593     rps = (_slashappend_or_add_error(resolve_parent(p), 'unique_resolved_paths')
594            for p in paths)
595     return frozenset((x for x in rps if x is not None))
596
597
598 def reduce_paths(paths):
599     xpaths = []
600     for p in paths:
601         rp = _slashappend_or_add_error(resolve_parent(p), 'reduce_paths')
602         if rp:
603             xpaths.append((rp, slashappend(p) if rp.endswith('/') else p))
604     xpaths.sort()
605
606     paths = []
607     prev = None
608     for (rp, p) in xpaths:
609         if prev and (prev == rp 
610                      or (prev.endswith('/') and rp.startswith(prev))):
611             continue # already superceded by previous path
612         paths.append((rp, p))
613         prev = rp
614     paths.sort(reverse=True)
615     return paths
616
617
618 def merge(*iters):
619     def pfunc(count, total):
620         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
621     def pfinal(count, total):
622         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
623     return merge_iter(iters, 1024, pfunc, pfinal, key='name')