]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
a570784da81c5c2a7e6b30cb2922fe30975d40e7
[bup.git] / lib / bup / index.py
1 import errno, metadata, os, stat, struct, tempfile
2
3 from bup import xstat
4 from bup._helpers import UINT_MAX
5 from bup.helpers import (add_error, log, merge_iter, mmap_readwrite,
6                          progress, qprogress, resolve_parent, slashappend)
7
8 EMPTY_SHA = '\0'*20
9 FAKE_SHA = '\x01'*20
10
11 INDEX_HDR = 'BUPI\0\0\0\7'
12
13 # Time values are handled as integer nanoseconds since the epoch in
14 # memory, but are written as xstat/metadata timespecs.  This behavior
15 # matches the existing metadata/xstat/.bupm code.
16
17 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
18 # store all of the times in the index so they won't interfere with the
19 # forthcoming metadata cache.
20 INDEX_SIG = ('!'
21              'Q'                # dev
22              'Q'                # ino
23              'Q'                # nlink
24              'qQ'               # ctime_s, ctime_ns
25              'qQ'               # mtime_s, mtime_ns
26              'qQ'               # atime_s, atime_ns
27              'Q'                # size
28              'I'                # mode
29              'I'                # gitmode
30              '20s'              # sha
31              'H'                # flags
32              'Q'                # children_ofs
33              'I'                # children_n
34              'Q')               # meta_ofs
35
36 ENTLEN = struct.calcsize(INDEX_SIG)
37 FOOTER_SIG = '!Q'
38 FOOTLEN = struct.calcsize(FOOTER_SIG)
39
40 IX_EXISTS = 0x8000        # file exists on filesystem
41 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
42 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
43
44 class Error(Exception):
45     pass
46
47
48 class MetaStoreReader:
49     def __init__(self, filename):
50         self._file = None
51         self._file = open(filename, 'rb')
52
53     def close(self):
54         if self._file:
55             self._file.close()
56             self._file = None
57
58     def __del__(self):
59         self.close()
60
61     def metadata_at(self, ofs):
62         self._file.seek(ofs)
63         return metadata.Metadata.read(self._file)
64
65
66 class MetaStoreWriter:
67     # For now, we just append to the file, and try to handle any
68     # truncation or corruption somewhat sensibly.
69
70     def __init__(self, filename):
71         # Map metadata hashes to bupindex.meta offsets.
72         self._offsets = {}
73         self._filename = filename
74         self._file = None
75         # FIXME: see how slow this is; does it matter?
76         m_file = open(filename, 'ab+')
77         try:
78             m_file.seek(0)
79             try:
80                 m_off = m_file.tell()
81                 m = metadata.Metadata.read(m_file)
82                 while m:
83                     m_encoded = m.encode()
84                     self._offsets[m_encoded] = m_off
85                     m_off = m_file.tell()
86                     m = metadata.Metadata.read(m_file)
87             except EOFError:
88                 pass
89             except:
90                 log('index metadata in %r appears to be corrupt' % filename)
91                 raise
92         finally:
93             m_file.close()
94         self._file = open(filename, 'ab')
95
96     def close(self):
97         if self._file:
98             self._file.close()
99             self._file = None
100
101     def __del__(self):
102         # Be optimistic.
103         self.close()
104
105     def store(self, metadata):
106         meta_encoded = metadata.encode(include_path=False)
107         ofs = self._offsets.get(meta_encoded)
108         if ofs:
109             return ofs
110         ofs = self._file.tell()
111         self._file.write(meta_encoded)
112         self._offsets[meta_encoded] = ofs
113         return ofs
114
115
116 class Level:
117     def __init__(self, ename, parent):
118         self.parent = parent
119         self.ename = ename
120         self.list = []
121         self.count = 0
122
123     def write(self, f):
124         (ofs,n) = (f.tell(), len(self.list))
125         if self.list:
126             count = len(self.list)
127             #log('popping %r with %d entries\n' 
128             #    % (''.join(self.ename), count))
129             for e in self.list:
130                 e.write(f)
131             if self.parent:
132                 self.parent.count += count + self.count
133         return (ofs,n)
134
135
136 def _golevel(level, f, ename, newentry, metastore, tmax):
137     # close nodes back up the tree
138     assert(level)
139     default_meta_ofs = metastore.store(metadata.Metadata())
140     while ename[:len(level.ename)] != level.ename:
141         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
142         n.flags |= IX_EXISTS
143         (n.children_ofs,n.children_n) = level.write(f)
144         level.parent.list.append(n)
145         level = level.parent
146
147     # create nodes down the tree
148     while len(level.ename) < len(ename):
149         level = Level(ename[:len(level.ename)+1], level)
150
151     # are we in precisely the right place?
152     assert(ename == level.ename)
153     n = newentry or \
154         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
155     (n.children_ofs,n.children_n) = level.write(f)
156     if level.parent:
157         level.parent.list.append(n)
158     level = level.parent
159
160     return level
161
162
163 class Entry:
164     def __init__(self, basename, name, meta_ofs, tmax):
165         self.basename = str(basename)
166         self.name = str(name)
167         self.meta_ofs = meta_ofs
168         self.tmax = tmax
169         self.children_ofs = 0
170         self.children_n = 0
171
172     def __repr__(self):
173         return ("(%s,0x%04x,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
174                 % (self.name, self.dev, self.ino, self.nlink,
175                    self.ctime, self.mtime, self.atime,
176                    self.size, self.mode, self.gitmode,
177                    self.flags, self.meta_ofs,
178                    self.children_ofs, self.children_n))
179
180     def packed(self):
181         try:
182             ctime = xstat.nsecs_to_timespec(self.ctime)
183             mtime = xstat.nsecs_to_timespec(self.mtime)
184             atime = xstat.nsecs_to_timespec(self.atime)
185             return struct.pack(INDEX_SIG,
186                                self.dev, self.ino, self.nlink,
187                                ctime[0], ctime[1],
188                                mtime[0], mtime[1],
189                                atime[0], atime[1],
190                                self.size, self.mode,
191                                self.gitmode, self.sha, self.flags,
192                                self.children_ofs, self.children_n,
193                                self.meta_ofs)
194         except (DeprecationWarning, struct.error) as e:
195             log('pack error: %s (%r)\n' % (e, self))
196             raise
197
198     def from_stat(self, st, meta_ofs, tstart, check_device=True):
199         old = (self.dev if check_device else 0,
200                self.ino, self.nlink, self.ctime, self.mtime,
201                self.size, self.flags & IX_EXISTS)
202         new = (st.st_dev if check_device else 0,
203                st.st_ino, st.st_nlink, st.st_ctime, st.st_mtime,
204                st.st_size, IX_EXISTS)
205         self.dev = st.st_dev
206         self.ino = st.st_ino
207         self.nlink = st.st_nlink
208         self.ctime = st.st_ctime
209         self.mtime = st.st_mtime
210         self.atime = st.st_atime
211         self.size = st.st_size
212         self.mode = st.st_mode
213         self.flags |= IX_EXISTS
214         self.meta_ofs = meta_ofs
215         # Check that the ctime's "second" is at or after tstart's.
216         ctime_sec_in_ns = xstat.fstime_floor_secs(st.st_ctime) * 10**9
217         if ctime_sec_in_ns >= tstart or old != new \
218               or self.sha == EMPTY_SHA or not self.gitmode:
219             self.invalidate()
220         self._fixup()
221         
222     def _fixup(self):
223         self.mtime = self._fixup_time(self.mtime)
224         self.ctime = self._fixup_time(self.ctime)
225
226     def _fixup_time(self, t):
227         if self.tmax != None and t > self.tmax:
228             return self.tmax
229         else:
230             return t
231
232     def is_valid(self):
233         f = IX_HASHVALID|IX_EXISTS
234         return (self.flags & f) == f
235
236     def invalidate(self):
237         self.flags &= ~IX_HASHVALID
238
239     def validate(self, gitmode, sha):
240         assert(sha)
241         assert(gitmode)
242         assert(gitmode+0 == gitmode)
243         self.gitmode = gitmode
244         self.sha = sha
245         self.flags |= IX_HASHVALID|IX_EXISTS
246
247     def exists(self):
248         return not self.is_deleted()
249
250     def sha_missing(self):
251         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
252
253     def is_deleted(self):
254         return (self.flags & IX_EXISTS) == 0
255
256     def set_deleted(self):
257         if self.flags & IX_EXISTS:
258             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
259
260     def is_real(self):
261         return not self.is_fake()
262
263     def is_fake(self):
264         return not self.ctime
265
266     def __cmp__(a, b):
267         return (cmp(b.name, a.name)
268                 or cmp(a.is_valid(), b.is_valid())
269                 or cmp(a.is_fake(), b.is_fake()))
270
271     def write(self, f):
272         f.write(self.basename + '\0' + self.packed())
273
274
275 class NewEntry(Entry):
276     def __init__(self, basename, name, tmax, dev, ino, nlink,
277                  ctime, mtime, atime,
278                  size, mode, gitmode, sha, flags, meta_ofs,
279                  children_ofs, children_n):
280         Entry.__init__(self, basename, name, meta_ofs, tmax)
281         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
282          self.size, self.mode, self.gitmode, self.sha,
283          self.flags, self.children_ofs, self.children_n
284          ) = (dev, ino, nlink, ctime, mtime, atime,
285               size, mode, gitmode, sha, flags, children_ofs, children_n)
286         self._fixup()
287
288
289 class BlankNewEntry(NewEntry):
290     def __init__(self, basename, meta_ofs, tmax):
291         NewEntry.__init__(self, basename, basename, tmax,
292                           0, 0, 0, 0, 0, 0, 0, 0,
293                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
294
295
296 class ExistingEntry(Entry):
297     def __init__(self, parent, basename, name, m, ofs):
298         Entry.__init__(self, basename, name, None, None)
299         self.parent = parent
300         self._m = m
301         self._ofs = ofs
302         (self.dev, self.ino, self.nlink,
303          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
304          self.size, self.mode, self.gitmode, self.sha,
305          self.flags, self.children_ofs, self.children_n, self.meta_ofs
306          ) = struct.unpack(INDEX_SIG, str(buffer(m, ofs, ENTLEN)))
307         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
308         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
309         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
310
311     # effectively, we don't bother messing with IX_SHAMISSING if
312     # not IX_HASHVALID, since it's redundant, and repacking is more
313     # expensive than not repacking.
314     # This is implemented by having sha_missing() check IX_HASHVALID too.
315     def set_sha_missing(self, val):
316         val = val and 1 or 0
317         oldval = self.sha_missing() and 1 or 0
318         if val != oldval:
319             flag = val and IX_SHAMISSING or 0
320             newflags = (self.flags & (~IX_SHAMISSING)) | flag
321             self.flags = newflags
322             self.repack()
323
324     def unset_sha_missing(self, flag):
325         if self.flags & IX_SHAMISSING:
326             self.flags &= ~IX_SHAMISSING
327             self.repack()
328
329     def repack(self):
330         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
331         if self.parent and not self.is_valid():
332             self.parent.invalidate()
333             self.parent.repack()
334
335     def iter(self, name=None, wantrecurse=None):
336         dname = name
337         if dname and not dname.endswith('/'):
338             dname += '/'
339         ofs = self.children_ofs
340         assert(ofs <= len(self._m))
341         assert(self.children_n <= UINT_MAX)  # i.e. python struct 'I'
342         for i in xrange(self.children_n):
343             eon = self._m.find('\0', ofs)
344             assert(eon >= 0)
345             assert(eon >= ofs)
346             assert(eon > ofs)
347             basename = str(buffer(self._m, ofs, eon-ofs))
348             child = ExistingEntry(self, basename, self.name + basename,
349                                   self._m, eon+1)
350             if (not dname
351                  or child.name.startswith(dname)
352                  or child.name.endswith('/') and dname.startswith(child.name)):
353                 if not wantrecurse or wantrecurse(child):
354                     for e in child.iter(name=name, wantrecurse=wantrecurse):
355                         yield e
356             if not name or child.name == name or child.name.startswith(dname):
357                 yield child
358             ofs = eon + 1 + ENTLEN
359
360     def __iter__(self):
361         return self.iter()
362             
363
364 class Reader:
365     def __init__(self, filename):
366         self.filename = filename
367         self.m = ''
368         self.writable = False
369         self.count = 0
370         f = None
371         try:
372             f = open(filename, 'r+')
373         except IOError as e:
374             if e.errno == errno.ENOENT:
375                 pass
376             else:
377                 raise
378         if f:
379             b = f.read(len(INDEX_HDR))
380             if b != INDEX_HDR:
381                 log('warning: %s: header: expected %r, got %r\n'
382                                  % (filename, INDEX_HDR, b))
383             else:
384                 st = os.fstat(f.fileno())
385                 if st.st_size:
386                     self.m = mmap_readwrite(f)
387                     self.writable = True
388                     self.count = struct.unpack(FOOTER_SIG,
389                           str(buffer(self.m, st.st_size-FOOTLEN, FOOTLEN)))[0]
390
391     def __del__(self):
392         self.close()
393
394     def __len__(self):
395         return int(self.count)
396
397     def forward_iter(self):
398         ofs = len(INDEX_HDR)
399         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
400             eon = self.m.find('\0', ofs)
401             assert(eon >= 0)
402             assert(eon >= ofs)
403             assert(eon > ofs)
404             basename = str(buffer(self.m, ofs, eon-ofs))
405             yield ExistingEntry(None, basename, basename, self.m, eon+1)
406             ofs = eon + 1 + ENTLEN
407
408     def iter(self, name=None, wantrecurse=None):
409         if len(self.m) > len(INDEX_HDR)+ENTLEN:
410             dname = name
411             if dname and not dname.endswith('/'):
412                 dname += '/'
413             root = ExistingEntry(None, '/', '/',
414                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
415             for sub in root.iter(name=name, wantrecurse=wantrecurse):
416                 yield sub
417             if not dname or dname == root.name:
418                 yield root
419
420     def __iter__(self):
421         return self.iter()
422
423     def find(self, name):
424         return next((e for e in self.iter(name, wantrecurse=lambda x : True)
425                      if e.name == name),
426                     None)
427
428     def exists(self):
429         return self.m
430
431     def save(self):
432         if self.writable and self.m:
433             self.m.flush()
434
435     def close(self):
436         self.save()
437         if self.writable and self.m:
438             self.m.close()
439             self.m = None
440             self.writable = False
441
442     def filter(self, prefixes, wantrecurse=None):
443         for (rp, path) in reduce_paths(prefixes):
444             any_entries = False
445             for e in self.iter(rp, wantrecurse=wantrecurse):
446                 any_entries = True
447                 assert(e.name.startswith(rp))
448                 name = path + e.name[len(rp):]
449                 yield (name, e)
450             if not any_entries:
451                 # Always return at least the top for each prefix.
452                 # Otherwise something like "save x/y" will produce
453                 # nothing if x is up to date.
454                 pe = self.find(rp)
455                 assert(pe)
456                 name = path + pe.name[len(rp):]
457                 yield (name, pe)
458
459 # FIXME: this function isn't very generic, because it splits the filename
460 # in an odd way and depends on a terminating '/' to indicate directories.
461 def pathsplit(p):
462     """Split a path into a list of elements of the file system hierarchy."""
463     l = p.split('/')
464     l = [i+'/' for i in l[:-1]] + l[-1:]
465     if l[-1] == '':
466         l.pop()  # extra blank caused by terminating '/'
467     return l
468
469
470 class Writer:
471     def __init__(self, filename, metastore, tmax):
472         self.rootlevel = self.level = Level([], None)
473         self.f = None
474         self.count = 0
475         self.lastfile = None
476         self.filename = None
477         self.filename = filename = resolve_parent(filename)
478         self.metastore = metastore
479         self.tmax = tmax
480         (dir,name) = os.path.split(filename)
481         (ffd,self.tmpname) = tempfile.mkstemp('.tmp', filename, dir)
482         self.f = os.fdopen(ffd, 'wb', 65536)
483         self.f.write(INDEX_HDR)
484
485     def __del__(self):
486         self.abort()
487
488     def abort(self):
489         f = self.f
490         self.f = None
491         if f:
492             f.close()
493             os.unlink(self.tmpname)
494
495     def flush(self):
496         if self.level:
497             self.level = _golevel(self.level, self.f, [], None,
498                                   self.metastore, self.tmax)
499             self.count = self.rootlevel.count
500             if self.count:
501                 self.count += 1
502             self.f.write(struct.pack(FOOTER_SIG, self.count))
503             self.f.flush()
504         assert(self.level == None)
505
506     def close(self):
507         self.flush()
508         f = self.f
509         self.f = None
510         if f:
511             f.close()
512             os.rename(self.tmpname, self.filename)
513
514     def _add(self, ename, entry):
515         if self.lastfile and self.lastfile <= ename:
516             raise Error('%r must come before %r' 
517                              % (''.join(ename), ''.join(self.lastfile)))
518         self.lastfile = ename
519         self.level = _golevel(self.level, self.f, ename, entry,
520                               self.metastore, self.tmax)
521
522     def add(self, name, st, meta_ofs, hashgen = None):
523         endswith = name.endswith('/')
524         ename = pathsplit(name)
525         basename = ename[-1]
526         #log('add: %r %r\n' % (basename, name))
527         flags = IX_EXISTS
528         sha = None
529         if hashgen:
530             (gitmode, sha) = hashgen(name)
531             flags |= IX_HASHVALID
532         else:
533             (gitmode, sha) = (0, EMPTY_SHA)
534         if st:
535             isdir = stat.S_ISDIR(st.st_mode)
536             assert(isdir == endswith)
537             e = NewEntry(basename, name, self.tmax,
538                          st.st_dev, st.st_ino, st.st_nlink,
539                          st.st_ctime, st.st_mtime, st.st_atime,
540                          st.st_size, st.st_mode, gitmode, sha, flags,
541                          meta_ofs, 0, 0)
542         else:
543             assert(endswith)
544             meta_ofs = self.metastore.store(metadata.Metadata())
545             e = BlankNewEntry(basename, meta_ofs, self.tmax)
546             e.gitmode = gitmode
547             e.sha = sha
548             e.flags = flags
549         self._add(ename, e)
550
551     def add_ixentry(self, e):
552         e.children_ofs = e.children_n = 0
553         self._add(pathsplit(e.name), e)
554
555     def new_reader(self):
556         self.flush()
557         return Reader(self.tmpname)
558
559
560 def _slashappend_or_add_error(p, caller):
561     """Return p, after ensuring it has a single trailing slash if it names
562     a directory, unless there's an OSError, in which case, call
563     add_error() and return None."""
564     try:
565         st = os.lstat(p)
566     except OSError as e:
567         add_error('%s: %s' % (caller, e))
568         return None
569     else:
570         if stat.S_ISDIR(st.st_mode):
571             return slashappend(p)
572         return p
573
574
575 def unique_resolved_paths(paths):
576     "Return a collection of unique resolved paths."
577     rps = (_slashappend_or_add_error(resolve_parent(p), 'unique_resolved_paths')
578            for p in paths)
579     return frozenset((x for x in rps if x is not None))
580
581
582 def reduce_paths(paths):
583     xpaths = []
584     for p in paths:
585         rp = _slashappend_or_add_error(resolve_parent(p), 'reduce_paths')
586         if rp:
587             xpaths.append((rp, slashappend(p) if rp.endswith('/') else p))
588     xpaths.sort()
589
590     paths = []
591     prev = None
592     for (rp, p) in xpaths:
593         if prev and (prev == rp 
594                      or (prev.endswith('/') and rp.startswith(prev))):
595             continue # already superceded by previous path
596         paths.append((rp, p))
597         prev = rp
598     paths.sort(reverse=True)
599     return paths
600
601
602 def merge(*iters):
603     def pfunc(count, total):
604         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
605     def pfinal(count, total):
606         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
607     return merge_iter(iters, 1024, pfunc, pfinal, key='name')