]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
d4dbc55f7a54e4a623fbae5c2eeaa8cd9974e343
[bup.git] / lib / bup / index.py
1 import metadata, os, stat, struct, tempfile
2 from bup import xstat
3 from bup.helpers import *
4
5 EMPTY_SHA = '\0'*20
6 FAKE_SHA = '\x01'*20
7
8 INDEX_HDR = 'BUPI\0\0\0\6'
9
10 # Time values are handled as integer nanoseconds since the epoch in
11 # memory, but are written as xstat/metadata timespecs.  This behavior
12 # matches the existing metadata/xstat/.bupm code.
13
14 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
15 # store all of the times in the index so they won't interfere with the
16 # forthcoming metadata cache.
17 INDEX_SIG =  '!QQQqQqQqQQII20sHIIQ'
18
19 ENTLEN = struct.calcsize(INDEX_SIG)
20 FOOTER_SIG = '!Q'
21 FOOTLEN = struct.calcsize(FOOTER_SIG)
22
23 IX_EXISTS = 0x8000        # file exists on filesystem
24 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
25 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
26
27 class Error(Exception):
28     pass
29
30
31 class MetaStoreReader:
32     def __init__(self, filename):
33         self._file = None
34         self._file = open(filename, 'rb')
35
36     def close(self):
37         if self._file:
38             self._file.close()
39             self._file = None
40
41     def __del__(self):
42         self.close()
43
44     def metadata_at(self, ofs):
45         self._file.seek(ofs)
46         return metadata.Metadata.read(self._file)
47
48
49 class MetaStoreWriter:
50     # For now, we just append to the file, and try to handle any
51     # truncation or corruption somewhat sensibly.
52
53     def __init__(self, filename):
54         # Map metadata hashes to bupindex.meta offsets.
55         self._offsets = {}
56         self._filename = filename
57         self._file = None
58         # FIXME: see how slow this is; does it matter?
59         m_file = open(filename, 'ab+')
60         try:
61             m_file.seek(0)
62             try:
63                 m_off = m_file.tell()
64                 m = metadata.Metadata.read(m_file)
65                 while m:
66                     m_encoded = m.encode()
67                     self._offsets[m_encoded] = m_off
68                     m_off = m_file.tell()
69                     m = metadata.Metadata.read(m_file)
70             except EOFError:
71                 pass
72             except:
73                 log('index metadata in %r appears to be corrupt' % filename)
74                 raise
75         finally:
76             m_file.close()
77         self._file = open(filename, 'ab')
78
79     def close(self):
80         if self._file:
81             self._file.close()
82             self._file = None
83
84     def __del__(self):
85         # Be optimistic.
86         self.close()
87
88     def store(self, metadata):
89         meta_encoded = metadata.encode(include_path=False)
90         ofs = self._offsets.get(meta_encoded)
91         if ofs:
92             return ofs
93         ofs = self._file.tell()
94         self._file.write(meta_encoded)
95         self._offsets[meta_encoded] = ofs
96         return ofs
97
98
99 class Level:
100     def __init__(self, ename, parent):
101         self.parent = parent
102         self.ename = ename
103         self.list = []
104         self.count = 0
105
106     def write(self, f):
107         (ofs,n) = (f.tell(), len(self.list))
108         if self.list:
109             count = len(self.list)
110             #log('popping %r with %d entries\n' 
111             #    % (''.join(self.ename), count))
112             for e in self.list:
113                 e.write(f)
114             if self.parent:
115                 self.parent.count += count + self.count
116         return (ofs,n)
117
118
119 def _golevel(level, f, ename, newentry, metastore, tmax):
120     # close nodes back up the tree
121     assert(level)
122     default_meta_ofs = metastore.store(metadata.Metadata())
123     while ename[:len(level.ename)] != level.ename:
124         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
125         n.flags |= IX_EXISTS
126         (n.children_ofs,n.children_n) = level.write(f)
127         level.parent.list.append(n)
128         level = level.parent
129
130     # create nodes down the tree
131     while len(level.ename) < len(ename):
132         level = Level(ename[:len(level.ename)+1], level)
133
134     # are we in precisely the right place?
135     assert(ename == level.ename)
136     n = newentry or \
137         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
138     (n.children_ofs,n.children_n) = level.write(f)
139     if level.parent:
140         level.parent.list.append(n)
141     level = level.parent
142
143     return level
144
145
146 class Entry:
147     def __init__(self, basename, name, meta_ofs, tmax):
148         self.basename = str(basename)
149         self.name = str(name)
150         self.meta_ofs = meta_ofs
151         self.tmax = tmax
152         self.children_ofs = 0
153         self.children_n = 0
154
155     def __repr__(self):
156         return ("(%s,0x%04x,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
157                 % (self.name, self.dev, self.ino, self.nlink,
158                    self.ctime, self.mtime, self.atime,
159                    self.size, self.mode, self.gitmode,
160                    self.flags, self.meta_ofs,
161                    self.children_ofs, self.children_n))
162
163     def packed(self):
164         try:
165             ctime = xstat.nsecs_to_timespec(self.ctime)
166             mtime = xstat.nsecs_to_timespec(self.mtime)
167             atime = xstat.nsecs_to_timespec(self.atime)
168             return struct.pack(INDEX_SIG,
169                                self.dev, self.ino, self.nlink,
170                                ctime[0], ctime[1],
171                                mtime[0], mtime[1],
172                                atime[0], atime[1],
173                                self.size, self.mode,
174                                self.gitmode, self.sha, self.flags,
175                                self.children_ofs, self.children_n,
176                                self.meta_ofs)
177         except (DeprecationWarning, struct.error) as e:
178             log('pack error: %s (%r)\n' % (e, self))
179             raise
180
181     def from_stat(self, st, meta_ofs, tstart, check_device=True):
182         old = (self.dev if check_device else 0,
183                self.ino, self.nlink, self.ctime, self.mtime,
184                self.size, self.flags & IX_EXISTS)
185         new = (st.st_dev if check_device else 0,
186                st.st_ino, st.st_nlink, st.st_ctime, st.st_mtime,
187                st.st_size, IX_EXISTS)
188         self.dev = st.st_dev
189         self.ino = st.st_ino
190         self.nlink = st.st_nlink
191         self.ctime = st.st_ctime
192         self.mtime = st.st_mtime
193         self.atime = st.st_atime
194         self.size = st.st_size
195         self.mode = st.st_mode
196         self.flags |= IX_EXISTS
197         self.meta_ofs = meta_ofs
198         # Check that the ctime's "second" is at or after tstart's.
199         ctime_sec_in_ns = xstat.fstime_floor_secs(st.st_ctime) * 10**9
200         if ctime_sec_in_ns >= tstart or old != new \
201               or self.sha == EMPTY_SHA or not self.gitmode:
202             self.invalidate()
203         self._fixup()
204         
205     def _fixup(self):
206         self.mtime = self._fixup_time(self.mtime)
207         self.ctime = self._fixup_time(self.ctime)
208
209     def _fixup_time(self, t):
210         if self.tmax != None and t > self.tmax:
211             return self.tmax
212         else:
213             return t
214
215     def is_valid(self):
216         f = IX_HASHVALID|IX_EXISTS
217         return (self.flags & f) == f
218
219     def invalidate(self):
220         self.flags &= ~IX_HASHVALID
221
222     def validate(self, gitmode, sha):
223         assert(sha)
224         assert(gitmode)
225         assert(gitmode+0 == gitmode)
226         self.gitmode = gitmode
227         self.sha = sha
228         self.flags |= IX_HASHVALID|IX_EXISTS
229
230     def exists(self):
231         return not self.is_deleted()
232
233     def sha_missing(self):
234         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
235
236     def is_deleted(self):
237         return (self.flags & IX_EXISTS) == 0
238
239     def set_deleted(self):
240         if self.flags & IX_EXISTS:
241             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
242
243     def is_real(self):
244         return not self.is_fake()
245
246     def is_fake(self):
247         return not self.ctime
248
249     def __cmp__(a, b):
250         return (cmp(b.name, a.name)
251                 or cmp(a.is_valid(), b.is_valid())
252                 or cmp(a.is_fake(), b.is_fake()))
253
254     def write(self, f):
255         f.write(self.basename + '\0' + self.packed())
256
257
258 class NewEntry(Entry):
259     def __init__(self, basename, name, tmax, dev, ino, nlink,
260                  ctime, mtime, atime,
261                  size, mode, gitmode, sha, flags, meta_ofs,
262                  children_ofs, children_n):
263         Entry.__init__(self, basename, name, meta_ofs, tmax)
264         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
265          self.size, self.mode, self.gitmode, self.sha,
266          self.flags, self.children_ofs, self.children_n
267          ) = (dev, ino, nlink, ctime, mtime, atime,
268               size, mode, gitmode, sha, flags, children_ofs, children_n)
269         self._fixup()
270
271
272 class BlankNewEntry(NewEntry):
273     def __init__(self, basename, meta_ofs, tmax):
274         NewEntry.__init__(self, basename, basename, tmax,
275                           0, 0, 0, 0, 0, 0, 0, 0,
276                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
277
278
279 class ExistingEntry(Entry):
280     def __init__(self, parent, basename, name, m, ofs):
281         Entry.__init__(self, basename, name, None, None)
282         self.parent = parent
283         self._m = m
284         self._ofs = ofs
285         (self.dev, self.ino, self.nlink,
286          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
287          self.size, self.mode, self.gitmode, self.sha,
288          self.flags, self.children_ofs, self.children_n, self.meta_ofs
289          ) = struct.unpack(INDEX_SIG, str(buffer(m, ofs, ENTLEN)))
290         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
291         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
292         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
293
294     # effectively, we don't bother messing with IX_SHAMISSING if
295     # not IX_HASHVALID, since it's redundant, and repacking is more
296     # expensive than not repacking.
297     # This is implemented by having sha_missing() check IX_HASHVALID too.
298     def set_sha_missing(self, val):
299         val = val and 1 or 0
300         oldval = self.sha_missing() and 1 or 0
301         if val != oldval:
302             flag = val and IX_SHAMISSING or 0
303             newflags = (self.flags & (~IX_SHAMISSING)) | flag
304             self.flags = newflags
305             self.repack()
306
307     def unset_sha_missing(self, flag):
308         if self.flags & IX_SHAMISSING:
309             self.flags &= ~IX_SHAMISSING
310             self.repack()
311
312     def repack(self):
313         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
314         if self.parent and not self.is_valid():
315             self.parent.invalidate()
316             self.parent.repack()
317
318     def iter(self, name=None, wantrecurse=None):
319         dname = name
320         if dname and not dname.endswith('/'):
321             dname += '/'
322         ofs = self.children_ofs
323         assert(ofs <= len(self._m))
324         assert(self.children_n < 1000000)
325         for i in xrange(self.children_n):
326             eon = self._m.find('\0', ofs)
327             assert(eon >= 0)
328             assert(eon >= ofs)
329             assert(eon > ofs)
330             basename = str(buffer(self._m, ofs, eon-ofs))
331             child = ExistingEntry(self, basename, self.name + basename,
332                                   self._m, eon+1)
333             if (not dname
334                  or child.name.startswith(dname)
335                  or child.name.endswith('/') and dname.startswith(child.name)):
336                 if not wantrecurse or wantrecurse(child):
337                     for e in child.iter(name=name, wantrecurse=wantrecurse):
338                         yield e
339             if not name or child.name == name or child.name.startswith(dname):
340                 yield child
341             ofs = eon + 1 + ENTLEN
342
343     def __iter__(self):
344         return self.iter()
345             
346
347 class Reader:
348     def __init__(self, filename):
349         self.filename = filename
350         self.m = ''
351         self.writable = False
352         self.count = 0
353         f = None
354         try:
355             f = open(filename, 'r+')
356         except IOError as e:
357             if e.errno == errno.ENOENT:
358                 pass
359             else:
360                 raise
361         if f:
362             b = f.read(len(INDEX_HDR))
363             if b != INDEX_HDR:
364                 log('warning: %s: header: expected %r, got %r\n'
365                                  % (filename, INDEX_HDR, b))
366             else:
367                 st = os.fstat(f.fileno())
368                 if st.st_size:
369                     self.m = mmap_readwrite(f)
370                     self.writable = True
371                     self.count = struct.unpack(FOOTER_SIG,
372                           str(buffer(self.m, st.st_size-FOOTLEN, FOOTLEN)))[0]
373
374     def __del__(self):
375         self.close()
376
377     def __len__(self):
378         return int(self.count)
379
380     def forward_iter(self):
381         ofs = len(INDEX_HDR)
382         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
383             eon = self.m.find('\0', ofs)
384             assert(eon >= 0)
385             assert(eon >= ofs)
386             assert(eon > ofs)
387             basename = str(buffer(self.m, ofs, eon-ofs))
388             yield ExistingEntry(None, basename, basename, self.m, eon+1)
389             ofs = eon + 1 + ENTLEN
390
391     def iter(self, name=None, wantrecurse=None):
392         if len(self.m) > len(INDEX_HDR)+ENTLEN:
393             dname = name
394             if dname and not dname.endswith('/'):
395                 dname += '/'
396             root = ExistingEntry(None, '/', '/',
397                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
398             for sub in root.iter(name=name, wantrecurse=wantrecurse):
399                 yield sub
400             if not dname or dname == root.name:
401                 yield root
402
403     def __iter__(self):
404         return self.iter()
405
406     def exists(self):
407         return self.m
408
409     def save(self):
410         if self.writable and self.m:
411             self.m.flush()
412
413     def close(self):
414         self.save()
415         if self.writable and self.m:
416             self.m.close()
417             self.m = None
418             self.writable = False
419
420     def filter(self, prefixes, wantrecurse=None):
421         for (rp, path) in reduce_paths(prefixes):
422             for e in self.iter(rp, wantrecurse=wantrecurse):
423                 assert(e.name.startswith(rp))
424                 name = path + e.name[len(rp):]
425                 yield (name, e)
426
427
428 # FIXME: this function isn't very generic, because it splits the filename
429 # in an odd way and depends on a terminating '/' to indicate directories.
430 def pathsplit(p):
431     """Split a path into a list of elements of the file system hierarchy."""
432     l = p.split('/')
433     l = [i+'/' for i in l[:-1]] + l[-1:]
434     if l[-1] == '':
435         l.pop()  # extra blank caused by terminating '/'
436     return l
437
438
439 class Writer:
440     def __init__(self, filename, metastore, tmax):
441         self.rootlevel = self.level = Level([], None)
442         self.f = None
443         self.count = 0
444         self.lastfile = None
445         self.filename = None
446         self.filename = filename = resolve_parent(filename)
447         self.metastore = metastore
448         self.tmax = tmax
449         (dir,name) = os.path.split(filename)
450         (ffd,self.tmpname) = tempfile.mkstemp('.tmp', filename, dir)
451         self.f = os.fdopen(ffd, 'wb', 65536)
452         self.f.write(INDEX_HDR)
453
454     def __del__(self):
455         self.abort()
456
457     def abort(self):
458         f = self.f
459         self.f = None
460         if f:
461             f.close()
462             os.unlink(self.tmpname)
463
464     def flush(self):
465         if self.level:
466             self.level = _golevel(self.level, self.f, [], None,
467                                   self.metastore, self.tmax)
468             self.count = self.rootlevel.count
469             if self.count:
470                 self.count += 1
471             self.f.write(struct.pack(FOOTER_SIG, self.count))
472             self.f.flush()
473         assert(self.level == None)
474
475     def close(self):
476         self.flush()
477         f = self.f
478         self.f = None
479         if f:
480             f.close()
481             os.rename(self.tmpname, self.filename)
482
483     def _add(self, ename, entry):
484         if self.lastfile and self.lastfile <= ename:
485             raise Error('%r must come before %r' 
486                              % (''.join(ename), ''.join(self.lastfile)))
487         self.lastfile = ename
488         self.level = _golevel(self.level, self.f, ename, entry,
489                               self.metastore, self.tmax)
490
491     def add(self, name, st, meta_ofs, hashgen = None):
492         endswith = name.endswith('/')
493         ename = pathsplit(name)
494         basename = ename[-1]
495         #log('add: %r %r\n' % (basename, name))
496         flags = IX_EXISTS
497         sha = None
498         if hashgen:
499             (gitmode, sha) = hashgen(name)
500             flags |= IX_HASHVALID
501         else:
502             (gitmode, sha) = (0, EMPTY_SHA)
503         if st:
504             isdir = stat.S_ISDIR(st.st_mode)
505             assert(isdir == endswith)
506             e = NewEntry(basename, name, self.tmax,
507                          st.st_dev, st.st_ino, st.st_nlink,
508                          st.st_ctime, st.st_mtime, st.st_atime,
509                          st.st_size, st.st_mode, gitmode, sha, flags,
510                          meta_ofs, 0, 0)
511         else:
512             assert(endswith)
513             meta_ofs = self.metastore.store(metadata.Metadata())
514             e = BlankNewEntry(basename, meta_ofs, self.tmax)
515             e.gitmode = gitmode
516             e.sha = sha
517             e.flags = flags
518         self._add(ename, e)
519
520     def add_ixentry(self, e):
521         e.children_ofs = e.children_n = 0
522         self._add(pathsplit(e.name), e)
523
524     def new_reader(self):
525         self.flush()
526         return Reader(self.tmpname)
527
528
529 def reduce_paths(paths):
530     xpaths = []
531     for p in paths:
532         rp = resolve_parent(p)
533         try:
534             st = os.lstat(rp)
535             if stat.S_ISDIR(st.st_mode):
536                 rp = slashappend(rp)
537                 p = slashappend(p)
538             xpaths.append((rp, p))
539         except OSError as e:
540             add_error('reduce_paths: %s' % e)
541     xpaths.sort()
542
543     paths = []
544     prev = None
545     for (rp, p) in xpaths:
546         if prev and (prev == rp 
547                      or (prev.endswith('/') and rp.startswith(prev))):
548             continue # already superceded by previous path
549         paths.append((rp, p))
550         prev = rp
551     paths.sort(reverse=True)
552     return paths
553
554 def merge(*iters):
555     def pfunc(count, total):
556         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
557     def pfinal(count, total):
558         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
559     return merge_iter(iters, 1024, pfunc, pfinal, key='name')