]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
do_bloom(): remove unused "count" variable
[bup.git] / lib / bup / index.py
1 import metadata, os, stat, struct, tempfile
2 from bup import xstat
3 from bup.helpers import *
4
5 EMPTY_SHA = '\0'*20
6 FAKE_SHA = '\x01'*20
7
8 INDEX_HDR = 'BUPI\0\0\0\5'
9
10 # Time values are handled as integer nanoseconds since the epoch in
11 # memory, but are written as xstat/metadata timespecs.  This behavior
12 # matches the existing metadata/xstat/.bupm code.
13
14 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
15 # store all of the times in the index so they won't interfere with the
16 # forthcoming metadata cache.
17 INDEX_SIG =  '!QQQqQqQqQIIQII20sHIIQ'
18
19 ENTLEN = struct.calcsize(INDEX_SIG)
20 FOOTER_SIG = '!Q'
21 FOOTLEN = struct.calcsize(FOOTER_SIG)
22
23 IX_EXISTS = 0x8000        # file exists on filesystem
24 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
25 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
26
27 class Error(Exception):
28     pass
29
30
31 class MetaStoreReader:
32     def __init__(self, filename):
33         self._file = None
34         self._file = open(filename, 'rb')
35
36     def close(self):
37         if self._file:
38             self._file.close()
39             self._file = None
40
41     def __del__(self):
42         self.close()
43
44     def metadata_at(self, ofs):
45         self._file.seek(ofs)
46         return metadata.Metadata.read(self._file)
47
48
49 class MetaStoreWriter:
50     # For now, we just append to the file, and try to handle any
51     # truncation or corruption somewhat sensibly.
52
53     def __init__(self, filename):
54         # Map metadata hashes to bupindex.meta offsets.
55         self._offsets = {}
56         self._filename = filename
57         self._file = None
58         # FIXME: see how slow this is; does it matter?
59         m_file = open(filename, 'ab+')
60         try:
61             m_file.seek(0)
62             try:
63                 m_off = m_file.tell()
64                 m = metadata.Metadata.read(m_file)
65                 while m:
66                     m_encoded = m.encode()
67                     self._offsets[m_encoded] = m_off
68                     m_off = m_file.tell()
69                     m = metadata.Metadata.read(m_file)
70             except EOFError:
71                 pass
72             except:
73                 log('index metadata in %r appears to be corrupt' % filename)
74                 raise
75         finally:
76             m_file.close()
77         self._file = open(filename, 'ab')
78
79     def close(self):
80         if self._file:
81             self._file.close()
82             self._file = None
83
84     def __del__(self):
85         # Be optimistic.
86         self.close()
87
88     def store(self, metadata):
89         meta_encoded = metadata.encode(include_path=False)
90         ofs = self._offsets.get(meta_encoded)
91         if ofs:
92             return ofs
93         ofs = self._file.tell()
94         self._file.write(meta_encoded)
95         self._offsets[meta_encoded] = ofs
96         return ofs
97
98
99 class Level:
100     def __init__(self, ename, parent):
101         self.parent = parent
102         self.ename = ename
103         self.list = []
104         self.count = 0
105
106     def write(self, f):
107         (ofs,n) = (f.tell(), len(self.list))
108         if self.list:
109             count = len(self.list)
110             #log('popping %r with %d entries\n' 
111             #    % (''.join(self.ename), count))
112             for e in self.list:
113                 e.write(f)
114             if self.parent:
115                 self.parent.count += count + self.count
116         return (ofs,n)
117
118
119 def _golevel(level, f, ename, newentry, metastore, tmax):
120     # close nodes back up the tree
121     assert(level)
122     default_meta_ofs = metastore.store(metadata.Metadata())
123     while ename[:len(level.ename)] != level.ename:
124         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
125         n.flags |= IX_EXISTS
126         (n.children_ofs,n.children_n) = level.write(f)
127         level.parent.list.append(n)
128         level = level.parent
129
130     # create nodes down the tree
131     while len(level.ename) < len(ename):
132         level = Level(ename[:len(level.ename)+1], level)
133
134     # are we in precisely the right place?
135     assert(ename == level.ename)
136     n = newentry or \
137         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
138     (n.children_ofs,n.children_n) = level.write(f)
139     if level.parent:
140         level.parent.list.append(n)
141     level = level.parent
142
143     return level
144
145
146 class Entry:
147     def __init__(self, basename, name, meta_ofs, tmax):
148         self.basename = str(basename)
149         self.name = str(name)
150         self.meta_ofs = meta_ofs
151         self.tmax = tmax
152         self.children_ofs = 0
153         self.children_n = 0
154
155     def __repr__(self):
156         return ("(%s,0x%04x,%d,%d,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
157                 % (self.name, self.dev, self.ino, self.nlink,
158                    self.ctime, self.mtime, self.atime, self.uid, self.gid,
159                    self.size, self.mode, self.gitmode,
160                    self.flags, self.meta_ofs,
161                    self.children_ofs, self.children_n))
162
163     def packed(self):
164         try:
165             ctime = xstat.nsecs_to_timespec(self.ctime)
166             mtime = xstat.nsecs_to_timespec(self.mtime)
167             atime = xstat.nsecs_to_timespec(self.atime)
168             return struct.pack(INDEX_SIG,
169                                self.dev, self.ino, self.nlink,
170                                ctime[0], ctime[1],
171                                mtime[0], mtime[1],
172                                atime[0], atime[1],
173                                self.uid, self.gid, self.size, self.mode,
174                                self.gitmode, self.sha, self.flags,
175                                self.children_ofs, self.children_n,
176                                self.meta_ofs)
177         except (DeprecationWarning, struct.error), e:
178             log('pack error: %s (%r)\n' % (e, self))
179             raise
180
181     def from_stat(self, st, meta_ofs, tstart, check_device=True):
182         old = (self.dev if check_device else 0,
183                self.ino, self.nlink, self.ctime, self.mtime,
184                self.uid, self.gid, self.size, self.flags & IX_EXISTS)
185         new = (st.st_dev if check_device else 0,
186                st.st_ino, st.st_nlink, st.st_ctime, st.st_mtime,
187                st.st_uid, st.st_gid, st.st_size, IX_EXISTS)
188         self.dev = st.st_dev
189         self.ino = st.st_ino
190         self.nlink = st.st_nlink
191         self.ctime = st.st_ctime
192         self.mtime = st.st_mtime
193         self.atime = st.st_atime
194         self.uid = st.st_uid
195         self.gid = st.st_gid
196         self.size = st.st_size
197         self.mode = st.st_mode
198         self.flags |= IX_EXISTS
199         self.meta_ofs = meta_ofs
200         # Check that the ctime's "second" is at or after tstart's.
201         ctime_sec_in_ns = xstat.fstime_floor_secs(st.st_ctime) * 10**9
202         if ctime_sec_in_ns >= tstart or old != new \
203               or self.sha == EMPTY_SHA or not self.gitmode:
204             self.invalidate()
205         self._fixup()
206         
207     def _fixup(self):
208         if self.uid < 0:
209             self.uid += 0x100000000
210         if self.gid < 0:
211             self.gid += 0x100000000
212         assert(self.uid >= 0)
213         assert(self.gid >= 0)
214         self.mtime = self._fixup_time(self.mtime)
215         self.ctime = self._fixup_time(self.ctime)
216
217     def _fixup_time(self, t):
218         if self.tmax != None and t > self.tmax:
219             return self.tmax
220         else:
221             return t
222
223     def is_valid(self):
224         f = IX_HASHVALID|IX_EXISTS
225         return (self.flags & f) == f
226
227     def invalidate(self):
228         self.flags &= ~IX_HASHVALID
229
230     def validate(self, gitmode, sha):
231         assert(sha)
232         assert(gitmode)
233         assert(gitmode+0 == gitmode)
234         self.gitmode = gitmode
235         self.sha = sha
236         self.flags |= IX_HASHVALID|IX_EXISTS
237
238     def exists(self):
239         return not self.is_deleted()
240
241     def sha_missing(self):
242         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
243
244     def is_deleted(self):
245         return (self.flags & IX_EXISTS) == 0
246
247     def set_deleted(self):
248         if self.flags & IX_EXISTS:
249             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
250
251     def is_real(self):
252         return not self.is_fake()
253
254     def is_fake(self):
255         return not self.ctime
256
257     def __cmp__(a, b):
258         return (cmp(b.name, a.name)
259                 or cmp(a.is_valid(), b.is_valid())
260                 or cmp(a.is_fake(), b.is_fake()))
261
262     def write(self, f):
263         f.write(self.basename + '\0' + self.packed())
264
265
266 class NewEntry(Entry):
267     def __init__(self, basename, name, tmax, dev, ino, nlink,
268                  ctime, mtime, atime,
269                  uid, gid, size, mode, gitmode, sha, flags, meta_ofs,
270                  children_ofs, children_n):
271         Entry.__init__(self, basename, name, meta_ofs, tmax)
272         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
273          self.uid, self.gid, self.size, self.mode, self.gitmode, self.sha,
274          self.flags, self.children_ofs, self.children_n
275          ) = (dev, ino, nlink, ctime, mtime, atime, uid, gid,
276               size, mode, gitmode, sha, flags, children_ofs, children_n)
277         self._fixup()
278
279
280 class BlankNewEntry(NewEntry):
281     def __init__(self, basename, meta_ofs, tmax):
282         NewEntry.__init__(self, basename, basename, tmax,
283                           0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
284                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
285
286
287 class ExistingEntry(Entry):
288     def __init__(self, parent, basename, name, m, ofs):
289         Entry.__init__(self, basename, name, None, None)
290         self.parent = parent
291         self._m = m
292         self._ofs = ofs
293         (self.dev, self.ino, self.nlink,
294          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
295          self.uid, self.gid, self.size, self.mode, self.gitmode, self.sha,
296          self.flags, self.children_ofs, self.children_n, self.meta_ofs
297          ) = struct.unpack(INDEX_SIG, str(buffer(m, ofs, ENTLEN)))
298         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
299         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
300         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
301
302     # effectively, we don't bother messing with IX_SHAMISSING if
303     # not IX_HASHVALID, since it's redundant, and repacking is more
304     # expensive than not repacking.
305     # This is implemented by having sha_missing() check IX_HASHVALID too.
306     def set_sha_missing(self, val):
307         val = val and 1 or 0
308         oldval = self.sha_missing() and 1 or 0
309         if val != oldval:
310             flag = val and IX_SHAMISSING or 0
311             newflags = (self.flags & (~IX_SHAMISSING)) | flag
312             self.flags = newflags
313             self.repack()
314
315     def unset_sha_missing(self, flag):
316         if self.flags & IX_SHAMISSING:
317             self.flags &= ~IX_SHAMISSING
318             self.repack()
319
320     def repack(self):
321         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
322         if self.parent and not self.is_valid():
323             self.parent.invalidate()
324             self.parent.repack()
325
326     def iter(self, name=None, wantrecurse=None):
327         dname = name
328         if dname and not dname.endswith('/'):
329             dname += '/'
330         ofs = self.children_ofs
331         assert(ofs <= len(self._m))
332         assert(self.children_n < 1000000)
333         for i in xrange(self.children_n):
334             eon = self._m.find('\0', ofs)
335             assert(eon >= 0)
336             assert(eon >= ofs)
337             assert(eon > ofs)
338             basename = str(buffer(self._m, ofs, eon-ofs))
339             child = ExistingEntry(self, basename, self.name + basename,
340                                   self._m, eon+1)
341             if (not dname
342                  or child.name.startswith(dname)
343                  or child.name.endswith('/') and dname.startswith(child.name)):
344                 if not wantrecurse or wantrecurse(child):
345                     for e in child.iter(name=name, wantrecurse=wantrecurse):
346                         yield e
347             if not name or child.name == name or child.name.startswith(dname):
348                 yield child
349             ofs = eon + 1 + ENTLEN
350
351     def __iter__(self):
352         return self.iter()
353             
354
355 class Reader:
356     def __init__(self, filename):
357         self.filename = filename
358         self.m = ''
359         self.writable = False
360         self.count = 0
361         f = None
362         try:
363             f = open(filename, 'r+')
364         except IOError, e:
365             if e.errno == errno.ENOENT:
366                 pass
367             else:
368                 raise
369         if f:
370             b = f.read(len(INDEX_HDR))
371             if b != INDEX_HDR:
372                 log('warning: %s: header: expected %r, got %r\n'
373                                  % (filename, INDEX_HDR, b))
374             else:
375                 st = os.fstat(f.fileno())
376                 if st.st_size:
377                     self.m = mmap_readwrite(f)
378                     self.writable = True
379                     self.count = struct.unpack(FOOTER_SIG,
380                           str(buffer(self.m, st.st_size-FOOTLEN, FOOTLEN)))[0]
381
382     def __del__(self):
383         self.close()
384
385     def __len__(self):
386         return int(self.count)
387
388     def forward_iter(self):
389         ofs = len(INDEX_HDR)
390         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
391             eon = self.m.find('\0', ofs)
392             assert(eon >= 0)
393             assert(eon >= ofs)
394             assert(eon > ofs)
395             basename = str(buffer(self.m, ofs, eon-ofs))
396             yield ExistingEntry(None, basename, basename, self.m, eon+1)
397             ofs = eon + 1 + ENTLEN
398
399     def iter(self, name=None, wantrecurse=None):
400         if len(self.m) > len(INDEX_HDR)+ENTLEN:
401             dname = name
402             if dname and not dname.endswith('/'):
403                 dname += '/'
404             root = ExistingEntry(None, '/', '/',
405                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
406             for sub in root.iter(name=name, wantrecurse=wantrecurse):
407                 yield sub
408             if not dname or dname == root.name:
409                 yield root
410
411     def __iter__(self):
412         return self.iter()
413
414     def exists(self):
415         return self.m
416
417     def save(self):
418         if self.writable and self.m:
419             self.m.flush()
420
421     def close(self):
422         self.save()
423         if self.writable and self.m:
424             self.m.close()
425             self.m = None
426             self.writable = False
427
428     def filter(self, prefixes, wantrecurse=None):
429         for (rp, path) in reduce_paths(prefixes):
430             for e in self.iter(rp, wantrecurse=wantrecurse):
431                 assert(e.name.startswith(rp))
432                 name = path + e.name[len(rp):]
433                 yield (name, e)
434
435
436 # FIXME: this function isn't very generic, because it splits the filename
437 # in an odd way and depends on a terminating '/' to indicate directories.
438 def pathsplit(p):
439     """Split a path into a list of elements of the file system hierarchy."""
440     l = p.split('/')
441     l = [i+'/' for i in l[:-1]] + l[-1:]
442     if l[-1] == '':
443         l.pop()  # extra blank caused by terminating '/'
444     return l
445
446
447 class Writer:
448     def __init__(self, filename, metastore, tmax):
449         self.rootlevel = self.level = Level([], None)
450         self.f = None
451         self.count = 0
452         self.lastfile = None
453         self.filename = None
454         self.filename = filename = realpath(filename)
455         self.metastore = metastore
456         self.tmax = tmax
457         (dir,name) = os.path.split(filename)
458         (ffd,self.tmpname) = tempfile.mkstemp('.tmp', filename, dir)
459         self.f = os.fdopen(ffd, 'wb', 65536)
460         self.f.write(INDEX_HDR)
461
462     def __del__(self):
463         self.abort()
464
465     def abort(self):
466         f = self.f
467         self.f = None
468         if f:
469             f.close()
470             os.unlink(self.tmpname)
471
472     def flush(self):
473         if self.level:
474             self.level = _golevel(self.level, self.f, [], None,
475                                   self.metastore, self.tmax)
476             self.count = self.rootlevel.count
477             if self.count:
478                 self.count += 1
479             self.f.write(struct.pack(FOOTER_SIG, self.count))
480             self.f.flush()
481         assert(self.level == None)
482
483     def close(self):
484         self.flush()
485         f = self.f
486         self.f = None
487         if f:
488             f.close()
489             os.rename(self.tmpname, self.filename)
490
491     def _add(self, ename, entry):
492         if self.lastfile and self.lastfile <= ename:
493             raise Error('%r must come before %r' 
494                              % (''.join(ename), ''.join(self.lastfile)))
495         self.lastfile = ename
496         self.level = _golevel(self.level, self.f, ename, entry,
497                               self.metastore, self.tmax)
498
499     def add(self, name, st, meta_ofs, hashgen = None):
500         endswith = name.endswith('/')
501         ename = pathsplit(name)
502         basename = ename[-1]
503         #log('add: %r %r\n' % (basename, name))
504         flags = IX_EXISTS
505         sha = None
506         if hashgen:
507             (gitmode, sha) = hashgen(name)
508             flags |= IX_HASHVALID
509         else:
510             (gitmode, sha) = (0, EMPTY_SHA)
511         if st:
512             isdir = stat.S_ISDIR(st.st_mode)
513             assert(isdir == endswith)
514             e = NewEntry(basename, name, self.tmax,
515                          st.st_dev, st.st_ino, st.st_nlink,
516                          st.st_ctime, st.st_mtime, st.st_atime,
517                          st.st_uid, st.st_gid,
518                          st.st_size, st.st_mode, gitmode, sha, flags,
519                          meta_ofs, 0, 0)
520         else:
521             assert(endswith)
522             meta_ofs = self.metastore.store(metadata.Metadata())
523             e = BlankNewEntry(basename, meta_ofs, self.tmax)
524             e.gitmode = gitmode
525             e.sha = sha
526             e.flags = flags
527         self._add(ename, e)
528
529     def add_ixentry(self, e):
530         e.children_ofs = e.children_n = 0
531         self._add(pathsplit(e.name), e)
532
533     def new_reader(self):
534         self.flush()
535         return Reader(self.tmpname)
536
537
538 def reduce_paths(paths):
539     xpaths = []
540     for p in paths:
541         rp = realpath(p)
542         try:
543             st = os.lstat(rp)
544             if stat.S_ISDIR(st.st_mode):
545                 rp = slashappend(rp)
546                 p = slashappend(p)
547             xpaths.append((rp, p))
548         except OSError, e:
549             add_error('reduce_paths: %s' % e)
550     xpaths.sort()
551
552     paths = []
553     prev = None
554     for (rp, p) in xpaths:
555         if prev and (prev == rp 
556                      or (prev.endswith('/') and rp.startswith(prev))):
557             continue # already superceded by previous path
558         paths.append((rp, p))
559         prev = rp
560     paths.sort(reverse=True)
561     return paths
562
563 def merge(*iters):
564     def pfunc(count, total):
565         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
566     def pfinal(count, total):
567         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
568     return merge_iter(iters, 1024, pfunc, pfinal, key='name')