]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
Initialize MetaStoreWriter self._file to None
[bup.git] / lib / bup / index.py
1 import metadata, os, stat, struct, tempfile
2 from bup import xstat
3 from bup.helpers import *
4
5 EMPTY_SHA = '\0'*20
6 FAKE_SHA = '\x01'*20
7
8 INDEX_HDR = 'BUPI\0\0\0\5'
9
10 # Time values are handled as integer nanoseconds since the epoch in
11 # memory, but are written as xstat/metadata timespecs.  This behavior
12 # matches the existing metadata/xstat/.bupm code.
13
14 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
15 # store all of the times in the index so they won't interfere with the
16 # forthcoming metadata cache.
17 INDEX_SIG =  '!QQQqQqQqQIIQII20sHIIQ'
18
19 ENTLEN = struct.calcsize(INDEX_SIG)
20 FOOTER_SIG = '!Q'
21 FOOTLEN = struct.calcsize(FOOTER_SIG)
22
23 IX_EXISTS = 0x8000        # file exists on filesystem
24 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
25 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
26
27 class Error(Exception):
28     pass
29
30
31 class MetaStoreReader:
32     def __init__(self, filename):
33         self._file = open(filename, 'rb')
34
35     def close(self):
36         if self._file:
37             self._file.close()
38             self._file = None
39
40     def __del__(self):
41         self.close()
42
43     def metadata_at(self, ofs):
44         self._file.seek(ofs)
45         return metadata.Metadata.read(self._file)
46
47
48 class MetaStoreWriter:
49     # For now, we just append to the file, and try to handle any
50     # truncation or corruption somewhat sensibly.
51
52     def __init__(self, filename):
53         # Map metadata hashes to bupindex.meta offsets.
54         self._offsets = {}
55         self._filename = filename
56         self._file = None
57         # FIXME: see how slow this is; does it matter?
58         m_file = open(filename, 'ab+')
59         try:
60             m_file.seek(0)
61             try:
62                 m_off = m_file.tell()
63                 m = metadata.Metadata.read(m_file)
64                 while m:
65                     m_encoded = m.encode()
66                     self._offsets[m_encoded] = m_off
67                     m_off = m_file.tell()
68                     m = metadata.Metadata.read(m_file)
69             except EOFError:
70                 pass
71             except:
72                 log('index metadata in %r appears to be corrupt' % filename)
73                 raise
74         finally:
75             m_file.close()
76         self._file = open(filename, 'ab')
77
78     def close(self):
79         if self._file:
80             self._file.close()
81             self._file = None
82
83     def __del__(self):
84         # Be optimistic.
85         self.close()
86
87     def store(self, metadata):
88         meta_encoded = metadata.encode(include_path=False)
89         ofs = self._offsets.get(meta_encoded)
90         if ofs:
91             return ofs
92         ofs = self._file.tell()
93         self._file.write(meta_encoded)
94         self._offsets[meta_encoded] = ofs
95         return ofs
96
97
98 class Level:
99     def __init__(self, ename, parent):
100         self.parent = parent
101         self.ename = ename
102         self.list = []
103         self.count = 0
104
105     def write(self, f):
106         (ofs,n) = (f.tell(), len(self.list))
107         if self.list:
108             count = len(self.list)
109             #log('popping %r with %d entries\n' 
110             #    % (''.join(self.ename), count))
111             for e in self.list:
112                 e.write(f)
113             if self.parent:
114                 self.parent.count += count + self.count
115         return (ofs,n)
116
117
118 def _golevel(level, f, ename, newentry, metastore, tmax):
119     # close nodes back up the tree
120     assert(level)
121     default_meta_ofs = metastore.store(metadata.Metadata())
122     while ename[:len(level.ename)] != level.ename:
123         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
124         n.flags |= IX_EXISTS
125         (n.children_ofs,n.children_n) = level.write(f)
126         level.parent.list.append(n)
127         level = level.parent
128
129     # create nodes down the tree
130     while len(level.ename) < len(ename):
131         level = Level(ename[:len(level.ename)+1], level)
132
133     # are we in precisely the right place?
134     assert(ename == level.ename)
135     n = newentry or \
136         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
137     (n.children_ofs,n.children_n) = level.write(f)
138     if level.parent:
139         level.parent.list.append(n)
140     level = level.parent
141
142     return level
143
144
145 class Entry:
146     def __init__(self, basename, name, meta_ofs, tmax):
147         self.basename = str(basename)
148         self.name = str(name)
149         self.meta_ofs = meta_ofs
150         self.tmax = tmax
151         self.children_ofs = 0
152         self.children_n = 0
153
154     def __repr__(self):
155         return ("(%s,0x%04x,%d,%d,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
156                 % (self.name, self.dev, self.ino, self.nlink,
157                    self.ctime, self.mtime, self.atime, self.uid, self.gid,
158                    self.size, self.mode, self.gitmode,
159                    self.flags, self.meta_ofs,
160                    self.children_ofs, self.children_n))
161
162     def packed(self):
163         try:
164             ctime = xstat.nsecs_to_timespec(self.ctime)
165             mtime = xstat.nsecs_to_timespec(self.mtime)
166             atime = xstat.nsecs_to_timespec(self.atime)
167             return struct.pack(INDEX_SIG,
168                                self.dev, self.ino, self.nlink,
169                                ctime[0], ctime[1],
170                                mtime[0], mtime[1],
171                                atime[0], atime[1],
172                                self.uid, self.gid, self.size, self.mode,
173                                self.gitmode, self.sha, self.flags,
174                                self.children_ofs, self.children_n,
175                                self.meta_ofs)
176         except (DeprecationWarning, struct.error), e:
177             log('pack error: %s (%r)\n' % (e, self))
178             raise
179
180     def from_stat(self, st, meta_ofs, tstart, check_device=True):
181         old = (self.dev if check_device else 0,
182                self.ino, self.nlink, self.ctime, self.mtime,
183                self.uid, self.gid, self.size, self.flags & IX_EXISTS)
184         new = (st.st_dev if check_device else 0,
185                st.st_ino, st.st_nlink, st.st_ctime, st.st_mtime,
186                st.st_uid, st.st_gid, st.st_size, IX_EXISTS)
187         self.dev = st.st_dev
188         self.ino = st.st_ino
189         self.nlink = st.st_nlink
190         self.ctime = st.st_ctime
191         self.mtime = st.st_mtime
192         self.atime = st.st_atime
193         self.uid = st.st_uid
194         self.gid = st.st_gid
195         self.size = st.st_size
196         self.mode = st.st_mode
197         self.flags |= IX_EXISTS
198         self.meta_ofs = meta_ofs
199         # Check that the ctime's "second" is at or after tstart's.
200         ctime_sec_in_ns = xstat.fstime_floor_secs(st.st_ctime) * 10**9
201         if ctime_sec_in_ns >= tstart or old != new \
202               or self.sha == EMPTY_SHA or not self.gitmode:
203             self.invalidate()
204         self._fixup()
205         
206     def _fixup(self):
207         if self.uid < 0:
208             self.uid += 0x100000000
209         if self.gid < 0:
210             self.gid += 0x100000000
211         assert(self.uid >= 0)
212         assert(self.gid >= 0)
213         self.mtime = self._fixup_time(self.mtime)
214         self.ctime = self._fixup_time(self.ctime)
215
216     def _fixup_time(self, t):
217         if self.tmax != None and t > self.tmax:
218             return self.tmax
219         else:
220             return t
221
222     def is_valid(self):
223         f = IX_HASHVALID|IX_EXISTS
224         return (self.flags & f) == f
225
226     def invalidate(self):
227         self.flags &= ~IX_HASHVALID
228
229     def validate(self, gitmode, sha):
230         assert(sha)
231         assert(gitmode)
232         assert(gitmode+0 == gitmode)
233         self.gitmode = gitmode
234         self.sha = sha
235         self.flags |= IX_HASHVALID|IX_EXISTS
236
237     def exists(self):
238         return not self.is_deleted()
239
240     def sha_missing(self):
241         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
242
243     def is_deleted(self):
244         return (self.flags & IX_EXISTS) == 0
245
246     def set_deleted(self):
247         if self.flags & IX_EXISTS:
248             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
249
250     def is_real(self):
251         return not self.is_fake()
252
253     def is_fake(self):
254         return not self.ctime
255
256     def __cmp__(a, b):
257         return (cmp(b.name, a.name)
258                 or cmp(a.is_valid(), b.is_valid())
259                 or cmp(a.is_fake(), b.is_fake()))
260
261     def write(self, f):
262         f.write(self.basename + '\0' + self.packed())
263
264
265 class NewEntry(Entry):
266     def __init__(self, basename, name, tmax, dev, ino, nlink,
267                  ctime, mtime, atime,
268                  uid, gid, size, mode, gitmode, sha, flags, meta_ofs,
269                  children_ofs, children_n):
270         Entry.__init__(self, basename, name, meta_ofs, tmax)
271         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
272          self.uid, self.gid, self.size, self.mode, self.gitmode, self.sha,
273          self.flags, self.children_ofs, self.children_n
274          ) = (dev, ino, nlink, ctime, mtime, atime, uid, gid,
275               size, mode, gitmode, sha, flags, children_ofs, children_n)
276         self._fixup()
277
278
279 class BlankNewEntry(NewEntry):
280     def __init__(self, basename, meta_ofs, tmax):
281         NewEntry.__init__(self, basename, basename, tmax,
282                           0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
283                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
284
285
286 class ExistingEntry(Entry):
287     def __init__(self, parent, basename, name, m, ofs):
288         Entry.__init__(self, basename, name, None, None)
289         self.parent = parent
290         self._m = m
291         self._ofs = ofs
292         (self.dev, self.ino, self.nlink,
293          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
294          self.uid, self.gid, self.size, self.mode, self.gitmode, self.sha,
295          self.flags, self.children_ofs, self.children_n, self.meta_ofs
296          ) = struct.unpack(INDEX_SIG, str(buffer(m, ofs, ENTLEN)))
297         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
298         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
299         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
300
301     # effectively, we don't bother messing with IX_SHAMISSING if
302     # not IX_HASHVALID, since it's redundant, and repacking is more
303     # expensive than not repacking.
304     # This is implemented by having sha_missing() check IX_HASHVALID too.
305     def set_sha_missing(self, val):
306         val = val and 1 or 0
307         oldval = self.sha_missing() and 1 or 0
308         if val != oldval:
309             flag = val and IX_SHAMISSING or 0
310             newflags = (self.flags & (~IX_SHAMISSING)) | flag
311             self.flags = newflags
312             self.repack()
313
314     def unset_sha_missing(self, flag):
315         if self.flags & IX_SHAMISSING:
316             self.flags &= ~IX_SHAMISSING
317             self.repack()
318
319     def repack(self):
320         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
321         if self.parent and not self.is_valid():
322             self.parent.invalidate()
323             self.parent.repack()
324
325     def iter(self, name=None, wantrecurse=None):
326         dname = name
327         if dname and not dname.endswith('/'):
328             dname += '/'
329         ofs = self.children_ofs
330         assert(ofs <= len(self._m))
331         assert(self.children_n < 1000000)
332         for i in xrange(self.children_n):
333             eon = self._m.find('\0', ofs)
334             assert(eon >= 0)
335             assert(eon >= ofs)
336             assert(eon > ofs)
337             basename = str(buffer(self._m, ofs, eon-ofs))
338             child = ExistingEntry(self, basename, self.name + basename,
339                                   self._m, eon+1)
340             if (not dname
341                  or child.name.startswith(dname)
342                  or child.name.endswith('/') and dname.startswith(child.name)):
343                 if not wantrecurse or wantrecurse(child):
344                     for e in child.iter(name=name, wantrecurse=wantrecurse):
345                         yield e
346             if not name or child.name == name or child.name.startswith(dname):
347                 yield child
348             ofs = eon + 1 + ENTLEN
349
350     def __iter__(self):
351         return self.iter()
352             
353
354 class Reader:
355     def __init__(self, filename):
356         self.filename = filename
357         self.m = ''
358         self.writable = False
359         self.count = 0
360         f = None
361         try:
362             f = open(filename, 'r+')
363         except IOError, e:
364             if e.errno == errno.ENOENT:
365                 pass
366             else:
367                 raise
368         if f:
369             b = f.read(len(INDEX_HDR))
370             if b != INDEX_HDR:
371                 log('warning: %s: header: expected %r, got %r\n'
372                                  % (filename, INDEX_HDR, b))
373             else:
374                 st = os.fstat(f.fileno())
375                 if st.st_size:
376                     self.m = mmap_readwrite(f)
377                     self.writable = True
378                     self.count = struct.unpack(FOOTER_SIG,
379                           str(buffer(self.m, st.st_size-FOOTLEN, FOOTLEN)))[0]
380
381     def __del__(self):
382         self.close()
383
384     def __len__(self):
385         return int(self.count)
386
387     def forward_iter(self):
388         ofs = len(INDEX_HDR)
389         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
390             eon = self.m.find('\0', ofs)
391             assert(eon >= 0)
392             assert(eon >= ofs)
393             assert(eon > ofs)
394             basename = str(buffer(self.m, ofs, eon-ofs))
395             yield ExistingEntry(None, basename, basename, self.m, eon+1)
396             ofs = eon + 1 + ENTLEN
397
398     def iter(self, name=None, wantrecurse=None):
399         if len(self.m) > len(INDEX_HDR)+ENTLEN:
400             dname = name
401             if dname and not dname.endswith('/'):
402                 dname += '/'
403             root = ExistingEntry(None, '/', '/',
404                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
405             for sub in root.iter(name=name, wantrecurse=wantrecurse):
406                 yield sub
407             if not dname or dname == root.name:
408                 yield root
409
410     def __iter__(self):
411         return self.iter()
412
413     def exists(self):
414         return self.m
415
416     def save(self):
417         if self.writable and self.m:
418             self.m.flush()
419
420     def close(self):
421         self.save()
422         if self.writable and self.m:
423             self.m.close()
424             self.m = None
425             self.writable = False
426
427     def filter(self, prefixes, wantrecurse=None):
428         for (rp, path) in reduce_paths(prefixes):
429             for e in self.iter(rp, wantrecurse=wantrecurse):
430                 assert(e.name.startswith(rp))
431                 name = path + e.name[len(rp):]
432                 yield (name, e)
433
434
435 # FIXME: this function isn't very generic, because it splits the filename
436 # in an odd way and depends on a terminating '/' to indicate directories.
437 def pathsplit(p):
438     """Split a path into a list of elements of the file system hierarchy."""
439     l = p.split('/')
440     l = [i+'/' for i in l[:-1]] + l[-1:]
441     if l[-1] == '':
442         l.pop()  # extra blank caused by terminating '/'
443     return l
444
445
446 class Writer:
447     def __init__(self, filename, metastore, tmax):
448         self.rootlevel = self.level = Level([], None)
449         self.f = None
450         self.count = 0
451         self.lastfile = None
452         self.filename = None
453         self.filename = filename = realpath(filename)
454         self.metastore = metastore
455         self.tmax = tmax
456         (dir,name) = os.path.split(filename)
457         (ffd,self.tmpname) = tempfile.mkstemp('.tmp', filename, dir)
458         self.f = os.fdopen(ffd, 'wb', 65536)
459         self.f.write(INDEX_HDR)
460
461     def __del__(self):
462         self.abort()
463
464     def abort(self):
465         f = self.f
466         self.f = None
467         if f:
468             f.close()
469             os.unlink(self.tmpname)
470
471     def flush(self):
472         if self.level:
473             self.level = _golevel(self.level, self.f, [], None,
474                                   self.metastore, self.tmax)
475             self.count = self.rootlevel.count
476             if self.count:
477                 self.count += 1
478             self.f.write(struct.pack(FOOTER_SIG, self.count))
479             self.f.flush()
480         assert(self.level == None)
481
482     def close(self):
483         self.flush()
484         f = self.f
485         self.f = None
486         if f:
487             f.close()
488             os.rename(self.tmpname, self.filename)
489
490     def _add(self, ename, entry):
491         if self.lastfile and self.lastfile <= ename:
492             raise Error('%r must come before %r' 
493                              % (''.join(ename), ''.join(self.lastfile)))
494         self.lastfile = ename
495         self.level = _golevel(self.level, self.f, ename, entry,
496                               self.metastore, self.tmax)
497
498     def add(self, name, st, meta_ofs, hashgen = None):
499         endswith = name.endswith('/')
500         ename = pathsplit(name)
501         basename = ename[-1]
502         #log('add: %r %r\n' % (basename, name))
503         flags = IX_EXISTS
504         sha = None
505         if hashgen:
506             (gitmode, sha) = hashgen(name)
507             flags |= IX_HASHVALID
508         else:
509             (gitmode, sha) = (0, EMPTY_SHA)
510         if st:
511             isdir = stat.S_ISDIR(st.st_mode)
512             assert(isdir == endswith)
513             e = NewEntry(basename, name, self.tmax,
514                          st.st_dev, st.st_ino, st.st_nlink,
515                          st.st_ctime, st.st_mtime, st.st_atime,
516                          st.st_uid, st.st_gid,
517                          st.st_size, st.st_mode, gitmode, sha, flags,
518                          meta_ofs, 0, 0)
519         else:
520             assert(endswith)
521             meta_ofs = self.metastore.store(metadata.Metadata())
522             e = BlankNewEntry(basename, meta_ofs, self.tmax)
523             e.gitmode = gitmode
524             e.sha = sha
525             e.flags = flags
526         self._add(ename, e)
527
528     def add_ixentry(self, e):
529         e.children_ofs = e.children_n = 0
530         self._add(pathsplit(e.name), e)
531
532     def new_reader(self):
533         self.flush()
534         return Reader(self.tmpname)
535
536
537 def reduce_paths(paths):
538     xpaths = []
539     for p in paths:
540         rp = realpath(p)
541         try:
542             st = os.lstat(rp)
543             if stat.S_ISDIR(st.st_mode):
544                 rp = slashappend(rp)
545                 p = slashappend(p)
546             xpaths.append((rp, p))
547         except OSError, e:
548             add_error('reduce_paths: %s' % e)
549     xpaths.sort()
550
551     paths = []
552     prev = None
553     for (rp, p) in xpaths:
554         if prev and (prev == rp 
555                      or (prev.endswith('/') and rp.startswith(prev))):
556             continue # already superceded by previous path
557         paths.append((rp, p))
558         prev = rp
559     paths.sort(reverse=True)
560     return paths
561
562 def merge(*iters):
563     def pfunc(count, total):
564         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
565     def pfinal(count, total):
566         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
567     return merge_iter(iters, 1024, pfunc, pfinal, key='name')