]> arthur.barton.de Git - bup.git/blob - lib/bup/index.py
Move Cygwin uid/gid fixup from index to xstat
[bup.git] / lib / bup / index.py
1 import metadata, os, stat, struct, tempfile
2 from bup import xstat
3 from bup.helpers import *
4
5 EMPTY_SHA = '\0'*20
6 FAKE_SHA = '\x01'*20
7
8 INDEX_HDR = 'BUPI\0\0\0\5'
9
10 # Time values are handled as integer nanoseconds since the epoch in
11 # memory, but are written as xstat/metadata timespecs.  This behavior
12 # matches the existing metadata/xstat/.bupm code.
13
14 # Record times (mtime, ctime, atime) as xstat/metadata timespecs, and
15 # store all of the times in the index so they won't interfere with the
16 # forthcoming metadata cache.
17 INDEX_SIG =  '!QQQqQqQqQIIQII20sHIIQ'
18
19 ENTLEN = struct.calcsize(INDEX_SIG)
20 FOOTER_SIG = '!Q'
21 FOOTLEN = struct.calcsize(FOOTER_SIG)
22
23 IX_EXISTS = 0x8000        # file exists on filesystem
24 IX_HASHVALID = 0x4000     # the stored sha1 matches the filesystem
25 IX_SHAMISSING = 0x2000    # the stored sha1 object doesn't seem to exist
26
27 class Error(Exception):
28     pass
29
30
31 class MetaStoreReader:
32     def __init__(self, filename):
33         self._file = None
34         self._file = open(filename, 'rb')
35
36     def close(self):
37         if self._file:
38             self._file.close()
39             self._file = None
40
41     def __del__(self):
42         self.close()
43
44     def metadata_at(self, ofs):
45         self._file.seek(ofs)
46         return metadata.Metadata.read(self._file)
47
48
49 class MetaStoreWriter:
50     # For now, we just append to the file, and try to handle any
51     # truncation or corruption somewhat sensibly.
52
53     def __init__(self, filename):
54         # Map metadata hashes to bupindex.meta offsets.
55         self._offsets = {}
56         self._filename = filename
57         self._file = None
58         # FIXME: see how slow this is; does it matter?
59         m_file = open(filename, 'ab+')
60         try:
61             m_file.seek(0)
62             try:
63                 m_off = m_file.tell()
64                 m = metadata.Metadata.read(m_file)
65                 while m:
66                     m_encoded = m.encode()
67                     self._offsets[m_encoded] = m_off
68                     m_off = m_file.tell()
69                     m = metadata.Metadata.read(m_file)
70             except EOFError:
71                 pass
72             except:
73                 log('index metadata in %r appears to be corrupt' % filename)
74                 raise
75         finally:
76             m_file.close()
77         self._file = open(filename, 'ab')
78
79     def close(self):
80         if self._file:
81             self._file.close()
82             self._file = None
83
84     def __del__(self):
85         # Be optimistic.
86         self.close()
87
88     def store(self, metadata):
89         meta_encoded = metadata.encode(include_path=False)
90         ofs = self._offsets.get(meta_encoded)
91         if ofs:
92             return ofs
93         ofs = self._file.tell()
94         self._file.write(meta_encoded)
95         self._offsets[meta_encoded] = ofs
96         return ofs
97
98
99 class Level:
100     def __init__(self, ename, parent):
101         self.parent = parent
102         self.ename = ename
103         self.list = []
104         self.count = 0
105
106     def write(self, f):
107         (ofs,n) = (f.tell(), len(self.list))
108         if self.list:
109             count = len(self.list)
110             #log('popping %r with %d entries\n' 
111             #    % (''.join(self.ename), count))
112             for e in self.list:
113                 e.write(f)
114             if self.parent:
115                 self.parent.count += count + self.count
116         return (ofs,n)
117
118
119 def _golevel(level, f, ename, newentry, metastore, tmax):
120     # close nodes back up the tree
121     assert(level)
122     default_meta_ofs = metastore.store(metadata.Metadata())
123     while ename[:len(level.ename)] != level.ename:
124         n = BlankNewEntry(level.ename[-1], default_meta_ofs, tmax)
125         n.flags |= IX_EXISTS
126         (n.children_ofs,n.children_n) = level.write(f)
127         level.parent.list.append(n)
128         level = level.parent
129
130     # create nodes down the tree
131     while len(level.ename) < len(ename):
132         level = Level(ename[:len(level.ename)+1], level)
133
134     # are we in precisely the right place?
135     assert(ename == level.ename)
136     n = newentry or \
137         BlankNewEntry(ename and level.ename[-1] or None, default_meta_ofs, tmax)
138     (n.children_ofs,n.children_n) = level.write(f)
139     if level.parent:
140         level.parent.list.append(n)
141     level = level.parent
142
143     return level
144
145
146 class Entry:
147     def __init__(self, basename, name, meta_ofs, tmax):
148         self.basename = str(basename)
149         self.name = str(name)
150         self.meta_ofs = meta_ofs
151         self.tmax = tmax
152         self.children_ofs = 0
153         self.children_n = 0
154
155     def __repr__(self):
156         return ("(%s,0x%04x,%d,%d,%d,%d,%d,%d,%d,%d,%s/%s,0x%04x,%d,0x%08x/%d)"
157                 % (self.name, self.dev, self.ino, self.nlink,
158                    self.ctime, self.mtime, self.atime, self.uid, self.gid,
159                    self.size, self.mode, self.gitmode,
160                    self.flags, self.meta_ofs,
161                    self.children_ofs, self.children_n))
162
163     def packed(self):
164         try:
165             ctime = xstat.nsecs_to_timespec(self.ctime)
166             mtime = xstat.nsecs_to_timespec(self.mtime)
167             atime = xstat.nsecs_to_timespec(self.atime)
168             return struct.pack(INDEX_SIG,
169                                self.dev, self.ino, self.nlink,
170                                ctime[0], ctime[1],
171                                mtime[0], mtime[1],
172                                atime[0], atime[1],
173                                self.uid, self.gid, self.size, self.mode,
174                                self.gitmode, self.sha, self.flags,
175                                self.children_ofs, self.children_n,
176                                self.meta_ofs)
177         except (DeprecationWarning, struct.error), e:
178             log('pack error: %s (%r)\n' % (e, self))
179             raise
180
181     def from_stat(self, st, meta_ofs, tstart, check_device=True):
182         old = (self.dev if check_device else 0,
183                self.ino, self.nlink, self.ctime, self.mtime,
184                self.uid, self.gid, self.size, self.flags & IX_EXISTS)
185         new = (st.st_dev if check_device else 0,
186                st.st_ino, st.st_nlink, st.st_ctime, st.st_mtime,
187                st.st_uid, st.st_gid, st.st_size, IX_EXISTS)
188         self.dev = st.st_dev
189         self.ino = st.st_ino
190         self.nlink = st.st_nlink
191         self.ctime = st.st_ctime
192         self.mtime = st.st_mtime
193         self.atime = st.st_atime
194         self.uid = st.st_uid
195         self.gid = st.st_gid
196         self.size = st.st_size
197         self.mode = st.st_mode
198         self.flags |= IX_EXISTS
199         self.meta_ofs = meta_ofs
200         # Check that the ctime's "second" is at or after tstart's.
201         ctime_sec_in_ns = xstat.fstime_floor_secs(st.st_ctime) * 10**9
202         if ctime_sec_in_ns >= tstart or old != new \
203               or self.sha == EMPTY_SHA or not self.gitmode:
204             self.invalidate()
205         self._fixup()
206         
207     def _fixup(self):
208         self.mtime = self._fixup_time(self.mtime)
209         self.ctime = self._fixup_time(self.ctime)
210
211     def _fixup_time(self, t):
212         if self.tmax != None and t > self.tmax:
213             return self.tmax
214         else:
215             return t
216
217     def is_valid(self):
218         f = IX_HASHVALID|IX_EXISTS
219         return (self.flags & f) == f
220
221     def invalidate(self):
222         self.flags &= ~IX_HASHVALID
223
224     def validate(self, gitmode, sha):
225         assert(sha)
226         assert(gitmode)
227         assert(gitmode+0 == gitmode)
228         self.gitmode = gitmode
229         self.sha = sha
230         self.flags |= IX_HASHVALID|IX_EXISTS
231
232     def exists(self):
233         return not self.is_deleted()
234
235     def sha_missing(self):
236         return (self.flags & IX_SHAMISSING) or not (self.flags & IX_HASHVALID)
237
238     def is_deleted(self):
239         return (self.flags & IX_EXISTS) == 0
240
241     def set_deleted(self):
242         if self.flags & IX_EXISTS:
243             self.flags &= ~(IX_EXISTS | IX_HASHVALID)
244
245     def is_real(self):
246         return not self.is_fake()
247
248     def is_fake(self):
249         return not self.ctime
250
251     def __cmp__(a, b):
252         return (cmp(b.name, a.name)
253                 or cmp(a.is_valid(), b.is_valid())
254                 or cmp(a.is_fake(), b.is_fake()))
255
256     def write(self, f):
257         f.write(self.basename + '\0' + self.packed())
258
259
260 class NewEntry(Entry):
261     def __init__(self, basename, name, tmax, dev, ino, nlink,
262                  ctime, mtime, atime,
263                  uid, gid, size, mode, gitmode, sha, flags, meta_ofs,
264                  children_ofs, children_n):
265         Entry.__init__(self, basename, name, meta_ofs, tmax)
266         (self.dev, self.ino, self.nlink, self.ctime, self.mtime, self.atime,
267          self.uid, self.gid, self.size, self.mode, self.gitmode, self.sha,
268          self.flags, self.children_ofs, self.children_n
269          ) = (dev, ino, nlink, ctime, mtime, atime, uid, gid,
270               size, mode, gitmode, sha, flags, children_ofs, children_n)
271         self._fixup()
272
273
274 class BlankNewEntry(NewEntry):
275     def __init__(self, basename, meta_ofs, tmax):
276         NewEntry.__init__(self, basename, basename, tmax,
277                           0, 0, 0, 0, 0, 0, 0, 0, 0, 0,
278                           0, EMPTY_SHA, 0, meta_ofs, 0, 0)
279
280
281 class ExistingEntry(Entry):
282     def __init__(self, parent, basename, name, m, ofs):
283         Entry.__init__(self, basename, name, None, None)
284         self.parent = parent
285         self._m = m
286         self._ofs = ofs
287         (self.dev, self.ino, self.nlink,
288          self.ctime, ctime_ns, self.mtime, mtime_ns, self.atime, atime_ns,
289          self.uid, self.gid, self.size, self.mode, self.gitmode, self.sha,
290          self.flags, self.children_ofs, self.children_n, self.meta_ofs
291          ) = struct.unpack(INDEX_SIG, str(buffer(m, ofs, ENTLEN)))
292         self.atime = xstat.timespec_to_nsecs((self.atime, atime_ns))
293         self.mtime = xstat.timespec_to_nsecs((self.mtime, mtime_ns))
294         self.ctime = xstat.timespec_to_nsecs((self.ctime, ctime_ns))
295
296     # effectively, we don't bother messing with IX_SHAMISSING if
297     # not IX_HASHVALID, since it's redundant, and repacking is more
298     # expensive than not repacking.
299     # This is implemented by having sha_missing() check IX_HASHVALID too.
300     def set_sha_missing(self, val):
301         val = val and 1 or 0
302         oldval = self.sha_missing() and 1 or 0
303         if val != oldval:
304             flag = val and IX_SHAMISSING or 0
305             newflags = (self.flags & (~IX_SHAMISSING)) | flag
306             self.flags = newflags
307             self.repack()
308
309     def unset_sha_missing(self, flag):
310         if self.flags & IX_SHAMISSING:
311             self.flags &= ~IX_SHAMISSING
312             self.repack()
313
314     def repack(self):
315         self._m[self._ofs:self._ofs+ENTLEN] = self.packed()
316         if self.parent and not self.is_valid():
317             self.parent.invalidate()
318             self.parent.repack()
319
320     def iter(self, name=None, wantrecurse=None):
321         dname = name
322         if dname and not dname.endswith('/'):
323             dname += '/'
324         ofs = self.children_ofs
325         assert(ofs <= len(self._m))
326         assert(self.children_n < 1000000)
327         for i in xrange(self.children_n):
328             eon = self._m.find('\0', ofs)
329             assert(eon >= 0)
330             assert(eon >= ofs)
331             assert(eon > ofs)
332             basename = str(buffer(self._m, ofs, eon-ofs))
333             child = ExistingEntry(self, basename, self.name + basename,
334                                   self._m, eon+1)
335             if (not dname
336                  or child.name.startswith(dname)
337                  or child.name.endswith('/') and dname.startswith(child.name)):
338                 if not wantrecurse or wantrecurse(child):
339                     for e in child.iter(name=name, wantrecurse=wantrecurse):
340                         yield e
341             if not name or child.name == name or child.name.startswith(dname):
342                 yield child
343             ofs = eon + 1 + ENTLEN
344
345     def __iter__(self):
346         return self.iter()
347             
348
349 class Reader:
350     def __init__(self, filename):
351         self.filename = filename
352         self.m = ''
353         self.writable = False
354         self.count = 0
355         f = None
356         try:
357             f = open(filename, 'r+')
358         except IOError, e:
359             if e.errno == errno.ENOENT:
360                 pass
361             else:
362                 raise
363         if f:
364             b = f.read(len(INDEX_HDR))
365             if b != INDEX_HDR:
366                 log('warning: %s: header: expected %r, got %r\n'
367                                  % (filename, INDEX_HDR, b))
368             else:
369                 st = os.fstat(f.fileno())
370                 if st.st_size:
371                     self.m = mmap_readwrite(f)
372                     self.writable = True
373                     self.count = struct.unpack(FOOTER_SIG,
374                           str(buffer(self.m, st.st_size-FOOTLEN, FOOTLEN)))[0]
375
376     def __del__(self):
377         self.close()
378
379     def __len__(self):
380         return int(self.count)
381
382     def forward_iter(self):
383         ofs = len(INDEX_HDR)
384         while ofs+ENTLEN <= len(self.m)-FOOTLEN:
385             eon = self.m.find('\0', ofs)
386             assert(eon >= 0)
387             assert(eon >= ofs)
388             assert(eon > ofs)
389             basename = str(buffer(self.m, ofs, eon-ofs))
390             yield ExistingEntry(None, basename, basename, self.m, eon+1)
391             ofs = eon + 1 + ENTLEN
392
393     def iter(self, name=None, wantrecurse=None):
394         if len(self.m) > len(INDEX_HDR)+ENTLEN:
395             dname = name
396             if dname and not dname.endswith('/'):
397                 dname += '/'
398             root = ExistingEntry(None, '/', '/',
399                                  self.m, len(self.m)-FOOTLEN-ENTLEN)
400             for sub in root.iter(name=name, wantrecurse=wantrecurse):
401                 yield sub
402             if not dname or dname == root.name:
403                 yield root
404
405     def __iter__(self):
406         return self.iter()
407
408     def exists(self):
409         return self.m
410
411     def save(self):
412         if self.writable and self.m:
413             self.m.flush()
414
415     def close(self):
416         self.save()
417         if self.writable and self.m:
418             self.m.close()
419             self.m = None
420             self.writable = False
421
422     def filter(self, prefixes, wantrecurse=None):
423         for (rp, path) in reduce_paths(prefixes):
424             for e in self.iter(rp, wantrecurse=wantrecurse):
425                 assert(e.name.startswith(rp))
426                 name = path + e.name[len(rp):]
427                 yield (name, e)
428
429
430 # FIXME: this function isn't very generic, because it splits the filename
431 # in an odd way and depends on a terminating '/' to indicate directories.
432 def pathsplit(p):
433     """Split a path into a list of elements of the file system hierarchy."""
434     l = p.split('/')
435     l = [i+'/' for i in l[:-1]] + l[-1:]
436     if l[-1] == '':
437         l.pop()  # extra blank caused by terminating '/'
438     return l
439
440
441 class Writer:
442     def __init__(self, filename, metastore, tmax):
443         self.rootlevel = self.level = Level([], None)
444         self.f = None
445         self.count = 0
446         self.lastfile = None
447         self.filename = None
448         self.filename = filename = realpath(filename)
449         self.metastore = metastore
450         self.tmax = tmax
451         (dir,name) = os.path.split(filename)
452         (ffd,self.tmpname) = tempfile.mkstemp('.tmp', filename, dir)
453         self.f = os.fdopen(ffd, 'wb', 65536)
454         self.f.write(INDEX_HDR)
455
456     def __del__(self):
457         self.abort()
458
459     def abort(self):
460         f = self.f
461         self.f = None
462         if f:
463             f.close()
464             os.unlink(self.tmpname)
465
466     def flush(self):
467         if self.level:
468             self.level = _golevel(self.level, self.f, [], None,
469                                   self.metastore, self.tmax)
470             self.count = self.rootlevel.count
471             if self.count:
472                 self.count += 1
473             self.f.write(struct.pack(FOOTER_SIG, self.count))
474             self.f.flush()
475         assert(self.level == None)
476
477     def close(self):
478         self.flush()
479         f = self.f
480         self.f = None
481         if f:
482             f.close()
483             os.rename(self.tmpname, self.filename)
484
485     def _add(self, ename, entry):
486         if self.lastfile and self.lastfile <= ename:
487             raise Error('%r must come before %r' 
488                              % (''.join(ename), ''.join(self.lastfile)))
489         self.lastfile = ename
490         self.level = _golevel(self.level, self.f, ename, entry,
491                               self.metastore, self.tmax)
492
493     def add(self, name, st, meta_ofs, hashgen = None):
494         endswith = name.endswith('/')
495         ename = pathsplit(name)
496         basename = ename[-1]
497         #log('add: %r %r\n' % (basename, name))
498         flags = IX_EXISTS
499         sha = None
500         if hashgen:
501             (gitmode, sha) = hashgen(name)
502             flags |= IX_HASHVALID
503         else:
504             (gitmode, sha) = (0, EMPTY_SHA)
505         if st:
506             isdir = stat.S_ISDIR(st.st_mode)
507             assert(isdir == endswith)
508             e = NewEntry(basename, name, self.tmax,
509                          st.st_dev, st.st_ino, st.st_nlink,
510                          st.st_ctime, st.st_mtime, st.st_atime,
511                          st.st_uid, st.st_gid,
512                          st.st_size, st.st_mode, gitmode, sha, flags,
513                          meta_ofs, 0, 0)
514         else:
515             assert(endswith)
516             meta_ofs = self.metastore.store(metadata.Metadata())
517             e = BlankNewEntry(basename, meta_ofs, self.tmax)
518             e.gitmode = gitmode
519             e.sha = sha
520             e.flags = flags
521         self._add(ename, e)
522
523     def add_ixentry(self, e):
524         e.children_ofs = e.children_n = 0
525         self._add(pathsplit(e.name), e)
526
527     def new_reader(self):
528         self.flush()
529         return Reader(self.tmpname)
530
531
532 def reduce_paths(paths):
533     xpaths = []
534     for p in paths:
535         rp = realpath(p)
536         try:
537             st = os.lstat(rp)
538             if stat.S_ISDIR(st.st_mode):
539                 rp = slashappend(rp)
540                 p = slashappend(p)
541             xpaths.append((rp, p))
542         except OSError, e:
543             add_error('reduce_paths: %s' % e)
544     xpaths.sort()
545
546     paths = []
547     prev = None
548     for (rp, p) in xpaths:
549         if prev and (prev == rp 
550                      or (prev.endswith('/') and rp.startswith(prev))):
551             continue # already superceded by previous path
552         paths.append((rp, p))
553         prev = rp
554     paths.sort(reverse=True)
555     return paths
556
557 def merge(*iters):
558     def pfunc(count, total):
559         qprogress('bup: merging indexes (%d/%d)\r' % (count, total))
560     def pfinal(count, total):
561         progress('bup: merging indexes (%d/%d), done.\n' % (count, total))
562     return merge_iter(iters, 1024, pfunc, pfinal, key='name')