]> arthur.barton.de Git - netatalk.git/blob - libatalk/adouble/ad_lock.c
Allow opening symlinks r/w, but don't actually allow writing. Fixes test426
[netatalk.git] / libatalk / adouble / ad_lock.c
1 /* 
2  * $Id: ad_lock.c,v 1.20 2010-03-30 12:55:26 franklahm Exp $
3  *
4  * Copyright (c) 1998,1999 Adrian Sun (asun@zoology.washington.edu)
5  * All Rights Reserved. See COPYRIGHT for more information.
6  *
7  * Byte-range locks. This uses either whole-file flocks to fake byte
8  * locks or fcntl-based actual byte locks. Because fcntl locks are
9  * process-oriented, we need to keep around a list of file descriptors
10  * that refer to the same file. Currently, this doesn't serialize access 
11  * to the locks. as a result, there's the potential for race conditions. 
12  *
13  * TODO: fix the race when reading/writing.
14  *       keep a pool of both locks and reference counters around so that
15  *       we can save on mallocs. we should also use a tree to keep things
16  *       sorted.
17  */
18
19 #ifdef HAVE_CONFIG_H
20 #include "config.h"
21 #endif /* HAVE_CONFIG_H */
22
23 #include <atalk/adouble.h>
24
25 #include <stdio.h>
26 #include <stdlib.h>
27 #include <errno.h>
28
29 #include <string.h>
30
31 #include "ad_private.h"
32
33 /* translate between ADLOCK styles and specific locking mechanisms */
34 #define XLATE_FLOCK(type) ((type) == ADLOCK_RD ? LOCK_SH : \
35 ((type) == ADLOCK_WR ? LOCK_EX : \
36  ((type) == ADLOCK_CLR ? LOCK_UN : -1)))
37
38 #ifdef DISABLE_LOCKING
39 #define fcntl(a, b, c ) (0)
40 #endif
41
42 /* ----------------------- */
43 static int set_lock(int fd, int cmd,  struct flock *lock)
44 {
45   if (fd == -2) {
46       /* We assign fd = -2 for symlinks -> do nothing */
47       if (cmd == F_GETLK)
48             lock->l_type = F_UNLCK;
49       return 0;
50   }
51   return fcntl(fd, cmd, lock);
52 }
53
54 /* ----------------------- */
55 static int XLATE_FCNTL_LOCK(int type) 
56 {
57     switch(type) {
58     case ADLOCK_RD:
59         return F_RDLCK;
60     case ADLOCK_WR:
61          return F_WRLCK;
62     case ADLOCK_CLR:
63          return F_UNLCK;
64     }
65     return -1;
66 }
67
68 /* ----------------------- */
69 static int OVERLAP(off_t a, off_t alen, off_t b, off_t blen) 
70 {
71  return (!alen && a <= b) || 
72         (!blen && b <= a) || 
73         ( (a + alen > b) && (b + blen > a) );
74 }
75
76 /* allocation for lock regions. we allocate aggressively and shrink
77  * only in large chunks. */
78 #define ARRAY_BLOCK_SIZE 10 
79 #define ARRAY_FREE_DELTA 100
80
81 /* remove a lock and compact space if necessary */
82 static void adf_freelock(struct ad_fd *ad, const int i)
83 {
84     adf_lock_t *lock = ad->adf_lock + i;
85
86     if (--(*lock->refcount) < 1) {
87         free(lock->refcount); 
88         if (!ad->adf_excl) {
89             lock->lock.l_type = F_UNLCK;
90             set_lock(ad->adf_fd, F_SETLK, &lock->lock); /* unlock */
91         }
92     }
93
94     ad->adf_lockcount--;
95
96     /* move another lock into the empty space */
97     if (i < ad->adf_lockcount) {
98         memcpy(lock, lock + ad->adf_lockcount - i, sizeof(adf_lock_t));
99     }
100
101     /* free extra cruft if we go past a boundary. we always want to
102      * keep at least some stuff around for allocations. this wastes
103      * a bit of space to save time on reallocations. */
104     if ((ad->adf_lockmax > ARRAY_FREE_DELTA) &&
105         (ad->adf_lockcount + ARRAY_FREE_DELTA < ad->adf_lockmax)) {
106             struct adf_lock_t *tmp;
107
108             tmp = (struct adf_lock_t *) 
109                     realloc(ad->adf_lock, sizeof(adf_lock_t)*
110                             (ad->adf_lockcount + ARRAY_FREE_DELTA));
111             if (tmp) {
112                 ad->adf_lock = tmp;
113                 ad->adf_lockmax = ad->adf_lockcount + ARRAY_FREE_DELTA;
114             }
115     }
116 }
117
118
119 /* this needs to deal with the following cases:
120  * 1) fork is the only user of the lock 
121  * 2) fork shares a read lock with another open fork
122  *
123  * i converted to using arrays of locks. everytime a lock
124  * gets removed, we shift all of the locks down.
125  */
126 static void adf_unlock(struct ad_fd *ad, const int fork)
127 {
128     adf_lock_t *lock = ad->adf_lock;
129     int i;
130
131     for (i = 0; i < ad->adf_lockcount; i++) {
132       
133       if (lock[i].user == fork) {
134         /* we're really going to delete this lock. note: read locks
135            are the only ones that allow refcounts > 1 */
136          adf_freelock(ad, i);
137          i--; /* we shifted things down, so we need to backtrack */
138          /* unlikely but realloc may have change adf_lock */
139          lock = ad->adf_lock;       
140       }
141     }
142 }
143
144 /* relock any byte lock that overlaps off/len. unlock everything
145  * else. */
146 static void adf_relockrange(struct ad_fd *ad, int fd,
147                                        const off_t off, const off_t len)
148 {
149     adf_lock_t *lock = ad->adf_lock;
150     int i;
151     
152     if (!ad->adf_excl) for (i = 0; i < ad->adf_lockcount; i++) {
153       if (OVERLAP(off, len, lock[i].lock.l_start, lock[i].lock.l_len)) 
154         set_lock(fd, F_SETLK, &lock[i].lock);
155     }
156 }
157
158
159 /* find a byte lock that overlaps off/len for a particular open fork */
160 static int adf_findlock(struct ad_fd *ad,
161                                    const int fork, const int type,
162                                    const off_t off,
163                                    const off_t len)
164 {
165   adf_lock_t *lock = ad->adf_lock;
166   int i;
167   
168   for (i = 0; i < ad->adf_lockcount; i++) {
169     if ((((type & ADLOCK_RD) && (lock[i].lock.l_type == F_RDLCK)) ||
170         ((type & ADLOCK_WR) && (lock[i].lock.l_type == F_WRLCK))) &&
171         (lock[i].user == fork) && 
172         OVERLAP(off, len, lock[i].lock.l_start, lock[i].lock.l_len)) {
173       return i;
174     }
175   }
176
177   return -1;
178 }
179
180
181 /* search other fork lock lists */
182 static int adf_findxlock(struct ad_fd *ad, 
183                                      const int fork, const int type,
184                                      const off_t off,
185                                      const off_t len)
186 {
187   adf_lock_t *lock = ad->adf_lock;
188   int i;
189   
190   for (i = 0; i < ad->adf_lockcount; i++) {
191     if ((((type & ADLOCK_RD) && (lock[i].lock.l_type == F_RDLCK)) ||
192          ((type & ADLOCK_WR) && (lock[i].lock.l_type == F_WRLCK))) &&
193         (lock[i].user != fork) && 
194         OVERLAP(off, len, lock[i].lock.l_start, lock[i].lock.l_len)) 
195             return i;
196   } 
197   return -1;
198 }
199
200 /* okay, this needs to do the following:
201  * 1) check current list of locks. error on conflict.
202  * 2) apply the lock. error on conflict with another process.
203  * 3) update the list of locks this file has.
204  * 
205  * NOTE: this treats synchronization locks a little differently. we
206  *       do the following things for those:
207  *       1) if the header file exists, all the locks go in the beginning
208  *          of that.
209  *       2) if the header file doesn't exist, we stick the locks
210  *          in the locations specified by AD_FILELOCK_RD/WR.
211  */
212 #define LOCK_DATA_WR (0)
213 #define LOCK_DATA_RD (1)
214 #define LOCK_RSRC_WR (2)
215 #define LOCK_RSRC_RD (3)
216
217 #define LOCK_RSRC_DRD (4)
218 #define LOCK_RSRC_DWR (5)
219 #define LOCK_DATA_DRD (6)
220 #define LOCK_DATA_DWR (7)
221
222 #define LOCK_RSRC_NONE (8)
223 #define LOCK_DATA_NONE (9)
224
225 /* -------------- 
226         translate a data fork lock to an offset
227 */
228
229 static off_t df2off(int off)
230 {
231 int start = off;
232         if (off == AD_FILELOCK_OPEN_WR)
233                 start = LOCK_DATA_WR;
234         else if (off == AD_FILELOCK_OPEN_RD)
235                 start = LOCK_DATA_RD;
236     else if (off == AD_FILELOCK_DENY_RD)
237                 start = LOCK_DATA_DRD;
238         else if (off == AD_FILELOCK_DENY_WR)
239                 start = LOCK_DATA_DWR;
240         else if (off == AD_FILELOCK_OPEN_NONE)
241                 start = LOCK_DATA_NONE;
242         return start;
243 }
244
245 /* -------------- 
246         translate a resource fork lock to an offset
247 */
248
249 static off_t hf2off(int off)
250 {
251 int start = off;
252         if (off == AD_FILELOCK_OPEN_WR)
253                 start = LOCK_RSRC_WR;
254         else if (off == AD_FILELOCK_OPEN_RD)
255                 start = LOCK_RSRC_RD;
256     else if (off == AD_FILELOCK_DENY_RD)
257                 start = LOCK_RSRC_DRD;
258         else if (off == AD_FILELOCK_DENY_WR)
259                 start = LOCK_RSRC_DWR;
260         else if (off == AD_FILELOCK_OPEN_NONE)
261                 start = LOCK_RSRC_NONE;
262         return start;
263 }
264
265 /* ------------------ */
266 int ad_fcntl_lock(struct adouble *ad, const u_int32_t eid, const int locktype,
267                   const off_t off, const off_t len, const int fork)
268 {
269   struct flock lock;
270   struct ad_fd *adf;
271   adf_lock_t *adflock;
272   int oldlock;
273   int i;
274   int type;  
275
276   lock.l_start = off;
277   type = locktype;
278   if (eid == ADEID_DFORK) {
279     adf = &ad->ad_data_fork;
280     if ((type & ADLOCK_FILELOCK)) {
281         if (ad_meta_fileno(ad) != -1) { /* META */
282             adf = ad->ad_md;
283             lock.l_start = df2off(off);
284         }
285     }
286   } else { /* rfork */
287     if (ad_meta_fileno(ad) == -1 || ad_reso_fileno(ad) == -1) {
288         /* there's no meta data. return a lock error 
289          * otherwise if a second process is able to create it
290          * locks are a mess.
291          */
292         errno = EACCES;
293         return -1;
294     }
295     if (type & ADLOCK_FILELOCK) {
296       adf = ad->ad_md;                  /* either resource or meta data (set in ad_open) */
297       lock.l_start = hf2off(off);
298     }
299     else {
300       /* we really want the resource fork it's a byte lock */
301       adf = &ad->ad_resource_fork;
302       lock.l_start += ad_getentryoff(ad, eid);
303     }
304   }
305   /* NOTE: we can't write lock a read-only file. on those, we just
306     * make sure that we have a read lock set. that way, we at least prevent
307     * someone else from really setting a deny read/write on the file. 
308     */
309   if (!(adf->adf_flags & O_RDWR) && (type & ADLOCK_WR)) {
310       type = (type & ~ADLOCK_WR) | ADLOCK_RD;
311   }
312   
313   lock.l_type = XLATE_FCNTL_LOCK(type & ADLOCK_MASK);
314   lock.l_whence = SEEK_SET;
315   lock.l_len = len;
316
317   /* byte_lock(len=-1) lock whole file */
318   if (len == BYTELOCK_MAX) {
319       lock.l_len -= lock.l_start; /* otherwise  EOVERFLOW error */
320   }
321
322   /* see if it's locked by another fork. 
323    * NOTE: this guarantees that any existing locks must be at most
324    * read locks. we use ADLOCK_WR/RD because F_RD/WRLCK aren't
325    * guaranteed to be ORable. */
326   if (adf_findxlock(adf, fork, ADLOCK_WR | 
327                     ((type & ADLOCK_WR) ? ADLOCK_RD : 0), 
328                     lock.l_start, lock.l_len) > -1) {
329     errno = EACCES;
330     return -1;
331   }
332   
333   /* look for any existing lock that we may have */
334   i = adf_findlock(adf, fork, ADLOCK_RD | ADLOCK_WR, lock.l_start, lock.l_len);
335   adflock = (i < 0) ? NULL : adf->adf_lock + i;
336
337   /* here's what we check for:
338      1) we're trying to re-lock a lock, but we didn't specify an update.
339      2) we're trying to free only part of a lock. 
340      3) we're trying to free a non-existent lock. */
341   if ((!adflock && (lock.l_type == F_UNLCK)) ||
342       (adflock && !(type & ADLOCK_UPGRADE) && 
343        ((lock.l_type != F_UNLCK) || (adflock->lock.l_start != lock.l_start) ||
344         (adflock->lock.l_len != lock.l_len)))) {
345     errno = EINVAL;
346     return -1;
347   }
348
349
350   /* now, update our list of locks */
351   /* clear the lock */
352   if (lock.l_type == F_UNLCK) { 
353     adf_freelock(adf, i);
354     return 0;
355   }
356
357   /* attempt to lock the file. */
358   if (!adf->adf_excl && set_lock(adf->adf_fd, F_SETLK, &lock) < 0) 
359     return -1;
360
361   /* we upgraded this lock. */
362   if (adflock && (type & ADLOCK_UPGRADE)) {
363     memcpy(&adflock->lock, &lock, sizeof(lock));
364     return 0;
365   } 
366
367   /* it wasn't an upgrade */
368   oldlock = -1;
369   if (lock.l_type == F_RDLCK) {
370     oldlock = adf_findxlock(adf, fork, ADLOCK_RD, lock.l_start, lock.l_len);
371   } 
372     
373   /* no more space. this will also happen if lockmax == lockcount == 0 */
374   if (adf->adf_lockmax == adf->adf_lockcount) { 
375     adf_lock_t *tmp = (adf_lock_t *) 
376             realloc(adf->adf_lock, sizeof(adf_lock_t)*
377                     (adf->adf_lockmax + ARRAY_BLOCK_SIZE));
378     if (!tmp)
379       goto fcntl_lock_err;
380     adf->adf_lock = tmp;
381     adf->adf_lockmax += ARRAY_BLOCK_SIZE;
382   } 
383   adflock = adf->adf_lock + adf->adf_lockcount;
384
385   /* fill in fields */
386   memcpy(&adflock->lock, &lock, sizeof(lock));
387   adflock->user = fork;
388   if (oldlock > -1) {
389     adflock->refcount = (adf->adf_lock + oldlock)->refcount;
390   } else if ((adflock->refcount = calloc(1, sizeof(int))) == NULL) {
391     goto fcntl_lock_err;
392   }
393   
394   (*adflock->refcount)++;
395   adf->adf_lockcount++;
396   return 0;
397
398 fcntl_lock_err:
399   lock.l_type = F_UNLCK;
400   if (!adf->adf_excl) set_lock(adf->adf_fd, F_SETLK, &lock);
401   return -1;
402 }
403
404 /* -------------------------
405    we are using lock as tristate variable
406    
407    we have a lock ==> 1
408    no             ==> 0
409    error          ==> -1
410       
411 */
412 static int testlock(struct ad_fd *adf, off_t off, off_t len)
413 {
414   struct flock lock;
415   adf_lock_t *plock;
416   int i;
417
418   lock.l_start = off;
419
420   plock = adf->adf_lock;
421   lock.l_whence = SEEK_SET;
422   lock.l_len = len;
423
424   /* Do we have a lock? */
425   for (i = 0; i < adf->adf_lockcount; i++) {
426     if (OVERLAP(lock.l_start, 1, plock[i].lock.l_start, plock[i].lock.l_len)) 
427         return 1;   /* */
428   }
429   /* Does another process have a lock? 
430   */
431   lock.l_type = (adf->adf_flags & O_RDWR) ?F_WRLCK : F_RDLCK;
432
433   if (set_lock(adf->adf_fd, F_GETLK, &lock) < 0) {
434       /* is that kind of error possible ?*/
435       return (errno == EACCES || errno == EAGAIN)?1:-1;
436   }
437   
438   if (lock.l_type == F_UNLCK) {
439       return 0;
440   }
441   return 1;
442 }
443
444 /* --------------- */
445 int ad_testlock(struct adouble *ad, int eid, const off_t off)
446 {
447   struct ad_fd *adf;
448   off_t      lock_offset;
449
450   lock_offset = off;
451   if (eid == ADEID_DFORK) {
452     adf = &ad->ad_data_fork;
453     if (ad_meta_fileno(ad) != -1) {
454         adf = ad->ad_md;
455         lock_offset = df2off(off);
456     }
457   } 
458   else { /* rfork */
459     if (ad_meta_fileno(ad) == -1) {
460         /* there's no resource fork. return no lock */
461         return 0;
462     }
463     adf = ad->ad_md;
464     lock_offset = hf2off(off);
465   }
466   return testlock(adf, lock_offset, 1);
467 }
468
469 /* -------------------------
470    return if a file is open by another process.
471    Optimized for the common case:
472    - there's no locks held by another process (clients)
473    - or we already know the answer and don't need to test.
474 */
475 u_int16_t ad_openforks(struct adouble *ad, u_int16_t attrbits)
476 {
477   u_int16_t ret = 0;
478   struct ad_fd *adf;
479   off_t off;
480
481   if (!(attrbits & (ATTRBIT_DOPEN | ATTRBIT_ROPEN))) {
482       off_t len;
483       /* XXX know the locks layout: 
484          AD_FILELOCK_OPEN_WR is first 
485          and use it for merging requests
486       */
487       if (ad_meta_fileno(ad) != -1) {
488           /* there's a resource fork test the four bytes for
489            * data RW/RD and fork RW/RD locks in one request
490           */
491           adf = ad->ad_md;
492           off = LOCK_DATA_WR;
493           len = 4;
494       }
495       else {
496           /* no resource fork, only data RD/RW may exist */
497           adf = &ad->ad_data_fork;
498           off = AD_FILELOCK_OPEN_WR;
499           len = 2;
500       }
501       if (!testlock(adf, off, len))
502           return ret;
503   }
504   /* either there's a lock or we already know one 
505      fork is open
506   */
507   if (!(attrbits & ATTRBIT_DOPEN)) {
508       if (ad_meta_fileno(ad) != -1) {
509           adf = ad->ad_md;
510           off = LOCK_DATA_WR;
511       }
512       else {
513           adf = &ad->ad_data_fork;
514           off = AD_FILELOCK_OPEN_WR;
515       }
516       ret = testlock(adf, off, 2) > 0? ATTRBIT_DOPEN : 0;
517   }
518
519   if (!(attrbits & ATTRBIT_ROPEN)) {
520       if (ad_meta_fileno(ad) != -1) {
521           adf = ad->ad_md;
522           off = LOCK_RSRC_WR;
523           ret |= testlock(adf, off, 2) > 0? ATTRBIT_ROPEN : 0;
524       }
525   }
526
527   return ret;
528 }
529
530 /* -------------------------
531 */
532 int ad_fcntl_tmplock(struct adouble *ad, const u_int32_t eid, const int locktype,
533                      const off_t off, const off_t len, const int fork)
534 {
535   struct flock lock;
536   struct ad_fd *adf;
537   int err;
538   int type;  
539
540   lock.l_start = off;
541   type = locktype;
542   if (eid == ADEID_DFORK) {
543     adf = &ad->ad_data_fork;
544   } else {
545     /* FIXME META */
546     adf = &ad->ad_resource_fork;
547     if (adf->adf_fd == -1) {
548         /* there's no resource fork. return success */
549         return 0;
550     }
551     /* if ADLOCK_FILELOCK we want a lock from offset 0
552      * it's used when deleting a file:
553      * in open we put read locks on meta datas
554      * in delete a write locks on the whole file
555      * so if the file is open by somebody else it fails
556     */
557     if (!(type & ADLOCK_FILELOCK))
558         lock.l_start += ad_getentryoff(ad, eid);
559   }
560
561   if (!(adf->adf_flags & O_RDWR) && (type & ADLOCK_WR)) {
562       type = (type & ~ADLOCK_WR) | ADLOCK_RD;
563   }
564   
565   lock.l_type = XLATE_FCNTL_LOCK(type & ADLOCK_MASK);
566   lock.l_whence = SEEK_SET;
567   lock.l_len = len;
568
569   /* see if it's locked by another fork. */
570   if (fork && adf_findxlock(adf, fork, ADLOCK_WR | 
571                     ((type & ADLOCK_WR) ? ADLOCK_RD : 0), 
572                     lock.l_start, lock.l_len) > -1) {
573     errno = EACCES;
574     return -1;
575   }
576
577   /* okay, we might have ranges byte-locked. we need to make sure that
578    * we restore the appropriate ranges once we're done. so, we check
579    * for overlap on an unlock and relock. 
580    * XXX: in the future, all the byte locks will be sorted and contiguous.
581    *      we just want to upgrade all the locks and then downgrade them
582    *      here. */
583   if (!adf->adf_excl) {
584        err = set_lock(adf->adf_fd, F_SETLK, &lock);
585   }
586   else {
587       err = 0;
588   }
589   if (!err && (lock.l_type == F_UNLCK))
590     adf_relockrange(adf, adf->adf_fd, lock.l_start, len);
591
592   return err;
593 }
594
595 /* -------------------------
596    the fork is opened in Read Write, Deny Read, Deny Write mode
597    lock the whole file once   
598 */
599 int ad_excl_lock(struct adouble *ad, const u_int32_t eid)
600 {
601   struct ad_fd *adf;
602   struct flock lock;
603   int    err;
604   
605   lock.l_start = 0;
606   lock.l_type = F_WRLCK;
607   lock.l_whence = SEEK_SET;
608   lock.l_len = 0;
609
610   if (eid == ADEID_DFORK) {
611     adf = &ad->ad_data_fork;
612   } else {
613     adf = &ad->ad_resource_fork;
614     lock.l_start = ad_getentryoff(ad, eid);
615   }
616   
617   err = set_lock(adf->adf_fd, F_SETLK, &lock);
618   if (!err)
619       adf->adf_excl = 1;
620   return err;
621 }
622
623 /* --------------------- */
624 void ad_fcntl_unlock(struct adouble *ad, const int fork)
625 {
626   if (ad_data_fileno(ad) != -1) {
627     adf_unlock(&ad->ad_data_fork, fork);
628   }
629   if (ad_reso_fileno(ad) != -1) {
630     adf_unlock(&ad->ad_resource_fork, fork);
631   }
632
633   if (ad->ad_flags != AD_VERSION1_SFM) {
634     return;
635   }
636   if (ad_meta_fileno(ad) != -1) {
637     adf_unlock(&ad->ad_metadata_fork, fork);
638   }
639
640 }