]> arthur.barton.de Git - netatalk.git/blob - libatalk/adouble/ad_lock.c
Initialize filler to zero
[netatalk.git] / libatalk / adouble / ad_lock.c
1 /* 
2  * Copyright (c) 1998,1999 Adrian Sun (asun@zoology.washington.edu)
3  * All Rights Reserved. See COPYRIGHT for more information.
4  *
5  * Because fcntl locks are
6  * process-oriented, we need to keep around a list of file descriptors
7  * that refer to the same file.
8  *
9  * TODO: fix the race when reading/writing.
10  *       keep a pool of both locks and reference counters around so that
11  *       we can save on mallocs. we should also use a tree to keep things
12  *       sorted.
13  */
14
15 #ifdef HAVE_CONFIG_H
16 #include "config.h"
17 #endif /* HAVE_CONFIG_H */
18
19 #include <atalk/adouble.h>
20 #include <atalk/logger.h>
21 #include <atalk/compat.h>
22 #include <atalk/errchk.h>
23 #include <atalk/util.h>
24
25 #include <stdio.h>
26 #include <stdlib.h>
27 #include <errno.h>
28 #include <inttypes.h>
29
30 #include <string.h>
31
32 #include "ad_lock.h"
33
34 static const char *shmdstrfromoff(off_t off)
35 {
36     switch (off) {
37     case AD_FILELOCK_OPEN_WR:
38         return "OPEN_WR_DATA";
39     case AD_FILELOCK_OPEN_RD:
40         return "OPEN_RD_DATA";
41     case AD_FILELOCK_RSRC_OPEN_WR:
42         return "OPEN_WR_RSRC";
43     case AD_FILELOCK_RSRC_OPEN_RD:
44         return "OPEN_RD_RSRC";
45     case AD_FILELOCK_DENY_WR:
46         return "DENY_WR_DATA";
47     case AD_FILELOCK_DENY_RD:
48         return "DENY_RD_DATA";
49     case AD_FILELOCK_RSRC_DENY_WR:
50         return "DENY_WR_RSRC";
51     case AD_FILELOCK_RSRC_DENY_RD:
52         return "DENY_RD_RSRC";
53     case AD_FILELOCK_OPEN_NONE:
54         return "OPEN_NONE_DATA";
55     case AD_FILELOCK_RSRC_OPEN_NONE:
56         return "OPEN_NONE_RSRC";
57     default:
58         return "-";
59     }
60 }
61
62 /* ----------------------- */
63 static int set_lock(int fd, int cmd,  struct flock *lock)
64 {
65     EC_INIT;
66
67     LOG(log_debug, logtype_default, "set_lock(fd: %d, %s, %s, off: %jd (%s), len: %jd): BEGIN",
68         fd, cmd == F_SETLK ? "F_SETLK" : "F_GETLK",
69         lock->l_type == F_RDLCK ? "F_RDLCK" : lock->l_type == F_WRLCK ? "F_WRLCK" : "F_UNLCK",
70         (intmax_t)lock->l_start,
71         shmdstrfromoff(lock->l_start),
72         (intmax_t)lock->l_len);
73
74     if (fd == -2) {
75         /* We assign fd = -2 for symlinks -> do nothing */
76         if (cmd == F_GETLK)
77             lock->l_type = F_UNLCK;
78         return 0;
79     }
80
81     EC_NEG1( fcntl(fd, cmd, lock) );
82
83 EC_CLEANUP:
84     EC_EXIT;
85 }
86
87 /* ----------------------- */
88 static int XLATE_FCNTL_LOCK(int type) 
89 {
90     switch(type) {
91     case ADLOCK_RD:
92         return F_RDLCK;
93     case ADLOCK_WR:
94          return F_WRLCK;
95     case ADLOCK_CLR:
96          return F_UNLCK;
97     }
98     return -1;
99 }
100
101 /* ----------------------- */
102 static int OVERLAP(off_t a, off_t alen, off_t b, off_t blen) 
103 {
104     return (!alen && a <= b) || 
105         (!blen && b <= a) || 
106         ( (a + alen > b) && (b + blen > a) );
107 }
108
109 /* allocation for lock regions. we allocate aggressively and shrink
110  * only in large chunks. */
111 #define ARRAY_BLOCK_SIZE 10 
112 #define ARRAY_FREE_DELTA 100
113
114 /* remove a lock and compact space if necessary */
115 static void adf_freelock(struct ad_fd *ad, const int i)
116 {
117     adf_lock_t *lock = ad->adf_lock + i;
118
119     if (--(*lock->refcount) < 1) {
120         free(lock->refcount); 
121     lock->lock.l_type = F_UNLCK;
122     set_lock(ad->adf_fd, F_SETLK, &lock->lock); /* unlock */
123     }
124
125     ad->adf_lockcount--;
126
127     /* move another lock into the empty space */
128     if (i < ad->adf_lockcount) {
129         memcpy(lock, lock + ad->adf_lockcount - i, sizeof(adf_lock_t));
130     }
131
132     /* free extra cruft if we go past a boundary. we always want to
133      * keep at least some stuff around for allocations. this wastes
134      * a bit of space to save time on reallocations. */
135     if ((ad->adf_lockmax > ARRAY_FREE_DELTA) &&
136         (ad->adf_lockcount + ARRAY_FREE_DELTA < ad->adf_lockmax)) {
137             struct adf_lock_t *tmp;
138
139             tmp = (struct adf_lock_t *) 
140                     realloc(ad->adf_lock, sizeof(adf_lock_t)*
141                             (ad->adf_lockcount + ARRAY_FREE_DELTA));
142             if (tmp) {
143                 ad->adf_lock = tmp;
144                 ad->adf_lockmax = ad->adf_lockcount + ARRAY_FREE_DELTA;
145             }
146     }
147 }
148
149
150 /* this needs to deal with the following cases:
151  * 1) free all UNIX byterange lock from any fork
152  * 2) free all locks of the requested fork
153  *
154  * i converted to using arrays of locks. everytime a lock
155  * gets removed, we shift all of the locks down.
156  */
157 static void adf_unlock(struct adouble *ad, struct ad_fd *adf, const int fork, int unlckbrl)
158 {
159     adf_lock_t *lock = adf->adf_lock;
160     int i;
161
162     for (i = 0; i < adf->adf_lockcount; i++) {
163         if ((unlckbrl && lock[i].lock.l_start < AD_FILELOCK_BASE)
164             || lock[i].user == fork) {
165             /* we're really going to delete this lock. note: read locks
166                are the only ones that allow refcounts > 1 */
167             adf_freelock(adf, i);
168             /* we shifted things down, so we need to backtrack */
169             i--; 
170             /* unlikely but realloc may have change adf_lock */
171             lock = adf->adf_lock;       
172         }
173     }
174 }
175
176 /* relock any byte lock that overlaps off/len. unlock everything
177  * else. */
178 static void adf_relockrange(struct ad_fd *ad, int fd, off_t off, off_t len)
179 {
180     adf_lock_t *lock = ad->adf_lock;
181     int i;
182     
183     for (i = 0; i < ad->adf_lockcount; i++) {
184         if (OVERLAP(off, len, lock[i].lock.l_start, lock[i].lock.l_len)) 
185             set_lock(fd, F_SETLK, &lock[i].lock);
186     }
187 }
188
189
190 /* find a byte lock that overlaps off/len for a particular open fork */
191 static int adf_findlock(struct ad_fd *ad,
192                         const int fork, const int type,
193                         const off_t off,
194                         const off_t len)
195 {
196   adf_lock_t *lock = ad->adf_lock;
197   int i;
198   
199   for (i = 0; i < ad->adf_lockcount; i++) {
200     if ((((type & ADLOCK_RD) && (lock[i].lock.l_type == F_RDLCK)) ||
201         ((type & ADLOCK_WR) && (lock[i].lock.l_type == F_WRLCK))) &&
202         (lock[i].user == fork) && 
203         OVERLAP(off, len, lock[i].lock.l_start, lock[i].lock.l_len)) {
204       return i;
205     }
206   }
207   return -1;
208 }
209
210
211 /* search other fork lock lists */
212 static int adf_findxlock(struct ad_fd *ad, 
213                          const int fork, const int type,
214                          const off_t off,
215                          const off_t len)
216 {
217     adf_lock_t *lock = ad->adf_lock;
218     int i;
219   
220     for (i = 0; i < ad->adf_lockcount; i++) {
221         if ((((type & ADLOCK_RD) && (lock[i].lock.l_type == F_RDLCK))
222              ||
223              ((type & ADLOCK_WR) && (lock[i].lock.l_type == F_WRLCK)))
224             &&
225             (lock[i].user != fork)
226             && 
227             OVERLAP(off, len, lock[i].lock.l_start, lock[i].lock.l_len)) 
228             return i;
229     } 
230     return -1;
231 }
232
233 /* okay, this needs to do the following:
234  * 1) check current list of locks. error on conflict.
235  * 2) apply the lock. error on conflict with another process.
236  * 3) update the list of locks this file has.
237  * 
238  * NOTE: this treats synchronization locks a little differently. we
239  *       do the following things for those:
240  *       1) if the header file exists, all the locks go in the beginning
241  *          of that.
242  *       2) if the header file doesn't exist, we stick the locks
243  *          in the locations specified by AD_FILELOCK_RD/WR.
244  */
245
246 /* -------------- 
247         translate a resource fork lock to an offset
248 */
249 static off_t rf2off(off_t off)
250 {
251     off_t start = off;
252         if (off == AD_FILELOCK_OPEN_WR)
253                 start = AD_FILELOCK_RSRC_OPEN_WR;
254         else if (off == AD_FILELOCK_OPEN_RD)
255                 start = AD_FILELOCK_RSRC_OPEN_RD;
256     else if (off == AD_FILELOCK_DENY_RD)
257                 start = AD_FILELOCK_RSRC_DENY_RD;
258         else if (off == AD_FILELOCK_DENY_WR)
259                 start = AD_FILELOCK_RSRC_DENY_WR;
260         else if (off == AD_FILELOCK_OPEN_NONE)
261                 start = AD_FILELOCK_RSRC_OPEN_NONE;
262         return start;
263 }
264
265 /*!
266  * Test a lock
267  *
268  * (1) Test against our own locks array
269  * (2) Test fcntl lock, locks from other processes
270  *
271  * @param adf     (r) handle
272  * @param off     (r) offset
273  * @param len     (r) lenght
274  *
275  * @returns           1 if there's an existing lock, 0 if there's no lock,
276  *                    -1 in case any error occured
277  */
278 static int testlock(const struct ad_fd *adf, off_t off, off_t len)
279 {
280     struct flock lock;
281     adf_lock_t *plock;
282     int i;
283
284     lock.l_start = off;
285
286     plock = adf->adf_lock;
287     lock.l_whence = SEEK_SET;
288     lock.l_len = len;
289
290     /* (1) Do we have a lock ? */
291     for (i = 0; i < adf->adf_lockcount; i++) {
292         if (OVERLAP(lock.l_start, 1, plock[i].lock.l_start, plock[i].lock.l_len)) 
293             return 1;
294     }
295
296     /* (2) Does another process have a lock? */
297     lock.l_type = (adf->adf_flags & O_RDWR) ? F_WRLCK : F_RDLCK;
298
299     if (set_lock(adf->adf_fd, F_GETLK, &lock) < 0) {
300         /* is that kind of error possible ?*/
301         return (errno == EACCES || errno == EAGAIN) ? 1 : -1;
302     }
303   
304     if (lock.l_type == F_UNLCK) {
305         return 0;
306     }
307     return 1;
308 }
309
310 #define LTYPE2STRBUFSIZ 128
311 static const char *locktypetostr(int type)
312 {
313     int first = 1;
314     static char buf[LTYPE2STRBUFSIZ];
315
316     buf[0] = 0;
317
318     if (type == 0) {
319         strlcat(buf, "CLR", LTYPE2STRBUFSIZ);
320         first = 0;
321         return buf;
322     }
323     if (type & ADLOCK_RD) {
324         if (!first)
325             strlcat(buf, "|", LTYPE2STRBUFSIZ);
326         strlcat(buf, "RD", LTYPE2STRBUFSIZ);
327         first = 0;
328     }
329     if (type & ADLOCK_WR) {
330         if (!first)
331             strlcat(buf, "|", LTYPE2STRBUFSIZ);
332         strlcat(buf, "WR", LTYPE2STRBUFSIZ);
333         first = 0;
334     }
335     if (type & ADLOCK_UPGRADE) {
336         if (!first)
337             strlcat(buf, "|", LTYPE2STRBUFSIZ);
338         strlcat(buf, "UPG", LTYPE2STRBUFSIZ);
339         first = 0;
340     }
341     if (type & ADLOCK_FILELOCK) {
342         if (!first)
343             strlcat(buf, "|", LTYPE2STRBUFSIZ);
344         strlcat(buf, "FILELOCK", LTYPE2STRBUFSIZ);
345         first = 0;
346     }
347
348     return buf;
349 }
350
351 /******************************************************************************
352  * Public functions
353  ******************************************************************************/
354
355 int ad_lock(struct adouble *ad, uint32_t eid, int locktype, off_t off, off_t len, int fork)
356 {
357     struct flock lock;
358     struct ad_fd *adf;
359     adf_lock_t *adflock;
360     int oldlock;
361     int i;
362     int type;  
363     int ret = 0, fcntl_lock_err = 0;
364
365     LOG(log_debug, logtype_default, "ad_lock(%s, %s, off: %jd (%s), len: %jd): BEGIN",
366         eid == ADEID_DFORK ? "data" : "reso",
367         locktypetostr(locktype),
368         (intmax_t)off,
369         shmdstrfromoff(off),
370         (intmax_t)len);
371
372     if ((locktype & ADLOCK_FILELOCK) && (len != 1))
373         AFP_PANIC("lock API error");
374
375     type = locktype;
376
377     if (eid == ADEID_DFORK) {
378         adf = &ad->ad_data_fork;
379         lock.l_start = off;
380     } else { /* rfork */
381         if (type & ADLOCK_FILELOCK) {
382             adf = &ad->ad_data_fork;
383             lock.l_start = rf2off(off);
384         } else {
385             adf = ad->ad_rfp;
386             lock.l_start = off + ad_getentryoff(ad, ADEID_RFORK);
387         }
388     }
389
390     /* NOTE: we can't write lock a read-only file. on those, we just
391      * make sure that we have a read lock set. that way, we at least prevent
392      * someone else from really setting a deny read/write on the file. 
393      */
394     if (!(adf->adf_flags & O_RDWR) && (type & ADLOCK_WR)) {
395         type = (type & ~ADLOCK_WR) | ADLOCK_RD;
396     }
397   
398     lock.l_type = XLATE_FCNTL_LOCK(type & ADLOCK_MASK);
399     lock.l_whence = SEEK_SET;
400     lock.l_len = len;
401
402     /* byte_lock(len=-1) lock whole file */
403     if (len == BYTELOCK_MAX) {
404         lock.l_len -= lock.l_start; /* otherwise  EOVERFLOW error */
405     }
406
407     /* see if it's locked by another fork. 
408      * NOTE: this guarantees that any existing locks must be at most
409      * read locks. we use ADLOCK_WR/RD because F_RD/WRLCK aren't
410      * guaranteed to be ORable. */
411     if (adf_findxlock(adf, fork, ADLOCK_WR | 
412                       ((type & ADLOCK_WR) ? ADLOCK_RD : 0), 
413                       lock.l_start, lock.l_len) > -1) {
414         errno = EACCES;
415         ret = -1;
416         goto exit;
417     }
418   
419     /* look for any existing lock that we may have */
420     i = adf_findlock(adf, fork, ADLOCK_RD | ADLOCK_WR, lock.l_start, lock.l_len);
421     adflock = (i < 0) ? NULL : adf->adf_lock + i;
422
423     /* here's what we check for:
424        1) we're trying to re-lock a lock, but we didn't specify an update.
425        2) we're trying to free only part of a lock. 
426        3) we're trying to free a non-existent lock. */
427     if ( (!adflock && (lock.l_type == F_UNLCK))
428          ||
429          (adflock
430           && !(type & ADLOCK_UPGRADE)
431           && ((lock.l_type != F_UNLCK)
432               || (adflock->lock.l_start != lock.l_start)
433               || (adflock->lock.l_len != lock.l_len) ))
434         ) {
435         errno = EINVAL;
436         ret = -1;
437         goto exit;
438     }
439
440
441     /* now, update our list of locks */
442     /* clear the lock */
443     if (lock.l_type == F_UNLCK) { 
444         adf_freelock(adf, i);
445         goto exit;
446     }
447
448     /* attempt to lock the file. */
449     if (set_lock(adf->adf_fd, F_SETLK, &lock) < 0) {
450         ret = -1;
451         goto exit;
452     }
453
454     /* we upgraded this lock. */
455     if (adflock && (type & ADLOCK_UPGRADE)) {
456         memcpy(&adflock->lock, &lock, sizeof(lock));
457         goto exit;
458     } 
459
460     /* it wasn't an upgrade */
461     oldlock = -1;
462     if (lock.l_type == F_RDLCK) {
463         oldlock = adf_findxlock(adf, fork, ADLOCK_RD, lock.l_start, lock.l_len);
464     } 
465     
466     /* no more space. this will also happen if lockmax == lockcount == 0 */
467     if (adf->adf_lockmax == adf->adf_lockcount) { 
468         adf_lock_t *tmp = (adf_lock_t *) 
469             realloc(adf->adf_lock, sizeof(adf_lock_t)*
470                     (adf->adf_lockmax + ARRAY_BLOCK_SIZE));
471         if (!tmp) {
472             ret = fcntl_lock_err = -1;
473             goto exit;
474         }
475         adf->adf_lock = tmp;
476         adf->adf_lockmax += ARRAY_BLOCK_SIZE;
477     } 
478     adflock = adf->adf_lock + adf->adf_lockcount;
479
480     /* fill in fields */
481     memcpy(&adflock->lock, &lock, sizeof(lock));
482     adflock->user = fork;
483     if (oldlock > -1) {
484         adflock->refcount = (adf->adf_lock + oldlock)->refcount;
485     } else if ((adflock->refcount = calloc(1, sizeof(int))) == NULL) {
486         ret = fcntl_lock_err = 1;
487         goto exit;
488     }
489   
490     (*adflock->refcount)++;
491     adf->adf_lockcount++;
492
493 exit:
494     if (ret != 0) {
495         if (fcntl_lock_err != 0) {
496             lock.l_type = F_UNLCK;
497             set_lock(adf->adf_fd, F_SETLK, &lock);
498         }
499     }
500     LOG(log_debug, logtype_default, "ad_lock: END: %d", ret);
501     return ret;
502 }
503
504 int ad_tmplock(struct adouble *ad, uint32_t eid, int locktype, off_t off, off_t len, int fork)
505 {
506     struct flock lock;
507     struct ad_fd *adf;
508     int err;
509     int type;  
510
511     LOG(log_debug, logtype_default, "ad_tmplock(%s, %s, off: %jd (%s), len: %jd): BEGIN",
512         eid == ADEID_DFORK ? "data" : "reso",
513         locktypetostr(locktype),
514         (intmax_t)off,
515         shmdstrfromoff(off),
516         (intmax_t)len);
517
518     lock.l_start = off;
519     type = locktype;
520
521     if (eid == ADEID_DFORK) {
522         adf = &ad->ad_data_fork;
523     } else {
524         adf = &ad->ad_resource_fork;
525         if (adf->adf_fd == -1) {
526             /* there's no resource fork. return success */
527             err = 0;
528             goto exit;
529         }
530         /* if ADLOCK_FILELOCK we want a lock from offset 0
531          * it's used when deleting a file:
532          * in open we put read locks on meta datas
533          * in delete a write locks on the whole file
534          * so if the file is open by somebody else it fails
535          */
536         if (!(type & ADLOCK_FILELOCK))
537             lock.l_start += ad_getentryoff(ad, eid);
538     }
539
540     if (!(adf->adf_flags & O_RDWR) && (type & ADLOCK_WR)) {
541         type = (type & ~ADLOCK_WR) | ADLOCK_RD;
542     }
543   
544     lock.l_type = XLATE_FCNTL_LOCK(type & ADLOCK_MASK);
545     lock.l_whence = SEEK_SET;
546     lock.l_len = len;
547
548     /* see if it's locked by another fork. */
549     if (fork && adf_findxlock(adf, fork,
550                               ADLOCK_WR | ((type & ADLOCK_WR) ? ADLOCK_RD : 0), 
551                               lock.l_start, lock.l_len) > -1) {
552         errno = EACCES;
553         err = -1;
554         goto exit;
555     }
556
557     /* okay, we might have ranges byte-locked. we need to make sure that
558      * we restore the appropriate ranges once we're done. so, we check
559      * for overlap on an unlock and relock. 
560      * XXX: in the future, all the byte locks will be sorted and contiguous.
561      *      we just want to upgrade all the locks and then downgrade them
562      *      here. */
563     err = set_lock(adf->adf_fd, F_SETLK, &lock);
564     if (!err && (lock.l_type == F_UNLCK))
565         adf_relockrange(adf, adf->adf_fd, lock.l_start, len);
566
567 exit:
568     LOG(log_debug, logtype_default, "ad_tmplock: END: %d", err);
569     return err;
570 }
571
572 /* --------------------- */
573 void ad_unlock(struct adouble *ad, const int fork, int unlckbrl)
574 {
575     LOG(log_debug, logtype_default, "ad_unlock(unlckbrl: %d): BEGIN", unlckbrl);
576
577     if (ad_data_fileno(ad) != -1) {
578         adf_unlock(ad, &ad->ad_data_fork, fork, unlckbrl);
579     }
580     if (ad_reso_fileno(ad) != -1) {
581         adf_unlock(ad, &ad->ad_resource_fork, fork, unlckbrl);
582     }
583
584     LOG(log_debug, logtype_default, "ad_unlock: END");
585 }
586
587 /*!
588  * Test for a share mode lock
589  *
590  * @param ad      (rw) handle
591  * @param eid     (r)  datafork or ressource fork
592  * @param off     (r)  sharemode lock to test
593  *
594  * @returns           1 if there's an existing lock, 0 if there's no lock,
595  *                    -1 in case any error occured
596  */
597 int ad_testlock(struct adouble *ad, int eid, const off_t off)
598 {
599     int ret = 0;
600     off_t lock_offset;
601
602     LOG(log_debug, logtype_default, "ad_testlock(%s, off: %jd (%s): BEGIN",
603         eid == ADEID_DFORK ? "data" : "reso",
604         (intmax_t)off,
605         shmdstrfromoff(off));
606
607     if (eid == ADEID_DFORK) {
608         lock_offset = off;
609     } else { /* rfork */
610         lock_offset = rf2off(off);
611     }
612
613     ret = testlock(&ad->ad_data_fork, lock_offset, 1);
614
615     LOG(log_debug, logtype_default, "ad_testlock: END: %d", ret);
616     return ret;
617 }
618
619 /*!
620  * Return if a file is open by another process.
621  *
622  * Optimized for the common case:
623  * - there's no locks held by another process (clients)
624  * - or we already know the answer and don't need to test (attrbits)
625  *
626  * @param ad          (rw) handle
627  * @param attrbits    (r)  forks opened by us
628  * @returns                bitflags ATTRBIT_DOPEN | ATTRBIT_ROPEN if
629  *                         other process has fork of file opened 
630  */
631 uint16_t ad_openforks(struct adouble *ad, uint16_t attrbits)
632 {
633     uint16_t ret = 0;
634     struct ad_fd *adf;
635     off_t off;
636     off_t len;
637
638     if (ad_data_fileno(ad) == -1)
639         return 0;
640
641     if (!(attrbits & (ATTRBIT_DOPEN | ATTRBIT_ROPEN))) {
642         /* Test all 4 locks at once */
643         off = AD_FILELOCK_OPEN_WR;
644         len = 4;
645         if (testlock(&ad->ad_data_fork, off, len) == 0)
646             return 0;
647     }
648
649     /* either there's a lock or we already know one fork is open */
650
651     if (!(attrbits & ATTRBIT_DOPEN)) {
652         off = AD_FILELOCK_OPEN_WR;
653         ret = testlock(&ad->ad_data_fork, off, 2) > 0 ? ATTRBIT_DOPEN : 0;
654     }
655
656     if (!(attrbits & ATTRBIT_ROPEN)) {
657         off = AD_FILELOCK_RSRC_OPEN_WR;
658         ret |= testlock(&ad->ad_data_fork, off, 2) > 0? ATTRBIT_ROPEN : 0;
659     }
660
661     return ret;
662 }