]> git.proxmox.com Git - mirror_ubuntu-eoan-kernel.git/commitdiff
rhashtable: fix some __rcu annotation errors
authorNeilBrown <neilb@suse.com>
Fri, 12 Apr 2019 01:52:07 +0000 (11:52 +1000)
committerDavid S. Miller <davem@davemloft.net>
Sat, 13 Apr 2019 00:34:45 +0000 (17:34 -0700)
With these annotations, the rhashtable now gets no
warnings when compiled with "C=1" for sparse checking.

Signed-off-by: NeilBrown <neilb@suse.com>
Signed-off-by: David S. Miller <davem@davemloft.net>
include/linux/rhashtable.h
lib/rhashtable.c

index 460c0eaf6b96fee03daf76a2afeb577ef06f7e65..2711cbf01b64cee1cade520c6fb981502ca6566f 100644 (file)
@@ -40,7 +40,7 @@
  * the chain.  To avoid dereferencing this pointer without clearing
  * the bit first, we use an opaque 'struct rhash_lock_head *' for the
  * pointer stored in the bucket.  This struct needs to be defined so
- * that rcu_derefernce() works on it, but it has no content so a
+ * that rcu_dereference() works on it, but it has no content so a
  * cast is needed for it to be useful.  This ensures it isn't
  * used by mistake with clearing the lock bit first.
  */
@@ -130,10 +130,10 @@ static inline void rht_unlock(struct bucket_table *tbl,
 }
 
 static inline void rht_assign_unlock(struct bucket_table *tbl,
-                                    struct rhash_lock_head **bkt,
+                                    struct rhash_lock_head __rcu **bkt,
                                     struct rhash_head *obj)
 {
-       struct rhash_head **p = (struct rhash_head **)bkt;
+       struct rhash_head __rcu **p = (struct rhash_head __rcu **)bkt;
 
        lock_map_release(&tbl->dep_map);
        rcu_assign_pointer(*p, obj);
@@ -556,6 +556,7 @@ static inline struct rhash_head *__rhashtable_lookup(
        };
        struct rhash_lock_head __rcu * const *bkt;
        struct bucket_table *tbl;
+       struct rhash_head __rcu *head;
        struct rhash_head *he;
        unsigned int hash;
 
@@ -564,8 +565,8 @@ restart:
        hash = rht_key_hashfn(ht, tbl, key, params);
        bkt = rht_bucket(tbl, hash);
        do {
-               he = rht_ptr(rht_dereference_bucket_rcu(*bkt, tbl, hash));
-               rht_for_each_rcu_from(he, he, tbl, hash) {
+               head = rht_ptr(rht_dereference_bucket_rcu(*bkt, tbl, hash));
+               rht_for_each_rcu_from(he, head, tbl, hash) {
                        if (params.obj_cmpfn ?
                            params.obj_cmpfn(&arg, rht_obj(ht, he)) :
                            rhashtable_compare(&arg, rht_obj(ht, he)))
index 9c84f5cef69c0eb7fc6ddb4ce477fa06b308857d..e387ceb00e865327dd18265dc82aaa9122e28177 100644 (file)
@@ -223,7 +223,7 @@ static int rhashtable_rehash_one(struct rhashtable *ht,
        struct bucket_table *new_tbl = rhashtable_last_table(ht, old_tbl);
        int err = -EAGAIN;
        struct rhash_head *head, *next, *entry;
-       struct rhash_head **pprev = NULL;
+       struct rhash_head __rcu **pprev = NULL;
        unsigned int new_hash;
 
        if (new_tbl->nest)
@@ -486,7 +486,7 @@ static void *rhashtable_lookup_one(struct rhashtable *ht,
                .ht = ht,
                .key = key,
        };
-       struct rhash_head **pprev = NULL;
+       struct rhash_head __rcu **pprev = NULL;
        struct rhash_head *head;
        int elasticity;