]> git.proxmox.com Git - mirror_ubuntu-hirsute-kernel.git/commitdiff
libperf: Add 'mask' to struct perf_mmap
authorJiri Olsa <jolsa@kernel.org>
Sat, 27 Jul 2019 20:27:55 +0000 (22:27 +0200)
committerArnaldo Carvalho de Melo <acme@redhat.com>
Wed, 25 Sep 2019 12:51:45 +0000 (09:51 -0300)
Move 'mask' from tools/perf's mmap to libperf's perf_mmap struct.

Signed-off-by: Jiri Olsa <jolsa@kernel.org>
Cc: Alexander Shishkin <alexander.shishkin@linux.intel.com>
Cc: Michael Petlan <mpetlan@redhat.com>
Cc: Namhyung Kim <namhyung@kernel.org>
Cc: Peter Zijlstra <a.p.zijlstra@chello.nl>
Link: http://lore.kernel.org/lkml/20190913132355.21634-12-jolsa@kernel.org
Signed-off-by: Arnaldo Carvalho de Melo <acme@redhat.com>
tools/perf/lib/include/internal/mmap.h
tools/perf/util/mmap.c
tools/perf/util/mmap.h

index 2ef051901f48fe3b59e2cac34eb42425e29fd934..1caa1e8ee5c616315e408559c5795e8b615c3645 100644 (file)
@@ -9,6 +9,7 @@
  */
 struct perf_mmap {
        void            *base;
+       int              mask;
 };
 
 #endif /* __LIBPERF_INTERNAL_MMAP_H */
index 76190b2edd785e873cf31283ca6452565dcf73a3..702e8e0b90ea5cf6079dcb4b2bbb2d0a61605e93 100644 (file)
@@ -24,7 +24,7 @@
 
 size_t perf_mmap__mmap_len(struct mmap *map)
 {
-       return map->mask + 1 + page_size;
+       return map->core.mask + 1 + page_size;
 }
 
 /* When check_messup is true, 'end' must points to a good entry */
@@ -38,7 +38,7 @@ static union perf_event *perf_mmap__read(struct mmap *map,
        if (diff >= (int)sizeof(event->header)) {
                size_t size;
 
-               event = (union perf_event *)&data[*startp & map->mask];
+               event = (union perf_event *)&data[*startp & map->core.mask];
                size = event->header.size;
 
                if (size < sizeof(event->header) || diff < (int)size)
@@ -48,14 +48,14 @@ static union perf_event *perf_mmap__read(struct mmap *map,
                 * Event straddles the mmap boundary -- header should always
                 * be inside due to u64 alignment of output.
                 */
-               if ((*startp & map->mask) + size != ((*startp + size) & map->mask)) {
+               if ((*startp & map->core.mask) + size != ((*startp + size) & map->core.mask)) {
                        unsigned int offset = *startp;
                        unsigned int len = min(sizeof(*event), size), cpy;
                        void *dst = map->event_copy;
 
                        do {
-                               cpy = min(map->mask + 1 - (offset & map->mask), len);
-                               memcpy(dst, &data[offset & map->mask], cpy);
+                               cpy = min(map->core.mask + 1 - (offset & map->core.mask), len);
+                               memcpy(dst, &data[offset & map->core.mask], cpy);
                                offset += cpy;
                                dst += cpy;
                                len -= cpy;
@@ -369,7 +369,7 @@ int perf_mmap__mmap(struct mmap *map, struct mmap_params *mp, int fd, int cpu)
         */
        refcount_set(&map->refcnt, 2);
        map->prev = 0;
-       map->mask = mp->mask;
+       map->core.mask = mp->mask;
        map->core.base = mmap(NULL, perf_mmap__mmap_len(map), mp->prot,
                         MAP_SHARED, fd, 0);
        if (map->core.base == MAP_FAILED) {
@@ -454,7 +454,7 @@ static int __perf_mmap__read_init(struct mmap *md)
                return -EAGAIN;
 
        size = md->end - md->start;
-       if (size > (unsigned long)(md->mask) + 1) {
+       if (size > (unsigned long)(md->core.mask) + 1) {
                if (!md->overwrite) {
                        WARN_ONCE(1, "failed to keep up with mmap data. (warn only once)\n");
 
@@ -467,7 +467,7 @@ static int __perf_mmap__read_init(struct mmap *md)
                 * Backward ring buffer is full. We still have a chance to read
                 * most of data from it.
                 */
-               if (overwrite_rb_find_range(data, md->mask, &md->start, &md->end))
+               if (overwrite_rb_find_range(data, md->core.mask, &md->start, &md->end))
                        return -EINVAL;
        }
 
@@ -500,9 +500,9 @@ int perf_mmap__push(struct mmap *md, void *to,
 
        size = md->end - md->start;
 
-       if ((md->start & md->mask) + size != (md->end & md->mask)) {
-               buf = &data[md->start & md->mask];
-               size = md->mask + 1 - (md->start & md->mask);
+       if ((md->start & md->core.mask) + size != (md->end & md->core.mask)) {
+               buf = &data[md->start & md->core.mask];
+               size = md->core.mask + 1 - (md->start & md->core.mask);
                md->start += size;
 
                if (push(md, to, buf, size) < 0) {
@@ -511,7 +511,7 @@ int perf_mmap__push(struct mmap *md, void *to,
                }
        }
 
-       buf = &data[md->start & md->mask];
+       buf = &data[md->start & md->core.mask];
        size = md->end - md->start;
        md->start += size;
 
index d2f0ce581e2c021c7c3f14cf9856eb5d57601a04..370138e395fc0c5c38b9051ef68efbd0e2ff1927 100644 (file)
@@ -22,7 +22,6 @@ struct aiocb;
  */
 struct mmap {
        struct perf_mmap        core;
-       int              mask;
        int              fd;
        int              cpu;
        refcount_t       refcnt;