]> git.proxmox.com Git - mirror_ubuntu-zesty-kernel.git/commitdiff
s390: Fix misspellings in comments
authorAdam Buchbinder <adam.buchbinder@gmail.com>
Fri, 4 Mar 2016 19:20:04 +0000 (11:20 -0800)
committerMartin Schwidefsky <schwidefsky@de.ibm.com>
Tue, 8 Mar 2016 14:00:17 +0000 (15:00 +0100)
Signed-off-by: Adam Buchbinder <adam.buchbinder@gmail.com>
Signed-off-by: Heiko Carstens <heiko.carstens@de.ibm.com>
Signed-off-by: Martin Schwidefsky <schwidefsky@de.ibm.com>
arch/s390/include/asm/perf_event.h
arch/s390/include/asm/rwsem.h
arch/s390/kernel/perf_cpum_cf.c
arch/s390/kernel/perf_event.c
arch/s390/kvm/guestdbg.c

index f897ec73dc8c9c02943a5c76254140bc951a6024..1f7ff85c5e4cc60d796ef5390a43b8ca85d47204 100644 (file)
@@ -21,7 +21,7 @@
 #define PMU_F_ERR_LSDA                 0x0200
 #define PMU_F_ERR_MASK                 (PMU_F_ERR_IBE|PMU_F_ERR_LSDA)
 
-/* Perf defintions for PMU event attributes in sysfs */
+/* Perf definitions for PMU event attributes in sysfs */
 extern __init const struct attribute_group **cpumf_cf_event_group(void);
 extern ssize_t cpumf_events_sysfs_show(struct device *dev,
                                       struct device_attribute *attr,
index 4b43ee7e6776ca0ff98c2c2317cd4d25167b8409..fead491dfc28522017b1be01b1160ce788d052cb 100644 (file)
@@ -31,7 +31,7 @@
  * This should be totally fair - if anything is waiting, a process that wants a
  * lock will go to the back of the queue. When the currently active lock is
  * released, if there's a writer at the front of the queue, then that and only
- * that will be woken up; if there's a bunch of consequtive readers at the
+ * that will be woken up; if there's a bunch of consecutive readers at the
  * front, then they'll all be woken up, but no other readers will be.
  */
 
index 929c147e07b40c19370e621a4ba96e99c13a994e..58bf4572d457f09465abf82cc6e8e4cfda1b21ca 100644 (file)
@@ -383,7 +383,7 @@ static int __hw_perf_event_init(struct perf_event *event)
 
        /* Validate the counter that is assigned to this event.
         * Because the counter facility can use numerous counters at the
-        * same time without constraints, it is not necessary to explicity
+        * same time without constraints, it is not necessary to explicitly
         * validate event groups (event->group_leader != event).
         */
        err = validate_event(hwc);
index a1b708643a2ca89684a9eb7b9f66dedcd8c3ce99..c3e4099b60a59da2452eddd333620a6f17acf9dd 100644 (file)
@@ -238,7 +238,7 @@ void perf_callchain_kernel(struct perf_callchain_entry *entry,
        dump_trace(__perf_callchain_kernel, entry, NULL, regs->gprs[15]);
 }
 
-/* Perf defintions for PMU event attributes in sysfs */
+/* Perf definitions for PMU event attributes in sysfs */
 ssize_t cpumf_events_sysfs_show(struct device *dev,
                                struct device_attribute *attr, char *page)
 {
index d697312ce9ee325571f25c74fb0d963f50943537..e8c6843b9600cd6ebf2e72e5cc9e75148dc1c780 100644 (file)
@@ -17,7 +17,7 @@
 /*
  * Extends the address range given by *start and *stop to include the address
  * range starting with estart and the length len. Takes care of overflowing
- * intervals and tries to minimize the overall intervall size.
+ * intervals and tries to minimize the overall interval size.
  */
 static void extend_address_range(u64 *start, u64 *stop, u64 estart, int len)
 {
@@ -72,7 +72,7 @@ static void enable_all_hw_bp(struct kvm_vcpu *vcpu)
                return;
 
        /*
-        * If the guest is not interrested in branching events, we can savely
+        * If the guest is not interested in branching events, we can safely
         * limit them to the PER address range.
         */
        if (!(*cr9 & PER_EVENT_BRANCH))