Linux-libre 5.7.6-gnu
[librecmc/linux-libre.git] / Documentation / RCU / torture.txt
1 RCU Torture Test Operation
2
3
4 CONFIG_RCU_TORTURE_TEST
5
6 The CONFIG_RCU_TORTURE_TEST config option is available for all RCU
7 implementations.  It creates an rcutorture kernel module that can
8 be loaded to run a torture test.  The test periodically outputs
9 status messages via printk(), which can be examined via the dmesg
10 command (perhaps grepping for "torture").  The test is started
11 when the module is loaded, and stops when the module is unloaded.
12
13 Module parameters are prefixed by "rcutorture." in
14 Documentation/admin-guide/kernel-parameters.txt.
15
16 OUTPUT
17
18 The statistics output is as follows:
19
20         rcu-torture:--- Start of test: nreaders=16 nfakewriters=4 stat_interval=30 verbose=0 test_no_idle_hz=1 shuffle_interval=3 stutter=5 irqreader=1 fqs_duration=0 fqs_holdoff=0 fqs_stutter=3 test_boost=1/0 test_boost_interval=7 test_boost_duration=4
21         rcu-torture: rtc:           (null) ver: 155441 tfle: 0 rta: 155441 rtaf: 8884 rtf: 155440 rtmbe: 0 rtbe: 0 rtbke: 0 rtbre: 0 rtbf: 0 rtb: 0 nt: 3055767
22         rcu-torture: Reader Pipe:  727860534 34213 0 0 0 0 0 0 0 0 0
23         rcu-torture: Reader Batch:  727877838 17003 0 0 0 0 0 0 0 0 0
24         rcu-torture: Free-Block Circulation:  155440 155440 155440 155440 155440 155440 155440 155440 155440 155440 0
25         rcu-torture:--- End of test: SUCCESS: nreaders=16 nfakewriters=4 stat_interval=30 verbose=0 test_no_idle_hz=1 shuffle_interval=3 stutter=5 irqreader=1 fqs_duration=0 fqs_holdoff=0 fqs_stutter=3 test_boost=1/0 test_boost_interval=7 test_boost_duration=4
26
27 The command "dmesg | grep torture:" will extract this information on
28 most systems.  On more esoteric configurations, it may be necessary to
29 use other commands to access the output of the printk()s used by
30 the RCU torture test.  The printk()s use KERN_ALERT, so they should
31 be evident.  ;-)
32
33 The first and last lines show the rcutorture module parameters, and the
34 last line shows either "SUCCESS" or "FAILURE", based on rcutorture's
35 automatic determination as to whether RCU operated correctly.
36
37 The entries are as follows:
38
39 o       "rtc": The hexadecimal address of the structure currently visible
40         to readers.
41
42 o       "ver": The number of times since boot that the RCU writer task
43         has changed the structure visible to readers.
44
45 o       "tfle": If non-zero, indicates that the "torture freelist"
46         containing structures to be placed into the "rtc" area is empty.
47         This condition is important, since it can fool you into thinking
48         that RCU is working when it is not.  :-/
49
50 o       "rta": Number of structures allocated from the torture freelist.
51
52 o       "rtaf": Number of allocations from the torture freelist that have
53         failed due to the list being empty.  It is not unusual for this
54         to be non-zero, but it is bad for it to be a large fraction of
55         the value indicated by "rta".
56
57 o       "rtf": Number of frees into the torture freelist.
58
59 o       "rtmbe": A non-zero value indicates that rcutorture believes that
60         rcu_assign_pointer() and rcu_dereference() are not working
61         correctly.  This value should be zero.
62
63 o       "rtbe": A non-zero value indicates that one of the rcu_barrier()
64         family of functions is not working correctly.
65
66 o       "rtbke": rcutorture was unable to create the real-time kthreads
67         used to force RCU priority inversion.  This value should be zero.
68
69 o       "rtbre": Although rcutorture successfully created the kthreads
70         used to force RCU priority inversion, it was unable to set them
71         to the real-time priority level of 1.  This value should be zero.
72
73 o       "rtbf": The number of times that RCU priority boosting failed
74         to resolve RCU priority inversion.
75
76 o       "rtb": The number of times that rcutorture attempted to force
77         an RCU priority inversion condition.  If you are testing RCU
78         priority boosting via the "test_boost" module parameter, this
79         value should be non-zero.
80
81 o       "nt": The number of times rcutorture ran RCU read-side code from
82         within a timer handler.  This value should be non-zero only
83         if you specified the "irqreader" module parameter.
84
85 o       "Reader Pipe": Histogram of "ages" of structures seen by readers.
86         If any entries past the first two are non-zero, RCU is broken.
87         And rcutorture prints the error flag string "!!!" to make sure
88         you notice.  The age of a newly allocated structure is zero,
89         it becomes one when removed from reader visibility, and is
90         incremented once per grace period subsequently -- and is freed
91         after passing through (RCU_TORTURE_PIPE_LEN-2) grace periods.
92
93         The output displayed above was taken from a correctly working
94         RCU.  If you want to see what it looks like when broken, break
95         it yourself.  ;-)
96
97 o       "Reader Batch": Another histogram of "ages" of structures seen
98         by readers, but in terms of counter flips (or batches) rather
99         than in terms of grace periods.  The legal number of non-zero
100         entries is again two.  The reason for this separate view is that
101         it is sometimes easier to get the third entry to show up in the
102         "Reader Batch" list than in the "Reader Pipe" list.
103
104 o       "Free-Block Circulation": Shows the number of torture structures
105         that have reached a given point in the pipeline.  The first element
106         should closely correspond to the number of structures allocated,
107         the second to the number that have been removed from reader view,
108         and all but the last remaining to the corresponding number of
109         passes through a grace period.  The last entry should be zero,
110         as it is only incremented if a torture structure's counter
111         somehow gets incremented farther than it should.
112
113 Different implementations of RCU can provide implementation-specific
114 additional information.  For example, Tree SRCU provides the following
115 additional line:
116
117         srcud-torture: Tree SRCU per-CPU(idx=0): 0(35,-21) 1(-4,24) 2(1,1) 3(-26,20) 4(28,-47) 5(-9,4) 6(-10,14) 7(-14,11) T(1,6)
118
119 This line shows the per-CPU counter state, in this case for Tree SRCU
120 using a dynamically allocated srcu_struct (hence "srcud-" rather than
121 "srcu-").  The numbers in parentheses are the values of the "old" and
122 "current" counters for the corresponding CPU.  The "idx" value maps the
123 "old" and "current" values to the underlying array, and is useful for
124 debugging.  The final "T" entry contains the totals of the counters.
125
126
127 USAGE ON SPECIFIC KERNEL BUILDS
128
129 It is sometimes desirable to torture RCU on a specific kernel build,
130 for example, when preparing to put that kernel build into production.
131 In that case, the kernel should be built with CONFIG_RCU_TORTURE_TEST=m
132 so that the test can be started using modprobe and terminated using rmmod.
133
134 For example, the following script may be used to torture RCU:
135
136         #!/bin/sh
137
138         modprobe rcutorture
139         sleep 3600
140         rmmod rcutorture
141         dmesg | grep torture:
142
143 The output can be manually inspected for the error flag of "!!!".
144 One could of course create a more elaborate script that automatically
145 checked for such errors.  The "rmmod" command forces a "SUCCESS",
146 "FAILURE", or "RCU_HOTPLUG" indication to be printk()ed.  The first
147 two are self-explanatory, while the last indicates that while there
148 were no RCU failures, CPU-hotplug problems were detected.
149
150
151 USAGE ON MAINLINE KERNELS
152
153 When using rcutorture to test changes to RCU itself, it is often
154 necessary to build a number of kernels in order to test that change
155 across a broad range of combinations of the relevant Kconfig options
156 and of the relevant kernel boot parameters.  In this situation, use
157 of modprobe and rmmod can be quite time-consuming and error-prone.
158
159 Therefore, the tools/testing/selftests/rcutorture/bin/kvm.sh
160 script is available for mainline testing for x86, arm64, and
161 powerpc.  By default, it will run the series of tests specified by
162 tools/testing/selftests/rcutorture/configs/rcu/CFLIST, with each test
163 running for 30 minutes within a guest OS using a minimal userspace
164 supplied by an automatically generated initrd.  After the tests are
165 complete, the resulting build products and console output are analyzed
166 for errors and the results of the runs are summarized.
167
168 On larger systems, rcutorture testing can be accelerated by passing the
169 --cpus argument to kvm.sh.  For example, on a 64-CPU system, "--cpus 43"
170 would use up to 43 CPUs to run tests concurrently, which as of v5.4 would
171 complete all the scenarios in two batches, reducing the time to complete
172 from about eight hours to about one hour (not counting the time to build
173 the sixteen kernels).  The "--dryrun sched" argument will not run tests,
174 but rather tell you how the tests would be scheduled into batches.  This
175 can be useful when working out how many CPUs to specify in the --cpus
176 argument.
177
178 Not all changes require that all scenarios be run.  For example, a change
179 to Tree SRCU might run only the SRCU-N and SRCU-P scenarios using the
180 --configs argument to kvm.sh as follows:  "--configs 'SRCU-N SRCU-P'".
181 Large systems can run multiple copies of of the full set of scenarios,
182 for example, a system with 448 hardware threads can run five instances
183 of the full set concurrently.  To make this happen:
184
185         kvm.sh --cpus 448 --configs '5*CFLIST'
186
187 Alternatively, such a system can run 56 concurrent instances of a single
188 eight-CPU scenario:
189
190         kvm.sh --cpus 448 --configs '56*TREE04'
191
192 Or 28 concurrent instances of each of two eight-CPU scenarios:
193
194         kvm.sh --cpus 448 --configs '28*TREE03 28*TREE04'
195
196 Of course, each concurrent instance will use memory, which can be
197 limited using the --memory argument, which defaults to 512M.  Small
198 values for memory may require disabling the callback-flooding tests
199 using the --bootargs parameter discussed below.
200
201 Sometimes additional debugging is useful, and in such cases the --kconfig
202 parameter to kvm.sh may be used, for example, "--kconfig 'CONFIG_KASAN=y'".
203
204 Kernel boot arguments can also be supplied, for example, to control
205 rcutorture's module parameters.  For example, to test a change to RCU's
206 CPU stall-warning code, use "--bootargs 'rcutorture.stall_cpu=30'".
207 This will of course result in the scripting reporting a failure, namely
208 the resuling RCU CPU stall warning.  As noted above, reducing memory may
209 require disabling rcutorture's callback-flooding tests:
210
211         kvm.sh --cpus 448 --configs '56*TREE04' --memory 128M \
212                 --bootargs 'rcutorture.fwd_progress=0'
213
214 Sometimes all that is needed is a full set of kernel builds.  This is
215 what the --buildonly argument does.
216
217 Finally, the --trust-make argument allows each kernel build to reuse what
218 it can from the previous kernel build.
219
220 There are additional more arcane arguments that are documented in the
221 source code of the kvm.sh script.
222
223 If a run contains failures, the number of buildtime and runtime failures
224 is listed at the end of the kvm.sh output, which you really should redirect
225 to a file.  The build products and console output of each run is kept in
226 tools/testing/selftests/rcutorture/res in timestamped directories.  A
227 given directory can be supplied to kvm-find-errors.sh in order to have
228 it cycle you through summaries of errors and full error logs.  For example:
229
230         tools/testing/selftests/rcutorture/bin/kvm-find-errors.sh \
231                 tools/testing/selftests/rcutorture/res/2020.01.20-15.54.23
232
233 However, it is often more convenient to access the files directly.
234 Files pertaining to all scenarios in a run reside in the top-level
235 directory (2020.01.20-15.54.23 in the example above), while per-scenario
236 files reside in a subdirectory named after the scenario (for example,
237 "TREE04").  If a given scenario ran more than once (as in "--configs
238 '56*TREE04'" above), the directories corresponding to the second and
239 subsequent runs of that scenario include a sequence number, for example,
240 "TREE04.2", "TREE04.3", and so on.
241
242 The most frequently used file in the top-level directory is testid.txt.
243 If the test ran in a git repository, then this file contains the commit
244 that was tested and any uncommitted changes in diff format.
245
246 The most frequently used files in each per-scenario-run directory are:
247
248 .config: This file contains the Kconfig options.
249
250 Make.out: This contains build output for a specific scenario.
251
252 console.log: This contains the console output for a specific scenario.
253         This file may be examined once the kernel has booted, but
254         it might not exist if the build failed.
255
256 vmlinux: This contains the kernel, which can be useful with tools like
257         objdump and gdb.
258
259 A number of additional files are available, but are less frequently used.
260 Many are intended for debugging of rcutorture itself or of its scripting.
261
262 As of v5.4, a successful run with the default set of scenarios produces
263 the following summary at the end of the run on a 12-CPU system:
264
265 SRCU-N ------- 804233 GPs (148.932/s) [srcu: g10008272 f0x0 ]
266 SRCU-P ------- 202320 GPs (37.4667/s) [srcud: g1809476 f0x0 ]
267 SRCU-t ------- 1122086 GPs (207.794/s) [srcu: g0 f0x0 ]
268 SRCU-u ------- 1111285 GPs (205.794/s) [srcud: g1 f0x0 ]
269 TASKS01 ------- 19666 GPs (3.64185/s) [tasks: g0 f0x0 ]
270 TASKS02 ------- 20541 GPs (3.80389/s) [tasks: g0 f0x0 ]
271 TASKS03 ------- 19416 GPs (3.59556/s) [tasks: g0 f0x0 ]
272 TINY01 ------- 836134 GPs (154.84/s) [rcu: g0 f0x0 ] n_max_cbs: 34198
273 TINY02 ------- 850371 GPs (157.476/s) [rcu: g0 f0x0 ] n_max_cbs: 2631
274 TREE01 ------- 162625 GPs (30.1157/s) [rcu: g1124169 f0x0 ]
275 TREE02 ------- 333003 GPs (61.6672/s) [rcu: g2647753 f0x0 ] n_max_cbs: 35844
276 TREE03 ------- 306623 GPs (56.782/s) [rcu: g2975325 f0x0 ] n_max_cbs: 1496497
277 CPU count limited from 16 to 12
278 TREE04 ------- 246149 GPs (45.5831/s) [rcu: g1695737 f0x0 ] n_max_cbs: 434961
279 TREE05 ------- 314603 GPs (58.2598/s) [rcu: g2257741 f0x2 ] n_max_cbs: 193997
280 TREE07 ------- 167347 GPs (30.9902/s) [rcu: g1079021 f0x0 ] n_max_cbs: 478732
281 CPU count limited from 16 to 12
282 TREE09 ------- 752238 GPs (139.303/s) [rcu: g13075057 f0x0 ] n_max_cbs: 99011