Branch data Line data Source code
1 : : /* Loop invariant motion.
2 : : Copyright (C) 2003-2025 Free Software Foundation, Inc.
3 : :
4 : : This file is part of GCC.
5 : :
6 : : GCC is free software; you can redistribute it and/or modify it
7 : : under the terms of the GNU General Public License as published by the
8 : : Free Software Foundation; either version 3, or (at your option) any
9 : : later version.
10 : :
11 : : GCC is distributed in the hope that it will be useful, but WITHOUT
12 : : ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
13 : : FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License
14 : : for more details.
15 : :
16 : : You should have received a copy of the GNU General Public License
17 : : along with GCC; see the file COPYING3. If not see
18 : : <http://www.gnu.org/licenses/>. */
19 : :
20 : : #include "config.h"
21 : : #include "system.h"
22 : : #include "coretypes.h"
23 : : #include "backend.h"
24 : : #include "tree.h"
25 : : #include "gimple.h"
26 : : #include "cfghooks.h"
27 : : #include "tree-pass.h"
28 : : #include "ssa.h"
29 : : #include "gimple-pretty-print.h"
30 : : #include "fold-const.h"
31 : : #include "cfganal.h"
32 : : #include "tree-eh.h"
33 : : #include "gimplify.h"
34 : : #include "gimple-iterator.h"
35 : : #include "tree-cfg.h"
36 : : #include "tree-ssa-loop-manip.h"
37 : : #include "tree-ssa-loop.h"
38 : : #include "tree-into-ssa.h"
39 : : #include "cfgloop.h"
40 : : #include "tree-affine.h"
41 : : #include "tree-ssa-propagate.h"
42 : : #include "trans-mem.h"
43 : : #include "gimple-fold.h"
44 : : #include "tree-scalar-evolution.h"
45 : : #include "tree-ssa-loop-niter.h"
46 : : #include "alias.h"
47 : : #include "builtins.h"
48 : : #include "tree-dfa.h"
49 : : #include "tree-ssa.h"
50 : : #include "dbgcnt.h"
51 : : #include "insn-codes.h"
52 : : #include "optabs-tree.h"
53 : :
54 : : /* TODO: Support for predicated code motion. I.e.
55 : :
56 : : while (1)
57 : : {
58 : : if (cond)
59 : : {
60 : : a = inv;
61 : : something;
62 : : }
63 : : }
64 : :
65 : : Where COND and INV are invariants, but evaluating INV may trap or be
66 : : invalid from some other reason if !COND. This may be transformed to
67 : :
68 : : if (cond)
69 : : a = inv;
70 : : while (1)
71 : : {
72 : : if (cond)
73 : : something;
74 : : } */
75 : :
76 : : /* The auxiliary data kept for each statement. */
77 : :
78 : : struct lim_aux_data
79 : : {
80 : : class loop *max_loop; /* The outermost loop in that the statement
81 : : is invariant. */
82 : :
83 : : class loop *tgt_loop; /* The loop out of that we want to move the
84 : : invariant. */
85 : :
86 : : class loop *always_executed_in;
87 : : /* The outermost loop for that we are sure
88 : : the statement is executed if the loop
89 : : is entered. */
90 : :
91 : : unsigned cost; /* Cost of the computation performed by the
92 : : statement. */
93 : :
94 : : unsigned ref; /* The simple_mem_ref in this stmt or 0. */
95 : :
96 : : vec<gimple *> depends; /* Vector of statements that must be also
97 : : hoisted out of the loop when this statement
98 : : is hoisted; i.e. those that define the
99 : : operands of the statement and are inside of
100 : : the MAX_LOOP loop. */
101 : : };
102 : :
103 : : /* Maps statements to their lim_aux_data. */
104 : :
105 : : static hash_map<gimple *, lim_aux_data *> *lim_aux_data_map;
106 : :
107 : : /* Description of a memory reference location. */
108 : :
109 : : struct mem_ref_loc
110 : : {
111 : : tree *ref; /* The reference itself. */
112 : : gimple *stmt; /* The statement in that it occurs. */
113 : : };
114 : :
115 : :
116 : : /* Description of a memory reference. */
117 : :
118 : : class im_mem_ref
119 : : {
120 : : public:
121 : : unsigned id : 30; /* ID assigned to the memory reference
122 : : (its index in memory_accesses.refs_list) */
123 : : unsigned ref_canonical : 1; /* Whether mem.ref was canonicalized. */
124 : : unsigned ref_decomposed : 1; /* Whether the ref was hashed from mem. */
125 : : hashval_t hash; /* Its hash value. */
126 : :
127 : : /* The memory access itself and associated caching of alias-oracle
128 : : query meta-data. We are using mem.ref == error_mark_node for the
129 : : case the reference is represented by its single access stmt
130 : : in accesses_in_loop[0]. */
131 : : ao_ref mem;
132 : :
133 : : bitmap stored; /* The set of loops in that this memory location
134 : : is stored to. */
135 : : bitmap loaded; /* The set of loops in that this memory location
136 : : is loaded from. */
137 : : vec<mem_ref_loc> accesses_in_loop;
138 : : /* The locations of the accesses. */
139 : :
140 : : /* The following set is computed on demand. */
141 : : bitmap_head dep_loop; /* The set of loops in that the memory
142 : : reference is {in,}dependent in
143 : : different modes. */
144 : : };
145 : :
146 : : static bool in_loop_pipeline;
147 : :
148 : : /* We use six bits per loop in the ref->dep_loop bitmap to record
149 : : the dep_kind x dep_state combinations. */
150 : :
151 : : enum dep_kind { lim_raw, sm_war, sm_waw };
152 : : enum dep_state { dep_unknown, dep_independent, dep_dependent };
153 : :
154 : : /* coldest outermost loop for given loop. */
155 : : vec<class loop *> coldest_outermost_loop;
156 : : /* hotter outer loop nearest to given loop. */
157 : : vec<class loop *> hotter_than_inner_loop;
158 : :
159 : : /* Populate the loop dependence cache of REF for LOOP, KIND with STATE. */
160 : :
161 : : static void
162 : 1937683 : record_loop_dependence (class loop *loop, im_mem_ref *ref,
163 : : dep_kind kind, dep_state state)
164 : : {
165 : 1937683 : gcc_assert (state != dep_unknown);
166 : 1937683 : unsigned bit = 6 * loop->num + kind * 2 + state == dep_dependent ? 1 : 0;
167 : 1937683 : bitmap_set_bit (&ref->dep_loop, bit);
168 : 1937683 : }
169 : :
170 : : /* Query the loop dependence cache of REF for LOOP, KIND. */
171 : :
172 : : static dep_state
173 : 625069 : query_loop_dependence (class loop *loop, im_mem_ref *ref, dep_kind kind)
174 : : {
175 : 625069 : unsigned first_bit = 6 * loop->num + kind * 2;
176 : 625069 : if (bitmap_bit_p (&ref->dep_loop, first_bit))
177 : : return dep_independent;
178 : 625069 : else if (bitmap_bit_p (&ref->dep_loop, first_bit + 1))
179 : 0 : return dep_dependent;
180 : : return dep_unknown;
181 : : }
182 : :
183 : : /* Mem_ref hashtable helpers. */
184 : :
185 : : struct mem_ref_hasher : nofree_ptr_hash <im_mem_ref>
186 : : {
187 : : typedef ao_ref *compare_type;
188 : : static inline hashval_t hash (const im_mem_ref *);
189 : : static inline bool equal (const im_mem_ref *, const ao_ref *);
190 : : };
191 : :
192 : : /* A hash function for class im_mem_ref object OBJ. */
193 : :
194 : : inline hashval_t
195 : 10702947 : mem_ref_hasher::hash (const im_mem_ref *mem)
196 : : {
197 : 10702947 : return mem->hash;
198 : : }
199 : :
200 : : /* An equality function for class im_mem_ref object MEM1 with
201 : : memory reference OBJ2. */
202 : :
203 : : inline bool
204 : 12494921 : mem_ref_hasher::equal (const im_mem_ref *mem1, const ao_ref *obj2)
205 : : {
206 : 12494921 : if (obj2->max_size_known_p ())
207 : 10999835 : return (mem1->ref_decomposed
208 : 10502512 : && ((TREE_CODE (mem1->mem.base) == MEM_REF
209 : 4496255 : && TREE_CODE (obj2->base) == MEM_REF
210 : 2861542 : && operand_equal_p (TREE_OPERAND (mem1->mem.base, 0),
211 : 2861542 : TREE_OPERAND (obj2->base, 0), 0)
212 : 12756974 : && known_eq (mem_ref_offset (mem1->mem.base) * BITS_PER_UNIT + mem1->mem.offset,
213 : : mem_ref_offset (obj2->base) * BITS_PER_UNIT + obj2->offset))
214 : 10089857 : || (operand_equal_p (mem1->mem.base, obj2->base, 0)
215 : 835797 : && known_eq (mem1->mem.offset, obj2->offset)))
216 : 902552 : && known_eq (mem1->mem.size, obj2->size)
217 : 900170 : && known_eq (mem1->mem.max_size, obj2->max_size)
218 : 900170 : && mem1->mem.volatile_p == obj2->volatile_p
219 : 900154 : && (mem1->mem.ref_alias_set == obj2->ref_alias_set
220 : : /* We are not canonicalizing alias-sets but for the
221 : : special-case we didn't canonicalize yet and the
222 : : incoming ref is a alias-set zero MEM we pick
223 : : the correct one already. */
224 : 12286 : || (!mem1->ref_canonical
225 : 11874 : && (TREE_CODE (obj2->ref) == MEM_REF
226 : 11874 : || TREE_CODE (obj2->ref) == TARGET_MEM_REF)
227 : 5033 : && obj2->ref_alias_set == 0)
228 : : /* Likewise if there's a canonical ref with alias-set zero. */
229 : 11112 : || (mem1->ref_canonical && mem1->mem.ref_alias_set == 0))
230 : 11888927 : && types_compatible_p (TREE_TYPE (mem1->mem.ref),
231 : 889092 : TREE_TYPE (obj2->ref)));
232 : : else
233 : 1495086 : return operand_equal_p (mem1->mem.ref, obj2->ref, 0);
234 : : }
235 : :
236 : :
237 : : /* Description of memory accesses in loops. */
238 : :
239 : : static struct
240 : : {
241 : : /* The hash table of memory references accessed in loops. */
242 : : hash_table<mem_ref_hasher> *refs;
243 : :
244 : : /* The list of memory references. */
245 : : vec<im_mem_ref *> refs_list;
246 : :
247 : : /* The set of memory references accessed in each loop. */
248 : : vec<bitmap_head> refs_loaded_in_loop;
249 : :
250 : : /* The set of memory references stored in each loop. */
251 : : vec<bitmap_head> refs_stored_in_loop;
252 : :
253 : : /* The set of memory references stored in each loop, including subloops . */
254 : : vec<bitmap_head> all_refs_stored_in_loop;
255 : :
256 : : /* Cache for expanding memory addresses. */
257 : : hash_map<tree, name_expansion *> *ttae_cache;
258 : : } memory_accesses;
259 : :
260 : : /* Obstack for the bitmaps in the above data structures. */
261 : : static bitmap_obstack lim_bitmap_obstack;
262 : : static obstack mem_ref_obstack;
263 : :
264 : : static bool ref_indep_loop_p (class loop *, im_mem_ref *, dep_kind);
265 : : static bool ref_always_accessed_p (class loop *, im_mem_ref *, bool);
266 : : static bool refs_independent_p (im_mem_ref *, im_mem_ref *, bool = true);
267 : :
268 : : /* Minimum cost of an expensive expression. */
269 : : #define LIM_EXPENSIVE ((unsigned) param_lim_expensive)
270 : :
271 : : /* The outermost loop for which execution of the header guarantees that the
272 : : block will be executed. */
273 : : #define ALWAYS_EXECUTED_IN(BB) ((class loop *) (BB)->aux)
274 : : #define SET_ALWAYS_EXECUTED_IN(BB, VAL) ((BB)->aux = (void *) (VAL))
275 : :
276 : : /* ID of the shared unanalyzable mem. */
277 : : #define UNANALYZABLE_MEM_ID 0
278 : :
279 : : /* Whether the reference was analyzable. */
280 : : #define MEM_ANALYZABLE(REF) ((REF)->id != UNANALYZABLE_MEM_ID)
281 : :
282 : : static struct lim_aux_data *
283 : 17532296 : init_lim_data (gimple *stmt)
284 : : {
285 : 17532296 : lim_aux_data *p = XCNEW (struct lim_aux_data);
286 : 17532296 : lim_aux_data_map->put (stmt, p);
287 : :
288 : 17532296 : return p;
289 : : }
290 : :
291 : : static struct lim_aux_data *
292 : 92520268 : get_lim_data (gimple *stmt)
293 : : {
294 : 92520268 : lim_aux_data **p = lim_aux_data_map->get (stmt);
295 : 92520268 : if (!p)
296 : : return NULL;
297 : :
298 : 47627719 : return *p;
299 : : }
300 : :
301 : : /* Releases the memory occupied by DATA. */
302 : :
303 : : static void
304 : 17532148 : free_lim_aux_data (struct lim_aux_data *data)
305 : : {
306 : 0 : data->depends.release ();
307 : 17532148 : free (data);
308 : 0 : }
309 : :
310 : : static void
311 : 17532148 : clear_lim_data (gimple *stmt)
312 : : {
313 : 17532148 : lim_aux_data **p = lim_aux_data_map->get (stmt);
314 : 17532148 : if (!p)
315 : : return;
316 : :
317 : 17532148 : free_lim_aux_data (*p);
318 : 17532148 : *p = NULL;
319 : : }
320 : :
321 : :
322 : : /* The possibilities of statement movement. */
323 : : enum move_pos
324 : : {
325 : : MOVE_IMPOSSIBLE, /* No movement -- side effect expression. */
326 : : MOVE_PRESERVE_EXECUTION, /* Must not cause the non-executed statement
327 : : become executed -- memory accesses, ... */
328 : : MOVE_POSSIBLE /* Unlimited movement. */
329 : : };
330 : :
331 : :
332 : : /* If it is possible to hoist the statement STMT unconditionally,
333 : : returns MOVE_POSSIBLE.
334 : : If it is possible to hoist the statement STMT, but we must avoid making
335 : : it executed if it would not be executed in the original program (e.g.
336 : : because it may trap), return MOVE_PRESERVE_EXECUTION.
337 : : Otherwise return MOVE_IMPOSSIBLE. */
338 : :
339 : : static enum move_pos
340 : 45149574 : movement_possibility_1 (gimple *stmt)
341 : : {
342 : 45149574 : tree lhs;
343 : 45149574 : enum move_pos ret = MOVE_POSSIBLE;
344 : :
345 : 45149574 : if (flag_unswitch_loops
346 : 45149574 : && gimple_code (stmt) == GIMPLE_COND)
347 : : {
348 : : /* If we perform unswitching, force the operands of the invariant
349 : : condition to be moved out of the loop. */
350 : : return MOVE_POSSIBLE;
351 : : }
352 : :
353 : 44813315 : if (gimple_code (stmt) == GIMPLE_PHI
354 : 2641054 : && gimple_phi_num_args (stmt) <= 2
355 : 4999402 : && !virtual_operand_p (gimple_phi_result (stmt))
356 : 46283872 : && !SSA_NAME_OCCURS_IN_ABNORMAL_PHI (gimple_phi_result (stmt)))
357 : : return MOVE_POSSIBLE;
358 : :
359 : 43343003 : if (gimple_get_lhs (stmt) == NULL_TREE)
360 : : return MOVE_IMPOSSIBLE;
361 : :
362 : 31205932 : if (gimple_vdef (stmt))
363 : : return MOVE_IMPOSSIBLE;
364 : :
365 : 13215801 : if (stmt_ends_bb_p (stmt)
366 : 12002924 : || gimple_has_volatile_ops (stmt)
367 : 13147768 : || gimple_has_side_effects (stmt)
368 : 26357810 : || stmt_could_throw_p (cfun, stmt))
369 : 441779 : return MOVE_IMPOSSIBLE;
370 : :
371 : 12774022 : if (is_gimple_call (stmt))
372 : : {
373 : : /* While pure or const call is guaranteed to have no side effects, we
374 : : cannot move it arbitrarily. Consider code like
375 : :
376 : : char *s = something ();
377 : :
378 : : while (1)
379 : : {
380 : : if (s)
381 : : t = strlen (s);
382 : : else
383 : : t = 0;
384 : : }
385 : :
386 : : Here the strlen call cannot be moved out of the loop, even though
387 : : s is invariant. In addition to possibly creating a call with
388 : : invalid arguments, moving out a function call that is not executed
389 : : may cause performance regressions in case the call is costly and
390 : : not executed at all. */
391 : 126893 : ret = MOVE_PRESERVE_EXECUTION;
392 : 126893 : lhs = gimple_call_lhs (stmt);
393 : : }
394 : 12647129 : else if (is_gimple_assign (stmt))
395 : 11476387 : lhs = gimple_assign_lhs (stmt);
396 : : else
397 : : return MOVE_IMPOSSIBLE;
398 : :
399 : 11603280 : if (TREE_CODE (lhs) == SSA_NAME
400 : 11603280 : && SSA_NAME_OCCURS_IN_ABNORMAL_PHI (lhs))
401 : : return MOVE_IMPOSSIBLE;
402 : :
403 : 11603058 : if (TREE_CODE (lhs) != SSA_NAME
404 : 11603058 : || gimple_could_trap_p (stmt))
405 : 2392680 : return MOVE_PRESERVE_EXECUTION;
406 : :
407 : 9210378 : if (is_gimple_assign (stmt))
408 : : {
409 : 9084651 : auto code = gimple_assign_rhs_code (stmt);
410 : 9084651 : tree type = TREE_TYPE (gimple_assign_rhs1 (stmt));
411 : : /* For shifts and rotates and possibly out-of-bound shift operands
412 : : we currently cannot rewrite them into something unconditionally
413 : : well-defined. */
414 : 9084651 : if ((code == LSHIFT_EXPR
415 : : || code == RSHIFT_EXPR
416 : : || code == LROTATE_EXPR
417 : 9084651 : || code == RROTATE_EXPR)
418 : 9084651 : && (TREE_CODE (gimple_assign_rhs2 (stmt)) != INTEGER_CST
419 : : /* We cannot use ranges at 'stmt' here. */
420 : 125358 : || wi::ltu_p (wi::to_wide (gimple_assign_rhs2 (stmt)),
421 : 9044397 : element_precision (type))))
422 : 165612 : ret = MOVE_PRESERVE_EXECUTION;
423 : : }
424 : :
425 : : /* Non local loads in a transaction cannot be hoisted out. Well,
426 : : unless the load happens on every path out of the loop, but we
427 : : don't take this into account yet. */
428 : 9210378 : if (flag_tm
429 : 434 : && gimple_in_transaction (stmt)
430 : 9210481 : && gimple_assign_single_p (stmt))
431 : : {
432 : 21 : tree rhs = gimple_assign_rhs1 (stmt);
433 : 21 : if (DECL_P (rhs) && is_global_var (rhs))
434 : : {
435 : 18 : if (dump_file)
436 : : {
437 : 2 : fprintf (dump_file, "Cannot hoist conditional load of ");
438 : 2 : print_generic_expr (dump_file, rhs, TDF_SLIM);
439 : 2 : fprintf (dump_file, " because it is in a transaction.\n");
440 : : }
441 : 18 : return MOVE_IMPOSSIBLE;
442 : : }
443 : : }
444 : :
445 : : return ret;
446 : : }
447 : :
448 : : static enum move_pos
449 : 45149574 : movement_possibility (gimple *stmt)
450 : : {
451 : 45149574 : enum move_pos pos = movement_possibility_1 (stmt);
452 : 45149574 : if (pos == MOVE_POSSIBLE)
453 : : {
454 : 10725592 : use_operand_p use_p;
455 : 10725592 : ssa_op_iter ssa_iter;
456 : 34789790 : FOR_EACH_PHI_OR_STMT_USE (use_p, stmt, ssa_iter, SSA_OP_USE)
457 : 13356461 : if (TREE_CODE (USE_FROM_PTR (use_p)) == SSA_NAME
458 : 13356461 : && ssa_name_maybe_undef_p (USE_FROM_PTR (use_p)))
459 : 17855 : return MOVE_PRESERVE_EXECUTION;
460 : : }
461 : : return pos;
462 : : }
463 : :
464 : :
465 : : /* Compare the profile count inequality of bb and loop's preheader, it is
466 : : three-state as stated in profile-count.h, FALSE is returned if inequality
467 : : cannot be decided. */
468 : : bool
469 : 13885366 : bb_colder_than_loop_preheader (basic_block bb, class loop *loop)
470 : : {
471 : 13885366 : gcc_assert (bb && loop);
472 : 13885366 : return bb->count < loop_preheader_edge (loop)->src->count;
473 : : }
474 : :
475 : : /* Check coldest loop between OUTERMOST_LOOP and LOOP by comparing profile
476 : : count.
477 : : It does three steps check:
478 : : 1) Check whether CURR_BB is cold in it's own loop_father, if it is cold, just
479 : : return NULL which means it should not be moved out at all;
480 : : 2) CURR_BB is NOT cold, check if pre-computed COLDEST_LOOP is outside of
481 : : OUTERMOST_LOOP, if it is inside of OUTERMOST_LOOP, return the COLDEST_LOOP;
482 : : 3) If COLDEST_LOOP is outside of OUTERMOST_LOOP, check whether there is a
483 : : hotter loop between OUTERMOST_LOOP and loop in pre-computed
484 : : HOTTER_THAN_INNER_LOOP, return it's nested inner loop, otherwise return
485 : : OUTERMOST_LOOP.
486 : : At last, the coldest_loop is inside of OUTERMOST_LOOP, just return it as
487 : : the hoist target. */
488 : :
489 : : static class loop *
490 : 12243293 : get_coldest_out_loop (class loop *outermost_loop, class loop *loop,
491 : : basic_block curr_bb)
492 : : {
493 : 12243293 : gcc_assert (outermost_loop == loop
494 : : || flow_loop_nested_p (outermost_loop, loop));
495 : :
496 : : /* If bb_colder_than_loop_preheader returns false due to three-state
497 : : comparision, OUTERMOST_LOOP is returned finally to preserve the behavior.
498 : : Otherwise, return the coldest loop between OUTERMOST_LOOP and LOOP. */
499 : 12243293 : if (curr_bb && bb_colder_than_loop_preheader (curr_bb, loop))
500 : : return NULL;
501 : :
502 : 11261438 : class loop *coldest_loop = coldest_outermost_loop[loop->num];
503 : 22522876 : if (loop_depth (coldest_loop) < loop_depth (outermost_loop))
504 : : {
505 : 236899 : class loop *hotter_loop = hotter_than_inner_loop[loop->num];
506 : 236899 : if (!hotter_loop
507 : 243463 : || loop_depth (hotter_loop) < loop_depth (outermost_loop))
508 : : return outermost_loop;
509 : :
510 : : /* hotter_loop is between OUTERMOST_LOOP and LOOP like:
511 : : [loop tree root, ..., coldest_loop, ..., outermost_loop, ...,
512 : : hotter_loop, second_coldest_loop, ..., loop]
513 : : return second_coldest_loop to be the hoist target. */
514 : 3 : class loop *aloop;
515 : 3 : for (aloop = hotter_loop->inner; aloop; aloop = aloop->next)
516 : 3 : if (aloop == loop || flow_loop_nested_p (aloop, loop))
517 : 3 : return aloop;
518 : : }
519 : : return coldest_loop;
520 : : }
521 : :
522 : : /* Suppose that operand DEF is used inside the LOOP. Returns the outermost
523 : : loop to that we could move the expression using DEF if it did not have
524 : : other operands, i.e. the outermost loop enclosing LOOP in that the value
525 : : of DEF is invariant. */
526 : :
527 : : static class loop *
528 : 19426588 : outermost_invariant_loop (tree def, class loop *loop)
529 : : {
530 : 19426588 : gimple *def_stmt;
531 : 19426588 : basic_block def_bb;
532 : 19426588 : class loop *max_loop;
533 : 19426588 : struct lim_aux_data *lim_data;
534 : :
535 : 19426588 : if (!def)
536 : 883619 : return superloop_at_depth (loop, 1);
537 : :
538 : 18542969 : if (TREE_CODE (def) != SSA_NAME)
539 : : {
540 : 3839181 : gcc_assert (is_gimple_min_invariant (def));
541 : 3839181 : return superloop_at_depth (loop, 1);
542 : : }
543 : :
544 : 14703788 : def_stmt = SSA_NAME_DEF_STMT (def);
545 : 14703788 : def_bb = gimple_bb (def_stmt);
546 : 14703788 : if (!def_bb)
547 : 70294 : return superloop_at_depth (loop, 1);
548 : :
549 : 14633494 : max_loop = find_common_loop (loop, def_bb->loop_father);
550 : :
551 : 14633494 : lim_data = get_lim_data (def_stmt);
552 : 14633494 : if (lim_data != NULL && lim_data->max_loop != NULL)
553 : 681401 : max_loop = find_common_loop (max_loop,
554 : : loop_outer (lim_data->max_loop));
555 : 14633494 : if (max_loop == loop)
556 : : return NULL;
557 : 1843389 : max_loop = superloop_at_depth (loop, loop_depth (max_loop) + 1);
558 : :
559 : 1843389 : return max_loop;
560 : : }
561 : :
562 : : /* DATA is a structure containing information associated with a statement
563 : : inside LOOP. DEF is one of the operands of this statement.
564 : :
565 : : Find the outermost loop enclosing LOOP in that value of DEF is invariant
566 : : and record this in DATA->max_loop field. If DEF itself is defined inside
567 : : this loop as well (i.e. we need to hoist it out of the loop if we want
568 : : to hoist the statement represented by DATA), record the statement in that
569 : : DEF is defined to the DATA->depends list. Additionally if ADD_COST is true,
570 : : add the cost of the computation of DEF to the DATA->cost.
571 : :
572 : : If DEF is not invariant in LOOP, return false. Otherwise return TRUE. */
573 : :
574 : : static bool
575 : 11436691 : add_dependency (tree def, struct lim_aux_data *data, class loop *loop,
576 : : bool add_cost)
577 : : {
578 : 11436691 : gimple *def_stmt = SSA_NAME_DEF_STMT (def);
579 : 11436691 : basic_block def_bb = gimple_bb (def_stmt);
580 : 11436691 : class loop *max_loop;
581 : 11436691 : struct lim_aux_data *def_data;
582 : :
583 : 11436691 : if (!def_bb)
584 : : return true;
585 : :
586 : 11125567 : max_loop = outermost_invariant_loop (def, loop);
587 : 11125567 : if (!max_loop)
588 : : return false;
589 : :
590 : 1389083 : if (flow_loop_nested_p (data->max_loop, max_loop))
591 : 433807 : data->max_loop = max_loop;
592 : :
593 : 1389083 : def_data = get_lim_data (def_stmt);
594 : 1389083 : if (!def_data)
595 : : return true;
596 : :
597 : 671155 : if (add_cost
598 : : /* Only add the cost if the statement defining DEF is inside LOOP,
599 : : i.e. if it is likely that by moving the invariants dependent
600 : : on it, we will be able to avoid creating a new register for
601 : : it (since it will be only used in these dependent invariants). */
602 : 647177 : && def_bb->loop_father == loop)
603 : 455954 : data->cost += def_data->cost;
604 : :
605 : 671155 : data->depends.safe_push (def_stmt);
606 : :
607 : 671155 : return true;
608 : : }
609 : :
610 : : /* Returns an estimate for a cost of statement STMT. The values here
611 : : are just ad-hoc constants, similar to costs for inlining. */
612 : :
613 : : static unsigned
614 : 761292 : stmt_cost (gimple *stmt)
615 : : {
616 : : /* Always try to create possibilities for unswitching. */
617 : 761292 : if (gimple_code (stmt) == GIMPLE_COND
618 : 761292 : || gimple_code (stmt) == GIMPLE_PHI)
619 : 12323 : return LIM_EXPENSIVE;
620 : :
621 : : /* We should be hoisting calls if possible. */
622 : 748969 : if (is_gimple_call (stmt))
623 : : {
624 : 705 : tree fndecl;
625 : :
626 : : /* Unless the call is a builtin_constant_p; this always folds to a
627 : : constant, so moving it is useless. */
628 : 705 : fndecl = gimple_call_fndecl (stmt);
629 : 705 : if (fndecl && fndecl_built_in_p (fndecl, BUILT_IN_CONSTANT_P))
630 : : return 0;
631 : :
632 : 705 : return LIM_EXPENSIVE;
633 : : }
634 : :
635 : : /* Hoisting memory references out should almost surely be a win. */
636 : 748264 : if (gimple_references_memory_p (stmt))
637 : 65122 : return LIM_EXPENSIVE;
638 : :
639 : 683142 : if (gimple_code (stmt) != GIMPLE_ASSIGN)
640 : : return 1;
641 : :
642 : 683142 : enum tree_code code = gimple_assign_rhs_code (stmt);
643 : 683142 : switch (code)
644 : : {
645 : 117259 : case MULT_EXPR:
646 : 117259 : case WIDEN_MULT_EXPR:
647 : 117259 : case WIDEN_MULT_PLUS_EXPR:
648 : 117259 : case WIDEN_MULT_MINUS_EXPR:
649 : 117259 : case DOT_PROD_EXPR:
650 : 117259 : case TRUNC_DIV_EXPR:
651 : 117259 : case CEIL_DIV_EXPR:
652 : 117259 : case FLOOR_DIV_EXPR:
653 : 117259 : case ROUND_DIV_EXPR:
654 : 117259 : case EXACT_DIV_EXPR:
655 : 117259 : case CEIL_MOD_EXPR:
656 : 117259 : case FLOOR_MOD_EXPR:
657 : 117259 : case ROUND_MOD_EXPR:
658 : 117259 : case TRUNC_MOD_EXPR:
659 : 117259 : case RDIV_EXPR:
660 : : /* Division and multiplication are usually expensive. */
661 : 117259 : return LIM_EXPENSIVE;
662 : :
663 : 4128 : case LSHIFT_EXPR:
664 : 4128 : case RSHIFT_EXPR:
665 : 4128 : case WIDEN_LSHIFT_EXPR:
666 : 4128 : case LROTATE_EXPR:
667 : 4128 : case RROTATE_EXPR:
668 : : /* Shifts and rotates are usually expensive. */
669 : 4128 : return LIM_EXPENSIVE;
670 : :
671 : 531 : case COND_EXPR:
672 : 531 : case VEC_COND_EXPR:
673 : : /* Conditionals are expensive. */
674 : 531 : return LIM_EXPENSIVE;
675 : :
676 : 1455 : case CONSTRUCTOR:
677 : : /* Make vector construction cost proportional to the number
678 : : of elements. */
679 : 1455 : return CONSTRUCTOR_NELTS (gimple_assign_rhs1 (stmt));
680 : :
681 : : case SSA_NAME:
682 : : case PAREN_EXPR:
683 : : /* Whether or not something is wrapped inside a PAREN_EXPR
684 : : should not change move cost. Nor should an intermediate
685 : : unpropagated SSA name copy. */
686 : : return 0;
687 : :
688 : 521247 : default:
689 : : /* Comparisons are usually expensive. */
690 : 521247 : if (TREE_CODE_CLASS (code) == tcc_comparison)
691 : 7999 : return LIM_EXPENSIVE;
692 : : return 1;
693 : : }
694 : : }
695 : :
696 : : /* Finds the outermost loop between OUTER and LOOP in that the memory reference
697 : : REF is independent. If REF is not independent in LOOP, NULL is returned
698 : : instead. */
699 : :
700 : : static class loop *
701 : 768969 : outermost_indep_loop (class loop *outer, class loop *loop, im_mem_ref *ref)
702 : : {
703 : 768969 : class loop *aloop;
704 : :
705 : 768969 : if (ref->stored && bitmap_bit_p (ref->stored, loop->num))
706 : : return NULL;
707 : :
708 : 89231 : for (aloop = outer;
709 : 708571 : aloop != loop;
710 : 89231 : aloop = superloop_at_depth (loop, loop_depth (aloop) + 1))
711 : 9238 : if ((!ref->stored || !bitmap_bit_p (ref->stored, aloop->num))
712 : 105083 : && ref_indep_loop_p (aloop, ref, lim_raw))
713 : : return aloop;
714 : :
715 : 605190 : if (ref_indep_loop_p (loop, ref, lim_raw))
716 : : return loop;
717 : : else
718 : : return NULL;
719 : : }
720 : :
721 : : /* If there is a simple load or store to a memory reference in STMT, returns
722 : : the location of the memory reference, and sets IS_STORE according to whether
723 : : it is a store or load. Otherwise, returns NULL. */
724 : :
725 : : static tree *
726 : 6931777 : simple_mem_ref_in_stmt (gimple *stmt, bool *is_store)
727 : : {
728 : 6931777 : tree *lhs, *rhs;
729 : :
730 : : /* Recognize SSA_NAME = MEM and MEM = (SSA_NAME | invariant) patterns. */
731 : 6931777 : if (!gimple_assign_single_p (stmt))
732 : : return NULL;
733 : :
734 : 5689480 : lhs = gimple_assign_lhs_ptr (stmt);
735 : 5689480 : rhs = gimple_assign_rhs1_ptr (stmt);
736 : :
737 : 8893020 : if (TREE_CODE (*lhs) == SSA_NAME && gimple_vuse (stmt))
738 : : {
739 : 3203540 : *is_store = false;
740 : 3203540 : return rhs;
741 : : }
742 : 2485940 : else if (gimple_vdef (stmt)
743 : 2485940 : && (TREE_CODE (*rhs) == SSA_NAME || is_gimple_min_invariant (*rhs)))
744 : : {
745 : 2045409 : *is_store = true;
746 : 2045409 : return lhs;
747 : : }
748 : : else
749 : 440531 : return NULL;
750 : : }
751 : :
752 : : /* From a controlling predicate in DOM determine the arguments from
753 : : the PHI node PHI that are chosen if the predicate evaluates to
754 : : true and false and store them to *TRUE_ARG_P and *FALSE_ARG_P if
755 : : they are non-NULL. Returns true if the arguments can be determined,
756 : : else return false. */
757 : :
758 : : static bool
759 : 13564 : extract_true_false_args_from_phi (basic_block dom, gphi *phi,
760 : : tree *true_arg_p, tree *false_arg_p)
761 : : {
762 : 13564 : edge te, fe;
763 : 13564 : if (! extract_true_false_controlled_edges (dom, gimple_bb (phi),
764 : : &te, &fe))
765 : : return false;
766 : :
767 : 11644 : if (true_arg_p)
768 : 903 : *true_arg_p = PHI_ARG_DEF (phi, te->dest_idx);
769 : 11644 : if (false_arg_p)
770 : 903 : *false_arg_p = PHI_ARG_DEF (phi, fe->dest_idx);
771 : :
772 : : return true;
773 : : }
774 : :
775 : : /* Determine the outermost loop to that it is possible to hoist a statement
776 : : STMT and store it to LIM_DATA (STMT)->max_loop. To do this we determine
777 : : the outermost loop in that the value computed by STMT is invariant.
778 : : If MUST_PRESERVE_EXEC is true, additionally choose such a loop that
779 : : we preserve the fact whether STMT is executed. It also fills other related
780 : : information to LIM_DATA (STMT).
781 : :
782 : : The function returns false if STMT cannot be hoisted outside of the loop it
783 : : is defined in, and true otherwise. */
784 : :
785 : : static bool
786 : 12200038 : determine_max_movement (gimple *stmt, bool must_preserve_exec)
787 : : {
788 : 12200038 : basic_block bb = gimple_bb (stmt);
789 : 12200038 : class loop *loop = bb->loop_father;
790 : 12200038 : class loop *level;
791 : 12200038 : struct lim_aux_data *lim_data = get_lim_data (stmt);
792 : 12200038 : tree val;
793 : 12200038 : ssa_op_iter iter;
794 : :
795 : 12200038 : if (must_preserve_exec)
796 : 1486567 : level = ALWAYS_EXECUTED_IN (bb);
797 : : else
798 : 10713471 : level = superloop_at_depth (loop, 1);
799 : 12200038 : lim_data->max_loop = get_coldest_out_loop (level, loop, bb);
800 : 12200038 : if (!lim_data->max_loop)
801 : : return false;
802 : :
803 : 11219928 : if (gphi *phi = dyn_cast <gphi *> (stmt))
804 : : {
805 : 1407316 : use_operand_p use_p;
806 : 1407316 : unsigned min_cost = UINT_MAX;
807 : 1407316 : unsigned total_cost = 0;
808 : 1407316 : struct lim_aux_data *def_data;
809 : :
810 : : /* We will end up promoting dependencies to be unconditionally
811 : : evaluated. For this reason the PHI cost (and thus the
812 : : cost we remove from the loop by doing the invariant motion)
813 : : is that of the cheapest PHI argument dependency chain. */
814 : 1640883 : FOR_EACH_PHI_ARG (use_p, phi, iter, SSA_OP_USE)
815 : : {
816 : 1611953 : val = USE_FROM_PTR (use_p);
817 : :
818 : 1611953 : if (TREE_CODE (val) != SSA_NAME)
819 : : {
820 : : /* Assign const 1 to constants. */
821 : 139501 : min_cost = MIN (min_cost, 1);
822 : 139501 : total_cost += 1;
823 : 139501 : continue;
824 : : }
825 : 1472452 : if (!add_dependency (val, lim_data, loop, false))
826 : : return false;
827 : :
828 : 94066 : gimple *def_stmt = SSA_NAME_DEF_STMT (val);
829 : 94066 : if (gimple_bb (def_stmt)
830 : 94066 : && gimple_bb (def_stmt)->loop_father == loop)
831 : : {
832 : 1416 : def_data = get_lim_data (def_stmt);
833 : 1416 : if (def_data)
834 : : {
835 : 1416 : min_cost = MIN (min_cost, def_data->cost);
836 : 1416 : total_cost += def_data->cost;
837 : : }
838 : : }
839 : : }
840 : :
841 : 28930 : min_cost = MIN (min_cost, total_cost);
842 : 28930 : lim_data->cost += min_cost;
843 : :
844 : 28930 : if (gimple_phi_num_args (phi) > 1)
845 : : {
846 : 28727 : basic_block dom = get_immediate_dominator (CDI_DOMINATORS, bb);
847 : 28727 : gimple *cond;
848 : 57454 : if (gsi_end_p (gsi_last_bb (dom)))
849 : : return false;
850 : 17738 : cond = gsi_stmt (gsi_last_bb (dom));
851 : 17738 : if (gimple_code (cond) != GIMPLE_COND)
852 : : return false;
853 : : /* Verify that this is an extended form of a diamond and
854 : : the PHI arguments are completely controlled by the
855 : : predicate in DOM. */
856 : 12661 : if (!extract_true_false_args_from_phi (dom, phi, NULL, NULL))
857 : : return false;
858 : :
859 : : /* Check if one of the depedent statement is a vector compare whether
860 : : the target supports it, otherwise it's invalid to hoist it out of
861 : : the gcond it belonged to. */
862 : 10741 : if (VECTOR_TYPE_P (TREE_TYPE (gimple_cond_lhs (cond))))
863 : : {
864 : 2 : tree type = TREE_TYPE (gimple_cond_lhs (cond));
865 : 2 : auto code = gimple_cond_code (cond);
866 : 2 : if (!target_supports_op_p (type, code, optab_vector))
867 : : return false;
868 : : }
869 : :
870 : : /* Fold in dependencies and cost of the condition. */
871 : 12693 : FOR_EACH_SSA_TREE_OPERAND (val, cond, iter, SSA_OP_USE)
872 : : {
873 : 11678 : if (!add_dependency (val, lim_data, loop, false))
874 : : return false;
875 : 1954 : def_data = get_lim_data (SSA_NAME_DEF_STMT (val));
876 : 1954 : if (def_data)
877 : 923 : lim_data->cost += def_data->cost;
878 : : }
879 : :
880 : : /* We want to avoid unconditionally executing very expensive
881 : : operations. As costs for our dependencies cannot be
882 : : negative just claim we are not invariand for this case.
883 : : We also are not sure whether the control-flow inside the
884 : : loop will vanish. */
885 : 1015 : if (total_cost - min_cost >= 2 * LIM_EXPENSIVE
886 : 133 : && !(min_cost != 0
887 : 133 : && total_cost / min_cost <= 2))
888 : : return false;
889 : :
890 : : /* Assume that the control-flow in the loop will vanish.
891 : : ??? We should verify this and not artificially increase
892 : : the cost if that is not the case. */
893 : 903 : lim_data->cost += stmt_cost (stmt);
894 : : }
895 : :
896 : 1106 : return true;
897 : : }
898 : :
899 : : /* A stmt that receives abnormal edges cannot be hoisted. */
900 : 9812612 : if (is_a <gcall *> (stmt)
901 : 9812612 : && (gimple_call_flags (stmt) & ECF_RETURNS_TWICE))
902 : : return false;
903 : :
904 : 11416774 : FOR_EACH_SSA_TREE_OPERAND (val, stmt, iter, SSA_OP_USE)
905 : 9951586 : if (!add_dependency (val, lim_data, loop, true))
906 : : return false;
907 : :
908 : 2918956 : if (gimple_vuse (stmt))
909 : : {
910 : 769944 : im_mem_ref *ref
911 : 769944 : = lim_data ? memory_accesses.refs_list[lim_data->ref] : NULL;
912 : 769944 : if (ref
913 : 769944 : && MEM_ANALYZABLE (ref))
914 : : {
915 : 768969 : lim_data->max_loop = outermost_indep_loop (lim_data->max_loop,
916 : : loop, ref);
917 : 768969 : if (!lim_data->max_loop)
918 : : return false;
919 : : }
920 : 975 : else if (! add_dependency (gimple_vuse (stmt), lim_data, loop, false))
921 : : return false;
922 : : }
923 : :
924 : 760389 : lim_data->cost += stmt_cost (stmt);
925 : :
926 : 760389 : return true;
927 : : }
928 : :
929 : : /* Suppose that some statement in ORIG_LOOP is hoisted to the loop LEVEL,
930 : : and that one of the operands of this statement is computed by STMT.
931 : : Ensure that STMT (together with all the statements that define its
932 : : operands) is hoisted at least out of the loop LEVEL. */
933 : :
934 : : static void
935 : 685360 : set_level (gimple *stmt, class loop *orig_loop, class loop *level)
936 : : {
937 : 685360 : class loop *stmt_loop = gimple_bb (stmt)->loop_father;
938 : 685360 : struct lim_aux_data *lim_data;
939 : 685360 : gimple *dep_stmt;
940 : 685360 : unsigned i;
941 : :
942 : 685360 : stmt_loop = find_common_loop (orig_loop, stmt_loop);
943 : 685360 : lim_data = get_lim_data (stmt);
944 : 685360 : if (lim_data != NULL && lim_data->tgt_loop != NULL)
945 : 170341 : stmt_loop = find_common_loop (stmt_loop,
946 : : loop_outer (lim_data->tgt_loop));
947 : 685360 : if (flow_loop_nested_p (stmt_loop, level))
948 : 685360 : return;
949 : :
950 : 454943 : gcc_assert (level == lim_data->max_loop
951 : : || flow_loop_nested_p (lim_data->max_loop, level));
952 : :
953 : 454943 : lim_data->tgt_loop = level;
954 : 785433 : FOR_EACH_VEC_ELT (lim_data->depends, i, dep_stmt)
955 : 330490 : set_level (dep_stmt, orig_loop, level);
956 : : }
957 : :
958 : : /* Determines an outermost loop from that we want to hoist the statement STMT.
959 : : For now we chose the outermost possible loop. TODO -- use profiling
960 : : information to set it more sanely. */
961 : :
962 : : static void
963 : 292634 : set_profitable_level (gimple *stmt)
964 : : {
965 : 292634 : set_level (stmt, gimple_bb (stmt)->loop_father, get_lim_data (stmt)->max_loop);
966 : 292634 : }
967 : :
968 : : /* Returns true if STMT is a call that has side effects. */
969 : :
970 : : static bool
971 : 122834638 : nonpure_call_p (gimple *stmt)
972 : : {
973 : 0 : if (gimple_code (stmt) != GIMPLE_CALL)
974 : : return false;
975 : :
976 : 5343551 : return gimple_has_side_effects (stmt);
977 : : }
978 : :
979 : : /* Rewrite a/b to a*(1/b). Return the invariant stmt to process. */
980 : :
981 : : static gimple *
982 : 35 : rewrite_reciprocal (gimple_stmt_iterator *bsi)
983 : : {
984 : 35 : gassign *stmt, *stmt1, *stmt2;
985 : 35 : tree name, lhs, type;
986 : 35 : tree real_one;
987 : 35 : gimple_stmt_iterator gsi;
988 : :
989 : 35 : stmt = as_a <gassign *> (gsi_stmt (*bsi));
990 : 35 : lhs = gimple_assign_lhs (stmt);
991 : 35 : type = TREE_TYPE (lhs);
992 : :
993 : 35 : real_one = build_one_cst (type);
994 : :
995 : 35 : name = make_temp_ssa_name (type, NULL, "reciptmp");
996 : 70 : stmt1 = gimple_build_assign (name, RDIV_EXPR, real_one,
997 : : gimple_assign_rhs2 (stmt));
998 : 35 : stmt2 = gimple_build_assign (lhs, MULT_EXPR, name,
999 : : gimple_assign_rhs1 (stmt));
1000 : :
1001 : : /* Replace division stmt with reciprocal and multiply stmts.
1002 : : The multiply stmt is not invariant, so update iterator
1003 : : and avoid rescanning. */
1004 : 35 : gsi = *bsi;
1005 : 35 : gsi_insert_before (bsi, stmt1, GSI_NEW_STMT);
1006 : 35 : gsi_replace (&gsi, stmt2, true);
1007 : :
1008 : : /* Continue processing with invariant reciprocal statement. */
1009 : 35 : return stmt1;
1010 : : }
1011 : :
1012 : : /* Check if the pattern at *BSI is a bittest of the form
1013 : : (A >> B) & 1 != 0 and in this case rewrite it to A & (1 << B) != 0. */
1014 : :
1015 : : static gimple *
1016 : 11244 : rewrite_bittest (gimple_stmt_iterator *bsi)
1017 : : {
1018 : 11244 : gassign *stmt;
1019 : 11244 : gimple *stmt1;
1020 : 11244 : gassign *stmt2;
1021 : 11244 : gimple *use_stmt;
1022 : 11244 : gcond *cond_stmt;
1023 : 11244 : tree lhs, name, t, a, b;
1024 : 11244 : use_operand_p use;
1025 : :
1026 : 11244 : stmt = as_a <gassign *> (gsi_stmt (*bsi));
1027 : 11244 : lhs = gimple_assign_lhs (stmt);
1028 : :
1029 : : /* Verify that the single use of lhs is a comparison against zero. */
1030 : 11244 : if (TREE_CODE (lhs) != SSA_NAME
1031 : 11244 : || !single_imm_use (lhs, &use, &use_stmt))
1032 : 312 : return stmt;
1033 : 16743 : cond_stmt = dyn_cast <gcond *> (use_stmt);
1034 : 5551 : if (!cond_stmt)
1035 : : return stmt;
1036 : 5551 : if (gimple_cond_lhs (cond_stmt) != lhs
1037 : 5399 : || (gimple_cond_code (cond_stmt) != NE_EXPR
1038 : 2325 : && gimple_cond_code (cond_stmt) != EQ_EXPR)
1039 : 10950 : || !integer_zerop (gimple_cond_rhs (cond_stmt)))
1040 : 182 : return stmt;
1041 : :
1042 : : /* Get at the operands of the shift. The rhs is TMP1 & 1. */
1043 : 5369 : stmt1 = SSA_NAME_DEF_STMT (gimple_assign_rhs1 (stmt));
1044 : 5369 : if (gimple_code (stmt1) != GIMPLE_ASSIGN)
1045 : : return stmt;
1046 : :
1047 : : /* There is a conversion in between possibly inserted by fold. */
1048 : 5296 : if (CONVERT_EXPR_CODE_P (gimple_assign_rhs_code (stmt1)))
1049 : : {
1050 : 252 : t = gimple_assign_rhs1 (stmt1);
1051 : 252 : if (TREE_CODE (t) != SSA_NAME
1052 : 252 : || !has_single_use (t))
1053 : : return stmt;
1054 : 176 : stmt1 = SSA_NAME_DEF_STMT (t);
1055 : 176 : if (gimple_code (stmt1) != GIMPLE_ASSIGN)
1056 : : return stmt;
1057 : : }
1058 : :
1059 : : /* Verify that B is loop invariant but A is not. Verify that with
1060 : : all the stmt walking we are still in the same loop. */
1061 : 5178 : if (gimple_assign_rhs_code (stmt1) != RSHIFT_EXPR
1062 : 11562 : || loop_containing_stmt (stmt1) != loop_containing_stmt (stmt))
1063 : : return stmt;
1064 : :
1065 : 3192 : a = gimple_assign_rhs1 (stmt1);
1066 : 3192 : b = gimple_assign_rhs2 (stmt1);
1067 : :
1068 : 3192 : if (outermost_invariant_loop (b, loop_containing_stmt (stmt1)) != NULL
1069 : 3244 : && outermost_invariant_loop (a, loop_containing_stmt (stmt1)) == NULL)
1070 : : {
1071 : 52 : gimple_stmt_iterator rsi;
1072 : :
1073 : : /* 1 << B */
1074 : 52 : t = fold_build2 (LSHIFT_EXPR, TREE_TYPE (a),
1075 : : build_int_cst (TREE_TYPE (a), 1), b);
1076 : 52 : name = make_temp_ssa_name (TREE_TYPE (a), NULL, "shifttmp");
1077 : 52 : stmt1 = gimple_build_assign (name, t);
1078 : :
1079 : : /* A & (1 << B) */
1080 : 52 : t = fold_build2 (BIT_AND_EXPR, TREE_TYPE (a), a, name);
1081 : 52 : name = make_temp_ssa_name (TREE_TYPE (a), NULL, "shifttmp");
1082 : 52 : stmt2 = gimple_build_assign (name, t);
1083 : :
1084 : : /* Replace the SSA_NAME we compare against zero. Adjust
1085 : : the type of zero accordingly. */
1086 : 52 : SET_USE (use, name);
1087 : 52 : gimple_cond_set_rhs (cond_stmt,
1088 : 52 : build_int_cst_type (TREE_TYPE (name),
1089 : : 0));
1090 : :
1091 : : /* Don't use gsi_replace here, none of the new assignments sets
1092 : : the variable originally set in stmt. Move bsi to stmt1, and
1093 : : then remove the original stmt, so that we get a chance to
1094 : : retain debug info for it. */
1095 : 52 : rsi = *bsi;
1096 : 52 : gsi_insert_before (bsi, stmt1, GSI_NEW_STMT);
1097 : 52 : gsi_insert_before (&rsi, stmt2, GSI_SAME_STMT);
1098 : 52 : gimple *to_release = gsi_stmt (rsi);
1099 : 52 : gsi_remove (&rsi, true);
1100 : 52 : release_defs (to_release);
1101 : :
1102 : 52 : return stmt1;
1103 : : }
1104 : :
1105 : : return stmt;
1106 : : }
1107 : :
1108 : : /* Determine the outermost loops in that statements in basic block BB are
1109 : : invariant, and record them to the LIM_DATA associated with the
1110 : : statements. */
1111 : :
1112 : : static void
1113 : 14852604 : compute_invariantness (basic_block bb)
1114 : : {
1115 : 14852604 : enum move_pos pos;
1116 : 14852604 : gimple_stmt_iterator bsi;
1117 : 14852604 : gimple *stmt;
1118 : 14852604 : bool maybe_never = ALWAYS_EXECUTED_IN (bb) == NULL;
1119 : 14852604 : class loop *outermost = ALWAYS_EXECUTED_IN (bb);
1120 : 14852604 : struct lim_aux_data *lim_data;
1121 : :
1122 : 14852604 : if (!loop_outer (bb->loop_father))
1123 : 8716750 : return;
1124 : :
1125 : 6135854 : if (dump_file && (dump_flags & TDF_DETAILS))
1126 : 422 : fprintf (dump_file, "Basic block %d (loop %d -- depth %d):\n\n",
1127 : 422 : bb->index, bb->loop_father->num, loop_depth (bb->loop_father));
1128 : :
1129 : : /* Look at PHI nodes, but only if there is at most two.
1130 : : ??? We could relax this further by post-processing the inserted
1131 : : code and transforming adjacent cond-exprs with the same predicate
1132 : : to control flow again. */
1133 : 6135854 : bsi = gsi_start_phis (bb);
1134 : 6135854 : if (!gsi_end_p (bsi)
1135 : 6135854 : && ((gsi_next (&bsi), gsi_end_p (bsi))
1136 : 1382452 : || (gsi_next (&bsi), gsi_end_p (bsi))))
1137 : 4401670 : for (bsi = gsi_start_phis (bb); !gsi_end_p (bsi); gsi_next (&bsi))
1138 : : {
1139 : 2641054 : stmt = gsi_stmt (bsi);
1140 : :
1141 : 2641054 : pos = movement_possibility (stmt);
1142 : 2641054 : if (pos == MOVE_IMPOSSIBLE)
1143 : 1170742 : continue;
1144 : :
1145 : 1470312 : lim_data = get_lim_data (stmt);
1146 : 1470312 : if (! lim_data)
1147 : 1470312 : lim_data = init_lim_data (stmt);
1148 : 1470312 : lim_data->always_executed_in = outermost;
1149 : :
1150 : 1470312 : if (!determine_max_movement (stmt, false))
1151 : : {
1152 : 1469206 : lim_data->max_loop = NULL;
1153 : 1469206 : continue;
1154 : : }
1155 : :
1156 : 1106 : if (dump_file && (dump_flags & TDF_DETAILS))
1157 : : {
1158 : 2 : print_gimple_stmt (dump_file, stmt, 2);
1159 : 2 : fprintf (dump_file, " invariant up to level %d, cost %d.\n\n",
1160 : 2 : loop_depth (lim_data->max_loop),
1161 : : lim_data->cost);
1162 : : }
1163 : :
1164 : 1106 : if (lim_data->cost >= LIM_EXPENSIVE)
1165 : 908 : set_profitable_level (stmt);
1166 : : }
1167 : :
1168 : 54780228 : for (bsi = gsi_start_bb (bb); !gsi_end_p (bsi); gsi_next (&bsi))
1169 : : {
1170 : 42508520 : stmt = gsi_stmt (bsi);
1171 : :
1172 : 42508520 : pos = movement_possibility (stmt);
1173 : 42508520 : if (pos == MOVE_IMPOSSIBLE)
1174 : : {
1175 : 31743121 : if (nonpure_call_p (stmt))
1176 : : {
1177 : : maybe_never = true;
1178 : : outermost = NULL;
1179 : : }
1180 : : /* Make sure to note always_executed_in for stores to make
1181 : : store-motion work. */
1182 : 29402831 : else if (stmt_makes_single_store (stmt))
1183 : : {
1184 : 2477955 : struct lim_aux_data *lim_data = get_lim_data (stmt);
1185 : 2477955 : if (! lim_data)
1186 : 0 : lim_data = init_lim_data (stmt);
1187 : 2477955 : lim_data->always_executed_in = outermost;
1188 : : }
1189 : 30569221 : continue;
1190 : 30569221 : }
1191 : :
1192 : 11939299 : if (is_gimple_assign (stmt)
1193 : 11939299 : && (get_gimple_rhs_class (gimple_assign_rhs_code (stmt))
1194 : : == GIMPLE_BINARY_RHS))
1195 : : {
1196 : 5747119 : tree op0 = gimple_assign_rhs1 (stmt);
1197 : 5747119 : tree op1 = gimple_assign_rhs2 (stmt);
1198 : 11494238 : class loop *ol1 = outermost_invariant_loop (op1,
1199 : : loop_containing_stmt (stmt));
1200 : :
1201 : : /* If divisor is invariant, convert a/b to a*(1/b), allowing reciprocal
1202 : : to be hoisted out of loop, saving expensive divide. */
1203 : 5747119 : if (pos == MOVE_POSSIBLE
1204 : 5173270 : && gimple_assign_rhs_code (stmt) == RDIV_EXPR
1205 : 549 : && flag_unsafe_math_optimizations
1206 : 367 : && !flag_trapping_math
1207 : 367 : && ol1 != NULL
1208 : 5747157 : && outermost_invariant_loop (op0, ol1) == NULL)
1209 : 35 : stmt = rewrite_reciprocal (&bsi);
1210 : :
1211 : : /* If the shift count is invariant, convert (A >> B) & 1 to
1212 : : A & (1 << B) allowing the bit mask to be hoisted out of the loop
1213 : : saving an expensive shift. */
1214 : 5747119 : if (pos == MOVE_POSSIBLE
1215 : 5173270 : && gimple_assign_rhs_code (stmt) == BIT_AND_EXPR
1216 : 211045 : && integer_onep (op1)
1217 : 20142 : && TREE_CODE (op0) == SSA_NAME
1218 : 5767261 : && has_single_use (op0))
1219 : 11244 : stmt = rewrite_bittest (&bsi);
1220 : : }
1221 : :
1222 : 11939299 : lim_data = get_lim_data (stmt);
1223 : 11939299 : if (! lim_data)
1224 : 9087631 : lim_data = init_lim_data (stmt);
1225 : 11939299 : lim_data->always_executed_in = outermost;
1226 : :
1227 : 11939299 : if (maybe_never && pos == MOVE_PRESERVE_EXECUTION)
1228 : 1209573 : continue;
1229 : :
1230 : 10729726 : if (!determine_max_movement (stmt, pos == MOVE_PRESERVE_EXECUTION))
1231 : : {
1232 : 9969337 : lim_data->max_loop = NULL;
1233 : 9969337 : continue;
1234 : : }
1235 : :
1236 : 760389 : if (dump_file && (dump_flags & TDF_DETAILS))
1237 : : {
1238 : 272 : print_gimple_stmt (dump_file, stmt, 2);
1239 : 272 : fprintf (dump_file, " invariant up to level %d, cost %d.\n\n",
1240 : 272 : loop_depth (lim_data->max_loop),
1241 : : lim_data->cost);
1242 : : }
1243 : :
1244 : 760389 : if (lim_data->cost >= LIM_EXPENSIVE)
1245 : 291726 : set_profitable_level (stmt);
1246 : : /* When we run before PRE and PRE is active hoist all expressions
1247 : : to the always executed loop since PRE would do so anyway
1248 : : and we can preserve range info while PRE cannot. */
1249 : 468663 : else if (flag_tree_pre && !in_loop_pipeline
1250 : 100949 : && outermost)
1251 : : {
1252 : 59376 : class loop *mloop = lim_data->max_loop;
1253 : 178128 : if (loop_depth (outermost) > loop_depth (mloop))
1254 : : {
1255 : 8444 : mloop = outermost;
1256 : 8444 : if (dump_file && (dump_flags & TDF_DETAILS))
1257 : 1 : fprintf (dump_file, " constraining to loop depth %d\n\n\n",
1258 : : loop_depth (mloop));
1259 : : }
1260 : 59376 : set_level (stmt, bb->loop_father, mloop);
1261 : : }
1262 : : }
1263 : : }
1264 : :
1265 : : /* Hoist the statements in basic block BB out of the loops prescribed by
1266 : : data stored in LIM_DATA structures associated with each statement. Callback
1267 : : for walk_dominator_tree. */
1268 : :
1269 : : unsigned int
1270 : 14899524 : move_computations_worker (basic_block bb)
1271 : : {
1272 : 14899524 : class loop *level;
1273 : 14899524 : unsigned cost = 0;
1274 : 14899524 : struct lim_aux_data *lim_data;
1275 : 14899524 : unsigned int todo = 0;
1276 : :
1277 : 14899524 : if (!loop_outer (bb->loop_father))
1278 : : return todo;
1279 : :
1280 : 10791131 : for (gphi_iterator bsi = gsi_start_phis (bb); !gsi_end_p (bsi); )
1281 : : {
1282 : 4649027 : gassign *new_stmt;
1283 : 4649027 : gphi *stmt = bsi.phi ();
1284 : :
1285 : 4649027 : lim_data = get_lim_data (stmt);
1286 : 4649027 : if (lim_data == NULL)
1287 : : {
1288 : 3178715 : gsi_next (&bsi);
1289 : 3178715 : continue;
1290 : : }
1291 : :
1292 : 1470312 : cost = lim_data->cost;
1293 : 1470312 : level = lim_data->tgt_loop;
1294 : 1470312 : clear_lim_data (stmt);
1295 : :
1296 : 1470312 : if (!level)
1297 : : {
1298 : 1469400 : gsi_next (&bsi);
1299 : 1469400 : continue;
1300 : : }
1301 : :
1302 : 912 : if (dump_file && (dump_flags & TDF_DETAILS))
1303 : : {
1304 : 2 : fprintf (dump_file, "Moving PHI node\n");
1305 : 2 : print_gimple_stmt (dump_file, stmt, 0);
1306 : 2 : fprintf (dump_file, "(cost %u) out of loop %d.\n\n",
1307 : : cost, level->num);
1308 : : }
1309 : :
1310 : 912 : if (gimple_phi_num_args (stmt) == 1)
1311 : : {
1312 : 9 : tree arg = PHI_ARG_DEF (stmt, 0);
1313 : 9 : new_stmt = gimple_build_assign (gimple_phi_result (stmt),
1314 : 9 : TREE_CODE (arg), arg);
1315 : : }
1316 : : else
1317 : : {
1318 : 903 : basic_block dom = get_immediate_dominator (CDI_DOMINATORS, bb);
1319 : 903 : gimple *cond = gsi_stmt (gsi_last_bb (dom));
1320 : 903 : tree arg0 = NULL_TREE, arg1 = NULL_TREE, t;
1321 : : /* Get the PHI arguments corresponding to the true and false
1322 : : edges of COND. */
1323 : 903 : extract_true_false_args_from_phi (dom, stmt, &arg0, &arg1);
1324 : 903 : gcc_assert (arg0 && arg1);
1325 : : /* For `bool_val != 0`, reuse bool_val. */
1326 : 903 : if (gimple_cond_code (cond) == NE_EXPR
1327 : 528 : && integer_zerop (gimple_cond_rhs (cond))
1328 : 1361 : && types_compatible_p (TREE_TYPE (gimple_cond_lhs (cond)),
1329 : : boolean_type_node))
1330 : : {
1331 : 55 : t = gimple_cond_lhs (cond);
1332 : : }
1333 : : else
1334 : : {
1335 : 848 : t = make_ssa_name (boolean_type_node);
1336 : 848 : new_stmt = gimple_build_assign (t, gimple_cond_code (cond),
1337 : : gimple_cond_lhs (cond),
1338 : : gimple_cond_rhs (cond));
1339 : 848 : gsi_insert_on_edge (loop_preheader_edge (level), new_stmt);
1340 : : }
1341 : 903 : new_stmt = gimple_build_assign (gimple_phi_result (stmt),
1342 : : COND_EXPR, t, arg0, arg1);
1343 : 903 : todo |= TODO_cleanup_cfg;
1344 : : }
1345 : 912 : if (!ALWAYS_EXECUTED_IN (bb)
1346 : 912 : || (ALWAYS_EXECUTED_IN (bb) != level
1347 : 96 : && !flow_loop_nested_p (ALWAYS_EXECUTED_IN (bb), level)))
1348 : 447 : reset_flow_sensitive_info (gimple_assign_lhs (new_stmt));
1349 : 912 : gsi_insert_on_edge (loop_preheader_edge (level), new_stmt);
1350 : 912 : remove_phi_node (&bsi, false);
1351 : : }
1352 : :
1353 : 54858408 : for (gimple_stmt_iterator bsi = gsi_start_bb (bb); !gsi_end_p (bsi); )
1354 : : {
1355 : 42574200 : edge e;
1356 : :
1357 : 42574200 : gimple *stmt = gsi_stmt (bsi);
1358 : :
1359 : 42574200 : lim_data = get_lim_data (stmt);
1360 : 42574200 : if (lim_data == NULL)
1361 : : {
1362 : 26512364 : gsi_next (&bsi);
1363 : 26512364 : continue;
1364 : : }
1365 : :
1366 : 16061836 : cost = lim_data->cost;
1367 : 16061836 : level = lim_data->tgt_loop;
1368 : 16061836 : clear_lim_data (stmt);
1369 : :
1370 : 16061836 : if (!level)
1371 : : {
1372 : 15568337 : gsi_next (&bsi);
1373 : 15568337 : continue;
1374 : : }
1375 : :
1376 : : /* We do not really want to move conditionals out of the loop; we just
1377 : : placed it here to force its operands to be moved if necessary. */
1378 : 493499 : if (gimple_code (stmt) == GIMPLE_COND)
1379 : : {
1380 : 11420 : gsi_next (&bsi);
1381 : 11420 : continue;
1382 : : }
1383 : :
1384 : 482079 : if (dump_file && (dump_flags & TDF_DETAILS))
1385 : : {
1386 : 342 : fprintf (dump_file, "Moving statement\n");
1387 : 342 : print_gimple_stmt (dump_file, stmt, 0);
1388 : 342 : fprintf (dump_file, "(cost %u) out of loop %d.\n\n",
1389 : : cost, level->num);
1390 : : }
1391 : :
1392 : 482079 : e = loop_preheader_edge (level);
1393 : 964158 : gcc_assert (!gimple_vdef (stmt));
1394 : 964158 : if (gimple_vuse (stmt))
1395 : : {
1396 : : /* The new VUSE is the one from the virtual PHI in the loop
1397 : : header or the one already present. */
1398 : 82915 : gphi_iterator gsi2;
1399 : 82915 : for (gsi2 = gsi_start_phis (e->dest);
1400 : 194137 : !gsi_end_p (gsi2); gsi_next (&gsi2))
1401 : : {
1402 : 176779 : gphi *phi = gsi2.phi ();
1403 : 353558 : if (virtual_operand_p (gimple_phi_result (phi)))
1404 : : {
1405 : 65557 : SET_USE (gimple_vuse_op (stmt),
1406 : : PHI_ARG_DEF_FROM_EDGE (phi, e));
1407 : 65557 : break;
1408 : : }
1409 : : }
1410 : : }
1411 : 482079 : gsi_remove (&bsi, false);
1412 : 482079 : if (gimple_has_lhs (stmt)
1413 : 482079 : && TREE_CODE (gimple_get_lhs (stmt)) == SSA_NAME
1414 : 440208 : && (!ALWAYS_EXECUTED_IN (bb)
1415 : 372201 : || !(ALWAYS_EXECUTED_IN (bb) == level
1416 : 97810 : || flow_loop_nested_p (ALWAYS_EXECUTED_IN (bb), level))))
1417 : 206059 : reset_flow_sensitive_info (gimple_get_lhs (stmt));
1418 : : /* In case this is a stmt that is not unconditionally executed
1419 : : when the target loop header is executed and the stmt may
1420 : : invoke undefined integer or pointer overflow rewrite it to
1421 : : unsigned arithmetic. */
1422 : 482079 : if (gimple_needing_rewrite_undefined (stmt)
1423 : 482079 : && (!ALWAYS_EXECUTED_IN (bb)
1424 : 79159 : || !(ALWAYS_EXECUTED_IN (bb) == level
1425 : 18690 : || flow_loop_nested_p (ALWAYS_EXECUTED_IN (bb), level))))
1426 : 19869 : gsi_insert_seq_on_edge (e, rewrite_to_defined_unconditional (stmt));
1427 : : else
1428 : 462210 : gsi_insert_on_edge (e, stmt);
1429 : : }
1430 : :
1431 : 6142104 : return todo;
1432 : : }
1433 : :
1434 : : /* Checks whether the statement defining variable *INDEX can be hoisted
1435 : : out of the loop passed in DATA. Callback for for_each_index. */
1436 : :
1437 : : static bool
1438 : 1664296 : may_move_till (tree ref, tree *index, void *data)
1439 : : {
1440 : 1664296 : class loop *loop = (class loop *) data, *max_loop;
1441 : :
1442 : : /* If REF is an array reference, check also that the step and the lower
1443 : : bound is invariant in LOOP. */
1444 : 1664296 : if (TREE_CODE (ref) == ARRAY_REF)
1445 : : {
1446 : 443162 : tree step = TREE_OPERAND (ref, 3);
1447 : 443162 : tree lbound = TREE_OPERAND (ref, 2);
1448 : :
1449 : 443162 : max_loop = outermost_invariant_loop (step, loop);
1450 : 443162 : if (!max_loop)
1451 : : return false;
1452 : :
1453 : 443162 : max_loop = outermost_invariant_loop (lbound, loop);
1454 : 443162 : if (!max_loop)
1455 : : return false;
1456 : : }
1457 : :
1458 : 1664296 : max_loop = outermost_invariant_loop (*index, loop);
1459 : 1664296 : if (!max_loop)
1460 : : return false;
1461 : :
1462 : : return true;
1463 : : }
1464 : :
1465 : : /* If OP is SSA NAME, force the statement that defines it to be
1466 : : moved out of the LOOP. ORIG_LOOP is the loop in that EXPR is used. */
1467 : :
1468 : : static void
1469 : 37966 : force_move_till_op (tree op, class loop *orig_loop, class loop *loop)
1470 : : {
1471 : 37966 : gimple *stmt;
1472 : :
1473 : 37966 : if (!op
1474 : 37966 : || is_gimple_min_invariant (op))
1475 : 33414 : return;
1476 : :
1477 : 4552 : gcc_assert (TREE_CODE (op) == SSA_NAME);
1478 : :
1479 : 4552 : stmt = SSA_NAME_DEF_STMT (op);
1480 : 4552 : if (gimple_nop_p (stmt))
1481 : : return;
1482 : :
1483 : 2860 : set_level (stmt, orig_loop, loop);
1484 : : }
1485 : :
1486 : : /* Forces statement defining invariants in REF (and *INDEX) to be moved out of
1487 : : the LOOP. The reference REF is used in the loop ORIG_LOOP. Callback for
1488 : : for_each_index. */
1489 : :
1490 : : struct fmt_data
1491 : : {
1492 : : class loop *loop;
1493 : : class loop *orig_loop;
1494 : : };
1495 : :
1496 : : static bool
1497 : 20146 : force_move_till (tree ref, tree *index, void *data)
1498 : : {
1499 : 20146 : struct fmt_data *fmt_data = (struct fmt_data *) data;
1500 : :
1501 : 20146 : if (TREE_CODE (ref) == ARRAY_REF)
1502 : : {
1503 : 8910 : tree step = TREE_OPERAND (ref, 3);
1504 : 8910 : tree lbound = TREE_OPERAND (ref, 2);
1505 : :
1506 : 8910 : force_move_till_op (step, fmt_data->orig_loop, fmt_data->loop);
1507 : 8910 : force_move_till_op (lbound, fmt_data->orig_loop, fmt_data->loop);
1508 : : }
1509 : :
1510 : 20146 : force_move_till_op (*index, fmt_data->orig_loop, fmt_data->loop);
1511 : :
1512 : 20146 : return true;
1513 : : }
1514 : :
1515 : : /* A function to free the mem_ref object OBJ. */
1516 : :
1517 : : static void
1518 : 5213735 : memref_free (class im_mem_ref *mem)
1519 : : {
1520 : 0 : mem->accesses_in_loop.release ();
1521 : 0 : }
1522 : :
1523 : : /* Allocates and returns a memory reference description for MEM whose hash
1524 : : value is HASH and id is ID. */
1525 : :
1526 : : static im_mem_ref *
1527 : 5213735 : mem_ref_alloc (ao_ref *mem, unsigned hash, unsigned id)
1528 : : {
1529 : 5213735 : im_mem_ref *ref = XOBNEW (&mem_ref_obstack, class im_mem_ref);
1530 : 5213735 : if (mem)
1531 : 4290168 : ref->mem = *mem;
1532 : : else
1533 : 923567 : ao_ref_init (&ref->mem, error_mark_node);
1534 : 5213735 : ref->id = id;
1535 : 5213735 : ref->ref_canonical = false;
1536 : 5213735 : ref->ref_decomposed = false;
1537 : 5213735 : ref->hash = hash;
1538 : 5213735 : ref->stored = NULL;
1539 : 5213735 : ref->loaded = NULL;
1540 : 5213735 : bitmap_initialize (&ref->dep_loop, &lim_bitmap_obstack);
1541 : 5213735 : ref->accesses_in_loop.create (1);
1542 : :
1543 : 5213735 : return ref;
1544 : : }
1545 : :
1546 : : /* Records memory reference location *LOC in LOOP to the memory reference
1547 : : description REF. The reference occurs in statement STMT. */
1548 : :
1549 : : static void
1550 : 5689480 : record_mem_ref_loc (im_mem_ref *ref, gimple *stmt, tree *loc)
1551 : : {
1552 : 5689480 : mem_ref_loc aref;
1553 : 5689480 : aref.stmt = stmt;
1554 : 5689480 : aref.ref = loc;
1555 : 0 : ref->accesses_in_loop.safe_push (aref);
1556 : 0 : }
1557 : :
1558 : : /* Set the LOOP bit in REF stored bitmap and allocate that if
1559 : : necessary. Return whether a bit was changed. */
1560 : :
1561 : : static bool
1562 : 4389302 : set_ref_stored_in_loop (im_mem_ref *ref, class loop *loop)
1563 : : {
1564 : 4389302 : if (!ref->stored)
1565 : 2493527 : ref->stored = BITMAP_ALLOC (&lim_bitmap_obstack);
1566 : 4389302 : return bitmap_set_bit (ref->stored, loop->num);
1567 : : }
1568 : :
1569 : : /* Marks reference REF as stored in LOOP. */
1570 : :
1571 : : static void
1572 : 3649380 : mark_ref_stored (im_mem_ref *ref, class loop *loop)
1573 : : {
1574 : 3649380 : while (loop != current_loops->tree_root
1575 : 7050492 : && set_ref_stored_in_loop (ref, loop))
1576 : 3401112 : loop = loop_outer (loop);
1577 : 3649380 : }
1578 : :
1579 : : /* Set the LOOP bit in REF loaded bitmap and allocate that if
1580 : : necessary. Return whether a bit was changed. */
1581 : :
1582 : : static bool
1583 : 6165143 : set_ref_loaded_in_loop (im_mem_ref *ref, class loop *loop)
1584 : : {
1585 : 6165143 : if (!ref->loaded)
1586 : 3363994 : ref->loaded = BITMAP_ALLOC (&lim_bitmap_obstack);
1587 : 6165143 : return bitmap_set_bit (ref->loaded, loop->num);
1588 : : }
1589 : :
1590 : : /* Marks reference REF as loaded in LOOP. */
1591 : :
1592 : : static void
1593 : 4886368 : mark_ref_loaded (im_mem_ref *ref, class loop *loop)
1594 : : {
1595 : 4886368 : while (loop != current_loops->tree_root
1596 : 9752296 : && set_ref_loaded_in_loop (ref, loop))
1597 : 4865928 : loop = loop_outer (loop);
1598 : 4886368 : }
1599 : :
1600 : : /* Gathers memory references in statement STMT in LOOP, storing the
1601 : : information about them in the memory_accesses structure. Marks
1602 : : the vops accessed through unrecognized statements there as
1603 : : well. */
1604 : :
1605 : : static void
1606 : 42508433 : gather_mem_refs_stmt (class loop *loop, gimple *stmt)
1607 : : {
1608 : 42508433 : tree *mem = NULL;
1609 : 42508433 : hashval_t hash;
1610 : 42508433 : im_mem_ref **slot;
1611 : 42508433 : im_mem_ref *ref;
1612 : 42508433 : bool is_stored;
1613 : 42508433 : unsigned id;
1614 : :
1615 : 58214923 : if (!gimple_vuse (stmt))
1616 : : return;
1617 : :
1618 : 6931777 : mem = simple_mem_ref_in_stmt (stmt, &is_stored);
1619 : 6931777 : if (!mem && is_gimple_assign (stmt))
1620 : : {
1621 : : /* For aggregate copies record distinct references but use them
1622 : : only for disambiguation purposes. */
1623 : 440531 : id = memory_accesses.refs_list.length ();
1624 : 440531 : ref = mem_ref_alloc (NULL, 0, id);
1625 : 440531 : memory_accesses.refs_list.safe_push (ref);
1626 : 440531 : if (dump_file && (dump_flags & TDF_DETAILS))
1627 : : {
1628 : 24 : fprintf (dump_file, "Unhandled memory reference %u: ", id);
1629 : 24 : print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
1630 : : }
1631 : 440531 : record_mem_ref_loc (ref, stmt, mem);
1632 : 881062 : is_stored = gimple_vdef (stmt);
1633 : : }
1634 : 6491246 : else if (!mem)
1635 : : {
1636 : : /* We use the shared mem_ref for all unanalyzable refs. */
1637 : 1242297 : id = UNANALYZABLE_MEM_ID;
1638 : 1242297 : ref = memory_accesses.refs_list[id];
1639 : 1242297 : if (dump_file && (dump_flags & TDF_DETAILS))
1640 : : {
1641 : 9 : fprintf (dump_file, "Unanalyzed memory reference %u: ", id);
1642 : 9 : print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
1643 : : }
1644 : 2484594 : is_stored = gimple_vdef (stmt);
1645 : : }
1646 : : else
1647 : : {
1648 : : /* We are looking for equal refs that might differ in structure
1649 : : such as a.b vs. MEM[&a + 4]. So we key off the ao_ref but
1650 : : make sure we can canonicalize the ref in the hashtable if
1651 : : non-operand_equal_p refs are found. For the lookup we mark
1652 : : the case we want strict equality with aor.max_size == -1. */
1653 : 5248949 : ao_ref aor;
1654 : 5248949 : ao_ref_init (&aor, *mem);
1655 : 5248949 : ao_ref_base (&aor);
1656 : 5248949 : ao_ref_alias_set (&aor);
1657 : 5248949 : HOST_WIDE_INT offset, size, max_size;
1658 : 5248949 : poly_int64 saved_maxsize = aor.max_size, mem_off;
1659 : 5248949 : tree mem_base;
1660 : 5248949 : bool ref_decomposed;
1661 : 5248949 : if (aor.max_size_known_p ()
1662 : 5076843 : && aor.offset.is_constant (&offset)
1663 : 5076843 : && aor.size.is_constant (&size)
1664 : 5076843 : && aor.max_size.is_constant (&max_size)
1665 : 5076843 : && size == max_size
1666 : 4469706 : && (size % BITS_PER_UNIT) == 0
1667 : : /* We're canonicalizing to a MEM where TYPE_SIZE specifies the
1668 : : size. Make sure this is consistent with the extraction. */
1669 : 4456482 : && poly_int_tree_p (TYPE_SIZE (TREE_TYPE (*mem)))
1670 : 4456482 : && known_eq (wi::to_poly_offset (TYPE_SIZE (TREE_TYPE (*mem))),
1671 : : aor.size)
1672 : 9705339 : && (mem_base = get_addr_base_and_unit_offset (aor.ref, &mem_off)))
1673 : : {
1674 : 4455347 : ref_decomposed = true;
1675 : 4455347 : tree base = ao_ref_base (&aor);
1676 : 4455347 : poly_int64 moffset;
1677 : 4455347 : HOST_WIDE_INT mcoffset;
1678 : 4455347 : if (TREE_CODE (base) == MEM_REF
1679 : 1984990 : && (mem_ref_offset (base) * BITS_PER_UNIT + offset).to_shwi (&moffset)
1680 : 4455347 : && moffset.is_constant (&mcoffset))
1681 : : {
1682 : 1984990 : hash = iterative_hash_expr (TREE_OPERAND (base, 0), 0);
1683 : 1984990 : hash = iterative_hash_host_wide_int (mcoffset, hash);
1684 : : }
1685 : : else
1686 : : {
1687 : 2470357 : hash = iterative_hash_expr (base, 0);
1688 : 2470357 : hash = iterative_hash_host_wide_int (offset, hash);
1689 : : }
1690 : 4455347 : hash = iterative_hash_host_wide_int (size, hash);
1691 : : }
1692 : : else
1693 : : {
1694 : 793602 : ref_decomposed = false;
1695 : 793602 : hash = iterative_hash_expr (aor.ref, 0);
1696 : 793602 : aor.max_size = -1;
1697 : : }
1698 : 5248949 : slot = memory_accesses.refs->find_slot_with_hash (&aor, hash, INSERT);
1699 : 5248949 : aor.max_size = saved_maxsize;
1700 : 5248949 : if (*slot)
1701 : : {
1702 : 958781 : if (!(*slot)->ref_canonical
1703 : 958781 : && !operand_equal_p (*mem, (*slot)->mem.ref, 0))
1704 : : {
1705 : : /* If we didn't yet canonicalize the hashtable ref (which
1706 : : we'll end up using for code insertion) and hit a second
1707 : : equal ref that is not structurally equivalent create
1708 : : a canonical ref which is a bare MEM_REF. */
1709 : 72175 : if (TREE_CODE (*mem) == MEM_REF
1710 : 72175 : || TREE_CODE (*mem) == TARGET_MEM_REF)
1711 : : {
1712 : 23746 : (*slot)->mem.ref = *mem;
1713 : 23746 : (*slot)->mem.base_alias_set = ao_ref_base_alias_set (&aor);
1714 : : }
1715 : : else
1716 : : {
1717 : 48429 : tree ref_alias_type = reference_alias_ptr_type (*mem);
1718 : 48429 : unsigned int ref_align = get_object_alignment (*mem);
1719 : 48429 : tree ref_type = TREE_TYPE (*mem);
1720 : 48429 : tree tmp = build1 (ADDR_EXPR, ptr_type_node,
1721 : : unshare_expr (mem_base));
1722 : 48429 : if (TYPE_ALIGN (ref_type) != ref_align)
1723 : 15881 : ref_type = build_aligned_type (ref_type, ref_align);
1724 : 48429 : tree new_ref
1725 : 48429 : = fold_build2 (MEM_REF, ref_type, tmp,
1726 : : build_int_cst (ref_alias_type, mem_off));
1727 : 48429 : if ((*slot)->mem.volatile_p)
1728 : 14 : TREE_THIS_VOLATILE (new_ref) = 1;
1729 : 48429 : (*slot)->mem.ref = new_ref;
1730 : : /* Make sure the recorded base and offset are consistent
1731 : : with the newly built ref. */
1732 : 48429 : if (TREE_CODE (TREE_OPERAND (new_ref, 0)) == ADDR_EXPR)
1733 : : ;
1734 : : else
1735 : : {
1736 : 24354 : (*slot)->mem.base = new_ref;
1737 : 24354 : (*slot)->mem.offset = 0;
1738 : : }
1739 : 48429 : gcc_checking_assert (TREE_CODE ((*slot)->mem.ref) == MEM_REF
1740 : : && is_gimple_mem_ref_addr
1741 : : (TREE_OPERAND ((*slot)->mem.ref,
1742 : : 0)));
1743 : 48429 : (*slot)->mem.base_alias_set = (*slot)->mem.ref_alias_set;
1744 : : }
1745 : 72175 : (*slot)->ref_canonical = true;
1746 : : }
1747 : 958781 : ref = *slot;
1748 : 958781 : id = ref->id;
1749 : : }
1750 : : else
1751 : : {
1752 : 4290168 : id = memory_accesses.refs_list.length ();
1753 : 4290168 : ref = mem_ref_alloc (&aor, hash, id);
1754 : 4290168 : ref->ref_decomposed = ref_decomposed;
1755 : 4290168 : memory_accesses.refs_list.safe_push (ref);
1756 : 4290168 : *slot = ref;
1757 : :
1758 : 4290168 : if (dump_file && (dump_flags & TDF_DETAILS))
1759 : : {
1760 : 487 : fprintf (dump_file, "Memory reference %u: ", id);
1761 : 487 : print_generic_expr (dump_file, ref->mem.ref, TDF_SLIM);
1762 : 487 : fprintf (dump_file, "\n");
1763 : : }
1764 : : }
1765 : :
1766 : 5248949 : record_mem_ref_loc (ref, stmt, mem);
1767 : : }
1768 : 6931777 : if (is_stored)
1769 : : {
1770 : 3649380 : bitmap_set_bit (&memory_accesses.refs_stored_in_loop[loop->num], ref->id);
1771 : 3649380 : mark_ref_stored (ref, loop);
1772 : : }
1773 : : /* A not simple memory op is also a read when it is a write. */
1774 : 6931777 : if (!is_stored || id == UNANALYZABLE_MEM_ID
1775 : 2485940 : || ref->mem.ref == error_mark_node)
1776 : : {
1777 : 4886368 : bitmap_set_bit (&memory_accesses.refs_loaded_in_loop[loop->num], ref->id);
1778 : 4886368 : mark_ref_loaded (ref, loop);
1779 : : }
1780 : 6931777 : init_lim_data (stmt)->ref = ref->id;
1781 : 6931777 : return;
1782 : : }
1783 : :
1784 : : static unsigned *bb_loop_postorder;
1785 : :
1786 : : /* qsort sort function to sort blocks after their loop fathers postorder. */
1787 : :
1788 : : static int
1789 : 161026040 : sort_bbs_in_loop_postorder_cmp (const void *bb1_, const void *bb2_,
1790 : : void *bb_loop_postorder_)
1791 : : {
1792 : 161026040 : unsigned *bb_loop_postorder = (unsigned *)bb_loop_postorder_;
1793 : 161026040 : basic_block bb1 = *(const basic_block *)bb1_;
1794 : 161026040 : basic_block bb2 = *(const basic_block *)bb2_;
1795 : 161026040 : class loop *loop1 = bb1->loop_father;
1796 : 161026040 : class loop *loop2 = bb2->loop_father;
1797 : 161026040 : if (loop1->num == loop2->num)
1798 : 76742911 : return bb1->index - bb2->index;
1799 : 84283129 : return bb_loop_postorder[loop1->num] < bb_loop_postorder[loop2->num] ? -1 : 1;
1800 : : }
1801 : :
1802 : : /* qsort sort function to sort ref locs after their loop fathers postorder. */
1803 : :
1804 : : static int
1805 : 958766 : sort_locs_in_loop_postorder_cmp (const void *loc1_, const void *loc2_,
1806 : : void *bb_loop_postorder_)
1807 : : {
1808 : 958766 : unsigned *bb_loop_postorder = (unsigned *)bb_loop_postorder_;
1809 : 958766 : const mem_ref_loc *loc1 = (const mem_ref_loc *)loc1_;
1810 : 958766 : const mem_ref_loc *loc2 = (const mem_ref_loc *)loc2_;
1811 : 958766 : class loop *loop1 = gimple_bb (loc1->stmt)->loop_father;
1812 : 958766 : class loop *loop2 = gimple_bb (loc2->stmt)->loop_father;
1813 : 958766 : if (loop1->num == loop2->num)
1814 : : return 0;
1815 : 147905 : return bb_loop_postorder[loop1->num] < bb_loop_postorder[loop2->num] ? -1 : 1;
1816 : : }
1817 : :
1818 : : /* Gathers memory references in loops. */
1819 : :
1820 : : static void
1821 : 483036 : analyze_memory_references (bool store_motion)
1822 : : {
1823 : 483036 : gimple_stmt_iterator bsi;
1824 : 483036 : basic_block bb, *bbs;
1825 : 483036 : class loop *outer;
1826 : 483036 : unsigned i, n;
1827 : :
1828 : : /* Collect all basic-blocks in loops and sort them after their
1829 : : loops postorder. */
1830 : 483036 : i = 0;
1831 : 483036 : bbs = XNEWVEC (basic_block, n_basic_blocks_for_fn (cfun) - NUM_FIXED_BLOCKS);
1832 : 15335640 : FOR_EACH_BB_FN (bb, cfun)
1833 : 14852604 : if (bb->loop_father != current_loops->tree_root)
1834 : 6135854 : bbs[i++] = bb;
1835 : 483036 : n = i;
1836 : 483036 : gcc_sort_r (bbs, n, sizeof (basic_block), sort_bbs_in_loop_postorder_cmp,
1837 : : bb_loop_postorder);
1838 : :
1839 : : /* Visit blocks in loop postorder and assign mem-ref IDs in that order.
1840 : : That results in better locality for all the bitmaps. It also
1841 : : automatically sorts the location list of gathered memory references
1842 : : after their loop postorder number allowing to binary-search it. */
1843 : 6618890 : for (i = 0; i < n; ++i)
1844 : : {
1845 : 6135854 : basic_block bb = bbs[i];
1846 : 54780141 : for (bsi = gsi_start_bb (bb); !gsi_end_p (bsi); gsi_next (&bsi))
1847 : 42508433 : gather_mem_refs_stmt (bb->loop_father, gsi_stmt (bsi));
1848 : : }
1849 : :
1850 : : /* Verify the list of gathered memory references is sorted after their
1851 : : loop postorder number. */
1852 : 483036 : if (flag_checking)
1853 : : {
1854 : : im_mem_ref *ref;
1855 : 10910434 : FOR_EACH_VEC_ELT (memory_accesses.refs_list, i, ref)
1856 : 6172471 : for (unsigned j = 1; j < ref->accesses_in_loop.length (); ++j)
1857 : 958766 : gcc_assert (sort_locs_in_loop_postorder_cmp
1858 : : (&ref->accesses_in_loop[j-1], &ref->accesses_in_loop[j],
1859 : : bb_loop_postorder) <= 0);
1860 : : }
1861 : :
1862 : 483036 : free (bbs);
1863 : :
1864 : 483036 : if (!store_motion)
1865 : 483036 : return;
1866 : :
1867 : : /* Propagate the information about accessed memory references up
1868 : : the loop hierarchy. */
1869 : 2775823 : for (auto loop : loops_list (cfun, LI_FROM_INNERMOST))
1870 : : {
1871 : : /* Finalize the overall touched references (including subloops). */
1872 : 1327048 : bitmap_ior_into (&memory_accesses.all_refs_stored_in_loop[loop->num],
1873 : 1327048 : &memory_accesses.refs_stored_in_loop[loop->num]);
1874 : :
1875 : : /* Propagate the information about accessed memory references up
1876 : : the loop hierarchy. */
1877 : 1327048 : outer = loop_outer (loop);
1878 : 1327048 : if (outer == current_loops->tree_root)
1879 : 1018985 : continue;
1880 : :
1881 : 308063 : bitmap_ior_into (&memory_accesses.all_refs_stored_in_loop[outer->num],
1882 : 308063 : &memory_accesses.all_refs_stored_in_loop[loop->num]);
1883 : 482925 : }
1884 : : }
1885 : :
1886 : : /* Returns true if MEM1 and MEM2 may alias. TTAE_CACHE is used as a cache in
1887 : : tree_to_aff_combination_expand. */
1888 : :
1889 : : static bool
1890 : 547949 : mem_refs_may_alias_p (im_mem_ref *mem1, im_mem_ref *mem2,
1891 : : hash_map<tree, name_expansion *> **ttae_cache,
1892 : : bool tbaa_p)
1893 : : {
1894 : 547949 : gcc_checking_assert (mem1->mem.ref != error_mark_node
1895 : : && mem2->mem.ref != error_mark_node);
1896 : :
1897 : : /* Perform BASE + OFFSET analysis -- if MEM1 and MEM2 are based on the same
1898 : : object and their offset differ in such a way that the locations cannot
1899 : : overlap, then they cannot alias. */
1900 : : poly_widest_int size1, size2;
1901 : 1095898 : aff_tree off1, off2;
1902 : :
1903 : : /* Perform basic offset and type-based disambiguation. */
1904 : 547949 : if (!refs_may_alias_p_1 (&mem1->mem, &mem2->mem, tbaa_p))
1905 : : return false;
1906 : :
1907 : : /* The expansion of addresses may be a bit expensive, thus we only do
1908 : : the check at -O2 and higher optimization levels. */
1909 : 68598 : if (optimize < 2)
1910 : : return true;
1911 : :
1912 : 59134 : get_inner_reference_aff (mem1->mem.ref, &off1, &size1);
1913 : 59134 : get_inner_reference_aff (mem2->mem.ref, &off2, &size2);
1914 : 59134 : aff_combination_expand (&off1, ttae_cache);
1915 : 59134 : aff_combination_expand (&off2, ttae_cache);
1916 : 59134 : aff_combination_scale (&off1, -1);
1917 : 59134 : aff_combination_add (&off2, &off1);
1918 : :
1919 : 59134 : if (aff_comb_cannot_overlap_p (&off2, size1, size2))
1920 : : return false;
1921 : :
1922 : : return true;
1923 : 547949 : }
1924 : :
1925 : : /* Compare function for bsearch searching for reference locations
1926 : : in a loop. */
1927 : :
1928 : : static int
1929 : 264306 : find_ref_loc_in_loop_cmp (const void *loop_, const void *loc_,
1930 : : void *bb_loop_postorder_)
1931 : : {
1932 : 264306 : unsigned *bb_loop_postorder = (unsigned *)bb_loop_postorder_;
1933 : 264306 : class loop *loop = (class loop *)const_cast<void *>(loop_);
1934 : 264306 : mem_ref_loc *loc = (mem_ref_loc *)const_cast<void *>(loc_);
1935 : 264306 : class loop *loc_loop = gimple_bb (loc->stmt)->loop_father;
1936 : 264306 : if (loop->num == loc_loop->num
1937 : 264306 : || flow_loop_nested_p (loop, loc_loop))
1938 : 202828 : return 0;
1939 : 61478 : return (bb_loop_postorder[loop->num] < bb_loop_postorder[loc_loop->num]
1940 : 61478 : ? -1 : 1);
1941 : : }
1942 : :
1943 : : /* Iterates over all locations of REF in LOOP and its subloops calling
1944 : : fn.operator() with the location as argument. When that operator
1945 : : returns true the iteration is stopped and true is returned.
1946 : : Otherwise false is returned. */
1947 : :
1948 : : template <typename FN>
1949 : : static bool
1950 : 202828 : for_all_locs_in_loop (class loop *loop, im_mem_ref *ref, FN fn)
1951 : : {
1952 : : unsigned i;
1953 : : mem_ref_loc *loc;
1954 : :
1955 : : /* Search for the cluster of locs in the accesses_in_loop vector
1956 : : which is sorted after postorder index of the loop father. */
1957 : 202828 : loc = ref->accesses_in_loop.bsearch (loop, find_ref_loc_in_loop_cmp,
1958 : : bb_loop_postorder);
1959 : 202828 : if (!loc)
1960 : 0 : return false;
1961 : :
1962 : : /* We have found one location inside loop or its sub-loops. Iterate
1963 : : both forward and backward to cover the whole cluster. */
1964 : 202828 : i = loc - ref->accesses_in_loop.address ();
1965 : 280296 : while (i > 0)
1966 : : {
1967 : 136615 : --i;
1968 : 136615 : mem_ref_loc *l = &ref->accesses_in_loop[i];
1969 : 136615 : if (!flow_bb_inside_loop_p (loop, gimple_bb (l->stmt)))
1970 : : break;
1971 : 112630 : if (fn (l))
1972 : : return true;
1973 : : }
1974 : 459646 : for (i = loc - ref->accesses_in_loop.address ();
1975 : 291980 : i < ref->accesses_in_loop.length (); ++i)
1976 : : {
1977 : 218251 : mem_ref_loc *l = &ref->accesses_in_loop[i];
1978 : 218251 : if (!flow_bb_inside_loop_p (loop, gimple_bb (l->stmt)))
1979 : : break;
1980 : 197700 : if (fn (l))
1981 : : return true;
1982 : : }
1983 : :
1984 : : return false;
1985 : : }
1986 : :
1987 : : /* Rewrites location LOC by TMP_VAR. */
1988 : :
1989 : : class rewrite_mem_ref_loc
1990 : : {
1991 : : public:
1992 : 34548 : rewrite_mem_ref_loc (tree tmp_var_) : tmp_var (tmp_var_) {}
1993 : : bool operator () (mem_ref_loc *loc);
1994 : : tree tmp_var;
1995 : : };
1996 : :
1997 : : bool
1998 : 55243 : rewrite_mem_ref_loc::operator () (mem_ref_loc *loc)
1999 : : {
2000 : 55243 : *loc->ref = tmp_var;
2001 : 55243 : update_stmt (loc->stmt);
2002 : 55243 : return false;
2003 : : }
2004 : :
2005 : : /* Rewrites all references to REF in LOOP by variable TMP_VAR. */
2006 : :
2007 : : static void
2008 : 34548 : rewrite_mem_refs (class loop *loop, im_mem_ref *ref, tree tmp_var)
2009 : : {
2010 : 0 : for_all_locs_in_loop (loop, ref, rewrite_mem_ref_loc (tmp_var));
2011 : 0 : }
2012 : :
2013 : : /* Stores the first reference location in LOCP. */
2014 : :
2015 : : class first_mem_ref_loc_1
2016 : : {
2017 : : public:
2018 : 34548 : first_mem_ref_loc_1 (mem_ref_loc **locp_) : locp (locp_) {}
2019 : : bool operator () (mem_ref_loc *loc);
2020 : : mem_ref_loc **locp;
2021 : : };
2022 : :
2023 : : bool
2024 : 34548 : first_mem_ref_loc_1::operator () (mem_ref_loc *loc)
2025 : : {
2026 : 34548 : *locp = loc;
2027 : 34548 : return true;
2028 : : }
2029 : :
2030 : : /* Returns the first reference location to REF in LOOP. */
2031 : :
2032 : : static mem_ref_loc *
2033 : 34548 : first_mem_ref_loc (class loop *loop, im_mem_ref *ref)
2034 : : {
2035 : 34548 : mem_ref_loc *locp = NULL;
2036 : 0 : for_all_locs_in_loop (loop, ref, first_mem_ref_loc_1 (&locp));
2037 : 34548 : return locp;
2038 : : }
2039 : :
2040 : : /* Helper function for execute_sm. Emit code to store TMP_VAR into
2041 : : MEM along edge EX.
2042 : :
2043 : : The store is only done if MEM has changed. We do this so no
2044 : : changes to MEM occur on code paths that did not originally store
2045 : : into it.
2046 : :
2047 : : The common case for execute_sm will transform:
2048 : :
2049 : : for (...) {
2050 : : if (foo)
2051 : : stuff;
2052 : : else
2053 : : MEM = TMP_VAR;
2054 : : }
2055 : :
2056 : : into:
2057 : :
2058 : : lsm = MEM;
2059 : : for (...) {
2060 : : if (foo)
2061 : : stuff;
2062 : : else
2063 : : lsm = TMP_VAR;
2064 : : }
2065 : : MEM = lsm;
2066 : :
2067 : : This function will generate:
2068 : :
2069 : : lsm = MEM;
2070 : :
2071 : : lsm_flag = false;
2072 : : ...
2073 : : for (...) {
2074 : : if (foo)
2075 : : stuff;
2076 : : else {
2077 : : lsm = TMP_VAR;
2078 : : lsm_flag = true;
2079 : : }
2080 : : }
2081 : : if (lsm_flag) <--
2082 : : MEM = lsm; <-- (X)
2083 : :
2084 : : In case MEM and TMP_VAR are NULL the function will return the then
2085 : : block so the caller can insert (X) and other related stmts.
2086 : : */
2087 : :
2088 : : static basic_block
2089 : 15366 : execute_sm_if_changed (edge ex, tree mem, tree tmp_var, tree flag,
2090 : : edge preheader, hash_set <basic_block> *flag_bbs,
2091 : : edge &append_cond_position, edge &last_cond_fallthru)
2092 : : {
2093 : 15366 : basic_block new_bb, then_bb, old_dest;
2094 : 15366 : bool loop_has_only_one_exit;
2095 : 15366 : edge then_old_edge;
2096 : 15366 : gimple_stmt_iterator gsi;
2097 : 15366 : gimple *stmt;
2098 : 15366 : bool irr = ex->flags & EDGE_IRREDUCIBLE_LOOP;
2099 : :
2100 : 15366 : profile_count count_sum = profile_count::zero ();
2101 : 15366 : int nbbs = 0, ncount = 0;
2102 : 15366 : profile_probability flag_probability = profile_probability::uninitialized ();
2103 : :
2104 : : /* Flag is set in FLAG_BBS. Determine probability that flag will be true
2105 : : at loop exit.
2106 : :
2107 : : This code may look fancy, but it cannot update profile very realistically
2108 : : because we do not know the probability that flag will be true at given
2109 : : loop exit.
2110 : :
2111 : : We look for two interesting extremes
2112 : : - when exit is dominated by block setting the flag, we know it will
2113 : : always be true. This is a common case.
2114 : : - when all blocks setting the flag have very low frequency we know
2115 : : it will likely be false.
2116 : : In all other cases we default to 2/3 for flag being true. */
2117 : :
2118 : 15366 : for (hash_set<basic_block>::iterator it = flag_bbs->begin ();
2119 : 51078 : it != flag_bbs->end (); ++it)
2120 : : {
2121 : 17856 : if ((*it)->count.initialized_p ())
2122 : 17843 : count_sum += (*it)->count, ncount ++;
2123 : 17856 : if (dominated_by_p (CDI_DOMINATORS, ex->src, *it))
2124 : 2276 : flag_probability = profile_probability::always ();
2125 : 17856 : nbbs++;
2126 : : }
2127 : :
2128 : 15366 : profile_probability cap
2129 : 15366 : = profile_probability::guessed_always ().apply_scale (2, 3);
2130 : :
2131 : 15366 : if (flag_probability.initialized_p ())
2132 : : ;
2133 : 13133 : else if (ncount == nbbs
2134 : 26627 : && preheader->count () >= count_sum && preheader->count ().nonzero_p ())
2135 : : {
2136 : 190 : flag_probability = count_sum.probability_in (preheader->count ());
2137 : 190 : if (flag_probability > cap)
2138 : 62 : flag_probability = cap;
2139 : : }
2140 : :
2141 : 15366 : if (!flag_probability.initialized_p ())
2142 : 12943 : flag_probability = cap;
2143 : :
2144 : : /* ?? Insert store after previous store if applicable. See note
2145 : : below. */
2146 : 15366 : if (append_cond_position)
2147 : 6167 : ex = append_cond_position;
2148 : :
2149 : 15366 : loop_has_only_one_exit = single_pred_p (ex->dest);
2150 : :
2151 : 15366 : if (loop_has_only_one_exit)
2152 : 6384 : ex = split_block_after_labels (ex->dest);
2153 : : else
2154 : : {
2155 : 8982 : for (gphi_iterator gpi = gsi_start_phis (ex->dest);
2156 : 12735 : !gsi_end_p (gpi); gsi_next (&gpi))
2157 : : {
2158 : 4482 : gphi *phi = gpi.phi ();
2159 : 8964 : if (virtual_operand_p (gimple_phi_result (phi)))
2160 : 3753 : continue;
2161 : :
2162 : : /* When the destination has a non-virtual PHI node with multiple
2163 : : predecessors make sure we preserve the PHI structure by
2164 : : forcing a forwarder block so that hoisting of that PHI will
2165 : : still work. */
2166 : 729 : split_edge (ex);
2167 : 729 : break;
2168 : : }
2169 : : }
2170 : :
2171 : 15366 : old_dest = ex->dest;
2172 : 15366 : new_bb = split_edge (ex);
2173 : 15366 : if (append_cond_position)
2174 : 6167 : new_bb->count += last_cond_fallthru->count ();
2175 : 15366 : then_bb = create_empty_bb (new_bb);
2176 : 15366 : then_bb->count = new_bb->count.apply_probability (flag_probability);
2177 : 15366 : if (irr)
2178 : 49 : then_bb->flags = BB_IRREDUCIBLE_LOOP;
2179 : 15366 : add_bb_to_loop (then_bb, new_bb->loop_father);
2180 : :
2181 : 15366 : gsi = gsi_start_bb (new_bb);
2182 : 15366 : stmt = gimple_build_cond (NE_EXPR, flag, boolean_false_node,
2183 : : NULL_TREE, NULL_TREE);
2184 : 15366 : gsi_insert_after (&gsi, stmt, GSI_CONTINUE_LINKING);
2185 : :
2186 : : /* Insert actual store. */
2187 : 15366 : if (mem)
2188 : : {
2189 : 12917 : gsi = gsi_start_bb (then_bb);
2190 : 12917 : stmt = gimple_build_assign (unshare_expr (mem), tmp_var);
2191 : 12917 : gsi_insert_after (&gsi, stmt, GSI_CONTINUE_LINKING);
2192 : : }
2193 : :
2194 : 15366 : edge e1 = single_succ_edge (new_bb);
2195 : 30683 : edge e2 = make_edge (new_bb, then_bb,
2196 : : EDGE_TRUE_VALUE | (irr ? EDGE_IRREDUCIBLE_LOOP : 0));
2197 : 15366 : e2->probability = flag_probability;
2198 : :
2199 : 15366 : e1->flags |= EDGE_FALSE_VALUE | (irr ? EDGE_IRREDUCIBLE_LOOP : 0);
2200 : 15366 : e1->flags &= ~EDGE_FALLTHRU;
2201 : :
2202 : 15366 : e1->probability = flag_probability.invert ();
2203 : :
2204 : 30683 : then_old_edge = make_single_succ_edge (then_bb, old_dest,
2205 : : EDGE_FALLTHRU | (irr ? EDGE_IRREDUCIBLE_LOOP : 0));
2206 : :
2207 : 15366 : set_immediate_dominator (CDI_DOMINATORS, then_bb, new_bb);
2208 : :
2209 : 15366 : if (append_cond_position)
2210 : : {
2211 : 6167 : basic_block prevbb = last_cond_fallthru->src;
2212 : 6167 : redirect_edge_succ (last_cond_fallthru, new_bb);
2213 : 6167 : set_immediate_dominator (CDI_DOMINATORS, new_bb, prevbb);
2214 : 6167 : set_immediate_dominator (CDI_DOMINATORS, old_dest,
2215 : : recompute_dominator (CDI_DOMINATORS, old_dest));
2216 : : }
2217 : :
2218 : : /* ?? Because stores may alias, they must happen in the exact
2219 : : sequence they originally happened. Save the position right after
2220 : : the (_lsm) store we just created so we can continue appending after
2221 : : it and maintain the original order. */
2222 : 15366 : append_cond_position = then_old_edge;
2223 : 15366 : last_cond_fallthru = find_edge (new_bb, old_dest);
2224 : :
2225 : 15366 : if (!loop_has_only_one_exit)
2226 : 8982 : for (gphi_iterator gpi = gsi_start_phis (old_dest);
2227 : 12628 : !gsi_end_p (gpi); gsi_next (&gpi))
2228 : : {
2229 : 3646 : gphi *phi = gpi.phi ();
2230 : 3646 : unsigned i;
2231 : :
2232 : 20425 : for (i = 0; i < gimple_phi_num_args (phi); i++)
2233 : 16779 : if (gimple_phi_arg_edge (phi, i)->src == new_bb)
2234 : : {
2235 : 3646 : tree arg = gimple_phi_arg_def (phi, i);
2236 : 3646 : add_phi_arg (phi, arg, then_old_edge, UNKNOWN_LOCATION);
2237 : 3646 : update_stmt (phi);
2238 : : }
2239 : : }
2240 : :
2241 : 15366 : return then_bb;
2242 : : }
2243 : :
2244 : : /* When REF is set on the location, set flag indicating the store. */
2245 : :
2246 : : class sm_set_flag_if_changed
2247 : : {
2248 : : public:
2249 : 8028 : sm_set_flag_if_changed (tree flag_, hash_set <basic_block> *bbs_)
2250 : 8028 : : flag (flag_), bbs (bbs_) {}
2251 : : bool operator () (mem_ref_loc *loc);
2252 : : tree flag;
2253 : : hash_set <basic_block> *bbs;
2254 : : };
2255 : :
2256 : : bool
2257 : 15306 : sm_set_flag_if_changed::operator () (mem_ref_loc *loc)
2258 : : {
2259 : : /* Only set the flag for writes. */
2260 : 15306 : if (is_gimple_assign (loc->stmt)
2261 : 15306 : && gimple_assign_lhs_ptr (loc->stmt) == loc->ref)
2262 : : {
2263 : 9210 : gimple_stmt_iterator gsi = gsi_for_stmt (loc->stmt);
2264 : 9210 : gimple *stmt = gimple_build_assign (flag, boolean_true_node);
2265 : 9210 : gsi_insert_after (&gsi, stmt, GSI_CONTINUE_LINKING);
2266 : 9210 : bbs->add (gimple_bb (stmt));
2267 : : }
2268 : 15306 : return false;
2269 : : }
2270 : :
2271 : : /* Helper function for execute_sm. On every location where REF is
2272 : : set, set an appropriate flag indicating the store. */
2273 : :
2274 : : static tree
2275 : 8028 : execute_sm_if_changed_flag_set (class loop *loop, im_mem_ref *ref,
2276 : : hash_set <basic_block> *bbs)
2277 : : {
2278 : 8028 : tree flag;
2279 : 8028 : char *str = get_lsm_tmp_name (ref->mem.ref, ~0, "_flag");
2280 : 8028 : flag = create_tmp_reg (boolean_type_node, str);
2281 : 8028 : for_all_locs_in_loop (loop, ref, sm_set_flag_if_changed (flag, bbs));
2282 : 8028 : return flag;
2283 : : }
2284 : :
2285 : 34548 : struct sm_aux
2286 : : {
2287 : : tree tmp_var;
2288 : : tree store_flag;
2289 : : hash_set <basic_block> flag_bbs;
2290 : : };
2291 : :
2292 : : /* Executes store motion of memory reference REF from LOOP.
2293 : : Exits from the LOOP are stored in EXITS. The initialization of the
2294 : : temporary variable is put to the preheader of the loop, and assignments
2295 : : to the reference from the temporary variable are emitted to exits. */
2296 : :
2297 : : static sm_aux *
2298 : 34548 : execute_sm (class loop *loop, im_mem_ref *ref,
2299 : : hash_map<im_mem_ref *, sm_aux *> &aux_map, bool maybe_mt,
2300 : : bool use_other_flag_var)
2301 : : {
2302 : 34548 : gassign *load;
2303 : 34548 : struct fmt_data fmt_data;
2304 : 34548 : struct lim_aux_data *lim_data;
2305 : 34548 : bool multi_threaded_model_p = false;
2306 : 34548 : gimple_stmt_iterator gsi;
2307 : 34548 : sm_aux *aux = new sm_aux;
2308 : :
2309 : 34548 : if (dump_file && (dump_flags & TDF_DETAILS))
2310 : : {
2311 : 82 : fprintf (dump_file, "Executing store motion of ");
2312 : 82 : print_generic_expr (dump_file, ref->mem.ref);
2313 : 82 : fprintf (dump_file, " from loop %d\n", loop->num);
2314 : : }
2315 : :
2316 : 34548 : aux->tmp_var = create_tmp_reg (TREE_TYPE (ref->mem.ref),
2317 : 34548 : get_lsm_tmp_name (ref->mem.ref, ~0));
2318 : :
2319 : 34548 : fmt_data.loop = loop;
2320 : 34548 : fmt_data.orig_loop = loop;
2321 : 34548 : for_each_index (&ref->mem.ref, force_move_till, &fmt_data);
2322 : :
2323 : 69096 : bool always_stored = ref_always_accessed_p (loop, ref, true);
2324 : 34548 : if (maybe_mt
2325 : 11844 : && (bb_in_transaction (loop_preheader_edge (loop)->src)
2326 : 11843 : || (ref_can_have_store_data_races (ref->mem.ref) && ! always_stored)))
2327 : : multi_threaded_model_p = true;
2328 : :
2329 : 34548 : if (multi_threaded_model_p && !use_other_flag_var)
2330 : 8028 : aux->store_flag
2331 : 8028 : = execute_sm_if_changed_flag_set (loop, ref, &aux->flag_bbs);
2332 : : else
2333 : 26520 : aux->store_flag = NULL_TREE;
2334 : :
2335 : : /* Remember variable setup. */
2336 : 34548 : aux_map.put (ref, aux);
2337 : :
2338 : 34548 : rewrite_mem_refs (loop, ref, aux->tmp_var);
2339 : :
2340 : : /* Emit the load code on a random exit edge or into the latch if
2341 : : the loop does not exit, so that we are sure it will be processed
2342 : : by move_computations after all dependencies. */
2343 : 34548 : gsi = gsi_for_stmt (first_mem_ref_loc (loop, ref)->stmt);
2344 : :
2345 : : /* Avoid doing a load if there was no load of the ref in the loop.
2346 : : Esp. when the ref is not always stored we cannot optimize it
2347 : : away later. But when it is not always stored we must use a conditional
2348 : : store then. */
2349 : 34548 : if ((!always_stored && !multi_threaded_model_p)
2350 : 34548 : || (ref->loaded && bitmap_bit_p (ref->loaded, loop->num)))
2351 : 18076 : load = gimple_build_assign (aux->tmp_var, unshare_expr (ref->mem.ref));
2352 : : else
2353 : : {
2354 : : /* If not emitting a load mark the uninitialized state on the
2355 : : loop entry as not to be warned for. */
2356 : 16472 : tree uninit = create_tmp_reg (TREE_TYPE (aux->tmp_var));
2357 : 16472 : suppress_warning (uninit, OPT_Wuninitialized);
2358 : 16472 : uninit = get_or_create_ssa_default_def (cfun, uninit);
2359 : 16472 : load = gimple_build_assign (aux->tmp_var, uninit);
2360 : : }
2361 : 34548 : lim_data = init_lim_data (load);
2362 : 34548 : lim_data->max_loop = loop;
2363 : 34548 : lim_data->tgt_loop = loop;
2364 : 34548 : gsi_insert_before (&gsi, load, GSI_SAME_STMT);
2365 : :
2366 : 34548 : if (aux->store_flag)
2367 : : {
2368 : 8028 : load = gimple_build_assign (aux->store_flag, boolean_false_node);
2369 : 8028 : lim_data = init_lim_data (load);
2370 : 8028 : lim_data->max_loop = loop;
2371 : 8028 : lim_data->tgt_loop = loop;
2372 : 8028 : gsi_insert_before (&gsi, load, GSI_SAME_STMT);
2373 : : }
2374 : :
2375 : 34548 : return aux;
2376 : : }
2377 : :
2378 : : /* sm_ord is used for ordinary stores we can retain order with respect
2379 : : to other stores
2380 : : sm_unord is used for conditional executed stores which need to be
2381 : : able to execute in arbitrary order with respect to other stores
2382 : : sm_other is used for stores we do not try to apply store motion to. */
2383 : : enum sm_kind { sm_ord, sm_unord, sm_other };
2384 : : struct seq_entry
2385 : : {
2386 : : seq_entry () = default;
2387 : 52586 : seq_entry (unsigned f, sm_kind k, tree fr = NULL)
2388 : 52586 : : first (f), second (k), from (fr) {}
2389 : : unsigned first;
2390 : : sm_kind second;
2391 : : tree from;
2392 : : };
2393 : :
2394 : : static void
2395 : 33503 : execute_sm_exit (class loop *loop, edge ex, vec<seq_entry> &seq,
2396 : : hash_map<im_mem_ref *, sm_aux *> &aux_map, sm_kind kind,
2397 : : edge &append_cond_position, edge &last_cond_fallthru,
2398 : : bitmap clobbers_to_prune)
2399 : : {
2400 : : /* Sink the stores to exit from the loop. */
2401 : 117240 : for (unsigned i = seq.length (); i > 0; --i)
2402 : : {
2403 : 50234 : im_mem_ref *ref = memory_accesses.refs_list[seq[i-1].first];
2404 : 50234 : if (seq[i-1].second == sm_other)
2405 : : {
2406 : 5023 : gcc_assert (kind == sm_ord && seq[i-1].from != NULL_TREE);
2407 : 5023 : gassign *store;
2408 : 5023 : if (ref->mem.ref == error_mark_node)
2409 : : {
2410 : 148 : tree lhs = gimple_assign_lhs (ref->accesses_in_loop[0].stmt);
2411 : 148 : if (dump_file && (dump_flags & TDF_DETAILS))
2412 : : {
2413 : 3 : fprintf (dump_file, "Re-issueing dependent ");
2414 : 3 : print_generic_expr (dump_file, unshare_expr (seq[i-1].from));
2415 : 3 : fprintf (dump_file, " of ");
2416 : 3 : print_generic_expr (dump_file, lhs);
2417 : 3 : fprintf (dump_file, " from loop %d on exit %d -> %d\n",
2418 : 3 : loop->num, ex->src->index, ex->dest->index);
2419 : : }
2420 : 148 : store = gimple_build_assign (unshare_expr (lhs),
2421 : 148 : unshare_expr (seq[i-1].from));
2422 : 148 : bitmap_set_bit (clobbers_to_prune, seq[i-1].first);
2423 : : }
2424 : : else
2425 : : {
2426 : 4875 : if (dump_file && (dump_flags & TDF_DETAILS))
2427 : : {
2428 : 0 : fprintf (dump_file, "Re-issueing dependent store of ");
2429 : 0 : print_generic_expr (dump_file, ref->mem.ref);
2430 : 0 : fprintf (dump_file, " from loop %d on exit %d -> %d\n",
2431 : 0 : loop->num, ex->src->index, ex->dest->index);
2432 : : }
2433 : 4875 : store = gimple_build_assign (unshare_expr (ref->mem.ref),
2434 : 4875 : seq[i-1].from);
2435 : : }
2436 : 5023 : gsi_insert_on_edge (ex, store);
2437 : : }
2438 : : else
2439 : : {
2440 : 45211 : sm_aux *aux = *aux_map.get (ref);
2441 : 45211 : if (!aux->store_flag || kind == sm_ord)
2442 : : {
2443 : 32294 : gassign *store;
2444 : 32294 : store = gimple_build_assign (unshare_expr (ref->mem.ref),
2445 : : aux->tmp_var);
2446 : 32294 : gsi_insert_on_edge (ex, store);
2447 : 32294 : }
2448 : : else
2449 : 12917 : execute_sm_if_changed (ex, ref->mem.ref, aux->tmp_var,
2450 : : aux->store_flag,
2451 : : loop_preheader_edge (loop), &aux->flag_bbs,
2452 : : append_cond_position, last_cond_fallthru);
2453 : : }
2454 : : }
2455 : 33503 : }
2456 : :
2457 : : /* Push the SM candidate at index PTR in the sequence SEQ down until
2458 : : we hit the next SM candidate. Return true if that went OK and
2459 : : false if we could not disambiguate agains another unrelated ref.
2460 : : Update *AT to the index where the candidate now resides. */
2461 : :
2462 : : static bool
2463 : 36750 : sm_seq_push_down (vec<seq_entry> &seq, unsigned ptr, unsigned *at)
2464 : : {
2465 : 36750 : *at = ptr;
2466 : 37594 : for (; ptr > 0; --ptr)
2467 : : {
2468 : 16996 : seq_entry &new_cand = seq[ptr];
2469 : 16996 : seq_entry &against = seq[ptr-1];
2470 : 16996 : if (against.second == sm_ord
2471 : 5960 : || (against.second == sm_other && against.from != NULL_TREE))
2472 : : /* Found the tail of the sequence. */
2473 : : break;
2474 : : /* We may not ignore self-dependences here. */
2475 : 1185 : if (new_cand.first == against.first
2476 : : /* ??? We could actually handle clobbers here, but not easily
2477 : : with LIMs dependence analysis. */
2478 : 969 : || (memory_accesses.refs_list[new_cand.first]->mem.ref
2479 : 969 : == error_mark_node)
2480 : 964 : || (memory_accesses.refs_list[against.first]->mem.ref
2481 : : == error_mark_node)
2482 : 2079 : || !refs_independent_p (memory_accesses.refs_list[new_cand.first],
2483 : 894 : memory_accesses.refs_list[against.first],
2484 : : false))
2485 : : /* ??? Prune new_cand from the list of refs to apply SM to. */
2486 : 341 : return false;
2487 : 844 : std::swap (new_cand, against);
2488 : 844 : *at = ptr - 1;
2489 : : }
2490 : : return true;
2491 : : }
2492 : :
2493 : : /* Computes the sequence of stores from candidates in REFS_NOT_IN_SEQ to SEQ
2494 : : walking backwards from VDEF (or the end of BB if VDEF is NULL). */
2495 : :
2496 : : static int
2497 : 35752 : sm_seq_valid_bb (class loop *loop, basic_block bb, tree vdef,
2498 : : vec<seq_entry> &seq, bitmap refs_not_in_seq,
2499 : : bitmap refs_not_supported, bool forked,
2500 : : bitmap fully_visited)
2501 : : {
2502 : 35752 : if (!vdef)
2503 : 26471 : for (gimple_stmt_iterator gsi = gsi_last_bb (bb); !gsi_end_p (gsi);
2504 : 117599 : gsi_prev (&gsi))
2505 : : {
2506 : 143892 : vdef = gimple_vdef (gsi_stmt (gsi));
2507 : 52764 : if (vdef)
2508 : : break;
2509 : : }
2510 : 26471 : if (!vdef)
2511 : : {
2512 : 8641 : gphi *vphi = get_virtual_phi (bb);
2513 : 8641 : if (vphi)
2514 : 4361 : vdef = gimple_phi_result (vphi);
2515 : : }
2516 : 35752 : if (!vdef)
2517 : : {
2518 : 4280 : if (single_pred_p (bb))
2519 : : /* This handles the perfect nest case. */
2520 : 3497 : return sm_seq_valid_bb (loop, single_pred (bb), vdef,
2521 : : seq, refs_not_in_seq, refs_not_supported,
2522 : 3497 : forked, fully_visited);
2523 : : return 0;
2524 : : }
2525 : 56099 : do
2526 : : {
2527 : 112198 : gimple *def = SSA_NAME_DEF_STMT (vdef);
2528 : 56099 : if (gimple_bb (def) != bb)
2529 : : {
2530 : : /* If we forked by processing a PHI do not allow our walk to
2531 : : merge again until we handle that robustly. */
2532 : 3250 : if (forked)
2533 : : {
2534 : : /* Mark refs_not_in_seq as unsupported. */
2535 : 1513 : bitmap_ior_into (refs_not_supported, refs_not_in_seq);
2536 : 1513 : return 1;
2537 : : }
2538 : : /* Otherwise it doesn't really matter if we end up in different
2539 : : BBs. */
2540 : : bb = gimple_bb (def);
2541 : : }
2542 : 54586 : if (gphi *phi = dyn_cast <gphi *> (def))
2543 : : {
2544 : : /* Handle CFG merges. Until we handle forks (gimple_bb (def) != bb)
2545 : : this is still linear.
2546 : : Eventually we want to cache intermediate results per BB
2547 : : (but we can't easily cache for different exits?). */
2548 : : /* Stop at PHIs with possible backedges. */
2549 : 11068 : if (bb == bb->loop_father->header
2550 : 5681 : || bb->flags & BB_IRREDUCIBLE_LOOP)
2551 : : {
2552 : : /* Mark refs_not_in_seq as unsupported. */
2553 : 5392 : bitmap_ior_into (refs_not_supported, refs_not_in_seq);
2554 : 5392 : return 1;
2555 : : }
2556 : 5676 : if (gimple_phi_num_args (phi) == 1)
2557 : 1569 : return sm_seq_valid_bb (loop, gimple_phi_arg_edge (phi, 0)->src,
2558 : : gimple_phi_arg_def (phi, 0), seq,
2559 : : refs_not_in_seq, refs_not_supported,
2560 : 1569 : false, fully_visited);
2561 : 8214 : if (bitmap_bit_p (fully_visited,
2562 : 4107 : SSA_NAME_VERSION (gimple_phi_result (phi))))
2563 : : return 1;
2564 : 4003 : auto_vec<seq_entry> first_edge_seq;
2565 : 4003 : auto_bitmap tem_refs_not_in_seq (&lim_bitmap_obstack);
2566 : 4003 : int eret;
2567 : 4003 : bitmap_copy (tem_refs_not_in_seq, refs_not_in_seq);
2568 : 4003 : eret = sm_seq_valid_bb (loop, gimple_phi_arg_edge (phi, 0)->src,
2569 : : gimple_phi_arg_def (phi, 0),
2570 : : first_edge_seq,
2571 : : tem_refs_not_in_seq, refs_not_supported,
2572 : : true, fully_visited);
2573 : 4003 : if (eret != 1)
2574 : : return -1;
2575 : : /* Simplify our lives by pruning the sequence of !sm_ord. */
2576 : 4912 : while (!first_edge_seq.is_empty ()
2577 : 11625 : && first_edge_seq.last ().second != sm_ord)
2578 : 2710 : first_edge_seq.pop ();
2579 : 7712 : for (unsigned int i = 1; i < gimple_phi_num_args (phi); ++i)
2580 : : {
2581 : 5724 : tree vuse = gimple_phi_arg_def (phi, i);
2582 : 5724 : edge e = gimple_phi_arg_edge (phi, i);
2583 : 5724 : auto_vec<seq_entry> edge_seq;
2584 : 5724 : bitmap_and_compl (tem_refs_not_in_seq,
2585 : : refs_not_in_seq, refs_not_supported);
2586 : : /* If we've marked all refs we search for as unsupported
2587 : : we can stop processing and use the sequence as before
2588 : : the PHI. */
2589 : 5724 : if (bitmap_empty_p (tem_refs_not_in_seq))
2590 : : return 1;
2591 : 3709 : eret = sm_seq_valid_bb (loop, e->src, vuse, edge_seq,
2592 : : tem_refs_not_in_seq, refs_not_supported,
2593 : : true, fully_visited);
2594 : 3709 : if (eret != 1)
2595 : : return -1;
2596 : : /* Simplify our lives by pruning the sequence of !sm_ord. */
2597 : 4843 : while (!edge_seq.is_empty ()
2598 : 11352 : && edge_seq.last ().second != sm_ord)
2599 : 2800 : edge_seq.pop ();
2600 : 7418 : unsigned min_len = MIN(first_edge_seq.length (),
2601 : : edge_seq.length ());
2602 : : /* Incrementally merge seqs into first_edge_seq. */
2603 : 3709 : int first_uneq = -1;
2604 : 3709 : auto_vec<seq_entry, 2> extra_refs;
2605 : 5803 : for (unsigned int i = 0; i < min_len; ++i)
2606 : : {
2607 : : /* ??? We can more intelligently merge when we face different
2608 : : order by additional sinking operations in one sequence.
2609 : : For now we simply mark them as to be processed by the
2610 : : not order-preserving SM code. */
2611 : 2094 : if (first_edge_seq[i].first != edge_seq[i].first)
2612 : : {
2613 : 35 : if (first_edge_seq[i].second == sm_ord)
2614 : 24 : bitmap_set_bit (refs_not_supported,
2615 : 24 : first_edge_seq[i].first);
2616 : 35 : if (edge_seq[i].second == sm_ord)
2617 : 22 : bitmap_set_bit (refs_not_supported, edge_seq[i].first);
2618 : 35 : first_edge_seq[i].second = sm_other;
2619 : 35 : first_edge_seq[i].from = NULL_TREE;
2620 : : /* Record the dropped refs for later processing. */
2621 : 35 : if (first_uneq == -1)
2622 : 33 : first_uneq = i;
2623 : 70 : extra_refs.safe_push (seq_entry (edge_seq[i].first,
2624 : 35 : sm_other, NULL_TREE));
2625 : : }
2626 : : /* sm_other prevails. */
2627 : 2059 : else if (first_edge_seq[i].second != edge_seq[i].second)
2628 : : {
2629 : : /* Make sure the ref is marked as not supported. */
2630 : 0 : bitmap_set_bit (refs_not_supported,
2631 : 0 : first_edge_seq[i].first);
2632 : 0 : first_edge_seq[i].second = sm_other;
2633 : 0 : first_edge_seq[i].from = NULL_TREE;
2634 : : }
2635 : 2059 : else if (first_edge_seq[i].second == sm_other
2636 : 7 : && first_edge_seq[i].from != NULL_TREE
2637 : 2066 : && (edge_seq[i].from == NULL_TREE
2638 : 7 : || !operand_equal_p (first_edge_seq[i].from,
2639 : 7 : edge_seq[i].from, 0)))
2640 : 7 : first_edge_seq[i].from = NULL_TREE;
2641 : : }
2642 : : /* Any excess elements become sm_other since they are now
2643 : : coonditionally executed. */
2644 : 10520 : if (first_edge_seq.length () > edge_seq.length ())
2645 : : {
2646 : 5803 : for (unsigned i = edge_seq.length ();
2647 : 7690 : i < first_edge_seq.length (); ++i)
2648 : : {
2649 : 5803 : if (first_edge_seq[i].second == sm_ord)
2650 : 2831 : bitmap_set_bit (refs_not_supported,
2651 : 2831 : first_edge_seq[i].first);
2652 : 5803 : first_edge_seq[i].second = sm_other;
2653 : : }
2654 : : }
2655 : 1822 : else if (edge_seq.length () > first_edge_seq.length ())
2656 : : {
2657 : 10 : if (first_uneq == -1)
2658 : 0 : first_uneq = first_edge_seq.length ();
2659 : 10 : for (unsigned i = first_edge_seq.length ();
2660 : 32 : i < edge_seq.length (); ++i)
2661 : : {
2662 : 22 : if (edge_seq[i].second == sm_ord)
2663 : 10 : bitmap_set_bit (refs_not_supported, edge_seq[i].first);
2664 : 44 : extra_refs.safe_push (seq_entry (edge_seq[i].first,
2665 : 22 : sm_other, NULL_TREE));
2666 : : }
2667 : : }
2668 : : /* Put unmerged refs at first_uneq to force dependence checking
2669 : : on them. */
2670 : 3709 : if (first_uneq != -1)
2671 : : {
2672 : : /* Missing ordered_splice_at. */
2673 : 66 : if ((unsigned)first_uneq == first_edge_seq.length ())
2674 : 0 : first_edge_seq.safe_splice (extra_refs);
2675 : : else
2676 : : {
2677 : 33 : unsigned fes_length = first_edge_seq.length ();
2678 : 33 : first_edge_seq.safe_grow (fes_length
2679 : 33 : + extra_refs.length ());
2680 : 33 : memmove (&first_edge_seq[first_uneq + extra_refs.length ()],
2681 : 33 : &first_edge_seq[first_uneq],
2682 : 33 : (fes_length - first_uneq) * sizeof (seq_entry));
2683 : 66 : memcpy (&first_edge_seq[first_uneq],
2684 : 33 : extra_refs.address (),
2685 : 33 : extra_refs.length () * sizeof (seq_entry));
2686 : : }
2687 : : }
2688 : 5724 : }
2689 : : /* Use the sequence from the first edge and push SMs down. */
2690 : 5748 : for (unsigned i = 0; i < first_edge_seq.length (); ++i)
2691 : : {
2692 : 3760 : unsigned id = first_edge_seq[i].first;
2693 : 3760 : seq.safe_push (first_edge_seq[i]);
2694 : 3760 : unsigned new_idx;
2695 : 3760 : if ((first_edge_seq[i].second == sm_ord
2696 : 3215 : || (first_edge_seq[i].second == sm_other
2697 : 3215 : && first_edge_seq[i].from != NULL_TREE))
2698 : 4969 : && !sm_seq_push_down (seq, seq.length () - 1, &new_idx))
2699 : : {
2700 : 123 : if (first_edge_seq[i].second == sm_ord)
2701 : 0 : bitmap_set_bit (refs_not_supported, id);
2702 : : /* Mark it sm_other. */
2703 : 123 : seq[new_idx].second = sm_other;
2704 : 123 : seq[new_idx].from = NULL_TREE;
2705 : : }
2706 : : }
2707 : 1988 : bitmap_set_bit (fully_visited,
2708 : 1988 : SSA_NAME_VERSION (gimple_phi_result (phi)));
2709 : 1988 : return 1;
2710 : 4003 : }
2711 : 43518 : lim_aux_data *data = get_lim_data (def);
2712 : 43518 : im_mem_ref *ref = memory_accesses.refs_list[data->ref];
2713 : 43518 : if (data->ref == UNANALYZABLE_MEM_ID)
2714 : : return -1;
2715 : : /* Stop at memory references which we can't move. */
2716 : 43518 : else if ((ref->mem.ref == error_mark_node
2717 : : /* We can move end-of-storage/object down. */
2718 : 471 : && !gimple_clobber_p (ref->accesses_in_loop[0].stmt,
2719 : : CLOBBER_STORAGE_END)
2720 : 329 : && !gimple_clobber_p (ref->accesses_in_loop[0].stmt,
2721 : : CLOBBER_OBJECT_END))
2722 : 43878 : || TREE_THIS_VOLATILE (ref->mem.ref))
2723 : : {
2724 : : /* Mark refs_not_in_seq as unsupported. */
2725 : 140 : bitmap_ior_into (refs_not_supported, refs_not_in_seq);
2726 : 140 : return 1;
2727 : : }
2728 : : /* One of the stores we want to apply SM to and we've not yet seen. */
2729 : 43378 : else if (bitmap_clear_bit (refs_not_in_seq, data->ref))
2730 : : {
2731 : 32395 : seq.safe_push (seq_entry (data->ref, sm_ord));
2732 : :
2733 : : /* 1) push it down the queue until a SMed
2734 : : and not ignored ref is reached, skipping all not SMed refs
2735 : : and ignored refs via non-TBAA disambiguation. */
2736 : 32395 : unsigned new_idx;
2737 : 64790 : if (!sm_seq_push_down (seq, seq.length () - 1, &new_idx)
2738 : : /* If that fails but we did not fork yet continue, we'll see
2739 : : to re-materialize all of the stores in the sequence then.
2740 : : Further stores will only be pushed up to this one. */
2741 : 32395 : && forked)
2742 : : {
2743 : 0 : bitmap_set_bit (refs_not_supported, data->ref);
2744 : : /* Mark it sm_other. */
2745 : 0 : seq[new_idx].second = sm_other;
2746 : : }
2747 : :
2748 : : /* 2) check whether we've seen all refs we want to SM and if so
2749 : : declare success for the active exit */
2750 : 32395 : if (bitmap_empty_p (refs_not_in_seq))
2751 : 18751 : return 1;
2752 : : }
2753 : : else
2754 : : /* Another store not part of the final sequence. Simply push it. */
2755 : 10983 : seq.safe_push (seq_entry (data->ref, sm_other,
2756 : 10983 : gimple_assign_rhs1 (def)));
2757 : :
2758 : 80726 : vdef = gimple_vuse (def);
2759 : : }
2760 : : while (1);
2761 : : }
2762 : :
2763 : : /* Hoists memory references MEM_REFS out of LOOP. EXITS is the list of exit
2764 : : edges of the LOOP. */
2765 : :
2766 : : static void
2767 : 21379 : hoist_memory_references (class loop *loop, bitmap mem_refs,
2768 : : const vec<edge> &exits)
2769 : : {
2770 : 21379 : im_mem_ref *ref;
2771 : 21379 : unsigned i;
2772 : 21379 : bitmap_iterator bi;
2773 : :
2774 : : /* There's a special case we can use ordered re-materialization for
2775 : : conditionally excuted stores which is when all stores in the loop
2776 : : happen in the same basic-block. In that case we know we'll reach
2777 : : all stores and thus can simply process that BB and emit a single
2778 : : conditional block of ordered materializations. See PR102436. */
2779 : 21379 : basic_block single_store_bb = NULL;
2780 : 31845 : EXECUTE_IF_SET_IN_BITMAP (&memory_accesses.all_refs_stored_in_loop[loop->num],
2781 : : 0, i, bi)
2782 : : {
2783 : 29567 : bool fail = false;
2784 : 29567 : ref = memory_accesses.refs_list[i];
2785 : 135728 : for (auto loc : ref->accesses_in_loop)
2786 : 145691 : if (!gimple_vdef (loc.stmt))
2787 : : ;
2788 : 32536 : else if (!single_store_bb)
2789 : : {
2790 : 21379 : single_store_bb = gimple_bb (loc.stmt);
2791 : 21379 : bool conditional = false;
2792 : 76869 : for (edge e : exits)
2793 : 23141 : if (!dominated_by_p (CDI_DOMINATORS, e->src, single_store_bb))
2794 : : {
2795 : : /* Conditional as seen from e. */
2796 : : conditional = true;
2797 : : break;
2798 : : }
2799 : 21379 : if (!conditional)
2800 : : {
2801 : : fail = true;
2802 : : break;
2803 : : }
2804 : : }
2805 : 11157 : else if (single_store_bb != gimple_bb (loc.stmt))
2806 : : {
2807 : : fail = true;
2808 : : break;
2809 : : }
2810 : 29567 : if (fail)
2811 : : {
2812 : : single_store_bb = NULL;
2813 : : break;
2814 : : }
2815 : : }
2816 : 21379 : if (single_store_bb)
2817 : : {
2818 : : /* Analyze the single block with stores. */
2819 : 2278 : auto_bitmap fully_visited;
2820 : 2278 : auto_bitmap refs_not_supported;
2821 : 2278 : auto_bitmap refs_not_in_seq;
2822 : 2278 : auto_vec<seq_entry> seq;
2823 : 2278 : bitmap_copy (refs_not_in_seq, mem_refs);
2824 : 2278 : int res = sm_seq_valid_bb (loop, single_store_bb, NULL_TREE,
2825 : : seq, refs_not_in_seq, refs_not_supported,
2826 : : false, fully_visited);
2827 : 2278 : if (res != 1)
2828 : : {
2829 : : /* Unhandled refs can still fail this. */
2830 : 0 : bitmap_clear (mem_refs);
2831 : 0 : return;
2832 : : }
2833 : :
2834 : : /* We cannot handle sm_other since we neither remember the
2835 : : stored location nor the value at the point we execute them. */
2836 : 5565 : for (unsigned i = 0; i < seq.length (); ++i)
2837 : : {
2838 : 3287 : unsigned new_i;
2839 : 3287 : if (seq[i].second == sm_other
2840 : 3287 : && seq[i].from != NULL_TREE)
2841 : 483 : seq[i].from = NULL_TREE;
2842 : 2804 : else if ((seq[i].second == sm_ord
2843 : 0 : || (seq[i].second == sm_other
2844 : 0 : && seq[i].from != NULL_TREE))
2845 : 2804 : && !sm_seq_push_down (seq, i, &new_i))
2846 : : {
2847 : 111 : bitmap_set_bit (refs_not_supported, seq[new_i].first);
2848 : 111 : seq[new_i].second = sm_other;
2849 : 111 : seq[new_i].from = NULL_TREE;
2850 : : }
2851 : : }
2852 : 2278 : bitmap_and_compl_into (mem_refs, refs_not_supported);
2853 : 2278 : if (bitmap_empty_p (mem_refs))
2854 : : return;
2855 : :
2856 : : /* Prune seq. */
2857 : 2579 : while (seq.last ().second == sm_other
2858 : 2579 : && seq.last ().from == NULL_TREE)
2859 : 397 : seq.pop ();
2860 : :
2861 : 2182 : hash_map<im_mem_ref *, sm_aux *> aux_map;
2862 : :
2863 : : /* Execute SM but delay the store materialization for ordered
2864 : : sequences on exit. Remember a created flag var and make
2865 : : sure to re-use it. */
2866 : 2182 : sm_aux *flag_var_aux = nullptr;
2867 : 4875 : EXECUTE_IF_SET_IN_BITMAP (mem_refs, 0, i, bi)
2868 : : {
2869 : 2693 : ref = memory_accesses.refs_list[i];
2870 : 2693 : sm_aux *aux = execute_sm (loop, ref, aux_map, true,
2871 : : flag_var_aux != nullptr);
2872 : 2693 : if (aux->store_flag)
2873 : 1530 : flag_var_aux = aux;
2874 : : }
2875 : :
2876 : : /* Materialize ordered store sequences on exits. */
2877 : 2182 : edge e;
2878 : 2182 : auto_bitmap clobbers_to_prune;
2879 : 6000 : FOR_EACH_VEC_ELT (exits, i, e)
2880 : : {
2881 : 3818 : edge append_cond_position = NULL;
2882 : 3818 : edge last_cond_fallthru = NULL;
2883 : 3818 : edge insert_e = e;
2884 : : /* Construct the single flag variable control flow and insert
2885 : : the ordered seq of stores in the then block. With
2886 : : -fstore-data-races we can do the stores unconditionally. */
2887 : 3818 : if (flag_var_aux)
2888 : 2449 : insert_e
2889 : : = single_pred_edge
2890 : 2449 : (execute_sm_if_changed (e, NULL_TREE, NULL_TREE,
2891 : : flag_var_aux->store_flag,
2892 : : loop_preheader_edge (loop),
2893 : : &flag_var_aux->flag_bbs,
2894 : : append_cond_position,
2895 : : last_cond_fallthru));
2896 : 3818 : execute_sm_exit (loop, insert_e, seq, aux_map, sm_ord,
2897 : : append_cond_position, last_cond_fallthru,
2898 : : clobbers_to_prune);
2899 : 3818 : gsi_commit_one_edge_insert (insert_e, NULL);
2900 : : }
2901 : :
2902 : : /* Remove clobbers inside the loop we re-materialized on exits. */
2903 : 2182 : EXECUTE_IF_SET_IN_BITMAP (clobbers_to_prune, 0, i, bi)
2904 : : {
2905 : 0 : gimple *stmt = memory_accesses.refs_list[i]->accesses_in_loop[0].stmt;
2906 : 0 : gimple_stmt_iterator gsi = gsi_for_stmt (stmt);
2907 : 0 : unlink_stmt_vdef (stmt);
2908 : 0 : release_defs (stmt);
2909 : 0 : gimple_set_vdef (stmt, NULL_TREE);
2910 : 0 : gsi_remove (&gsi, true);
2911 : : }
2912 : :
2913 : 4875 : for (hash_map<im_mem_ref *, sm_aux *>::iterator iter = aux_map.begin ();
2914 : 7568 : iter != aux_map.end (); ++iter)
2915 : 5386 : delete (*iter).second;
2916 : :
2917 : 2182 : return;
2918 : 4460 : }
2919 : :
2920 : : /* To address PR57359 before actually applying store-motion check
2921 : : the candidates found for validity with regards to reordering
2922 : : relative to other stores which we until here disambiguated using
2923 : : TBAA which isn't valid.
2924 : : What matters is the order of the last stores to the mem_refs
2925 : : with respect to the other stores of the loop at the point of the
2926 : : loop exits. */
2927 : :
2928 : : /* For each exit compute the store order, pruning from mem_refs
2929 : : on the fly. */
2930 : : /* The complexity of this is at least
2931 : : O(number of exits * number of SM refs) but more approaching
2932 : : O(number of exits * number of SM refs * number of stores). */
2933 : : /* ??? Somehow do this in a single sweep over the loop body. */
2934 : 19101 : auto_vec<std::pair<edge, vec<seq_entry> > > sms;
2935 : 19101 : auto_bitmap refs_not_supported (&lim_bitmap_obstack);
2936 : 19101 : edge e;
2937 : 39014 : FOR_EACH_VEC_ELT (exits, i, e)
2938 : : {
2939 : 22365 : vec<seq_entry> seq;
2940 : 22365 : seq.create (4);
2941 : 22365 : auto_bitmap refs_not_in_seq (&lim_bitmap_obstack);
2942 : 22365 : bitmap_and_compl (refs_not_in_seq, mem_refs, refs_not_supported);
2943 : 22365 : if (bitmap_empty_p (refs_not_in_seq))
2944 : : {
2945 : 1669 : seq.release ();
2946 : 1669 : break;
2947 : : }
2948 : 20696 : auto_bitmap fully_visited;
2949 : 20696 : int res = sm_seq_valid_bb (loop, e->src, NULL_TREE,
2950 : : seq, refs_not_in_seq,
2951 : : refs_not_supported, false,
2952 : : fully_visited);
2953 : 20696 : if (res != 1)
2954 : : {
2955 : 783 : bitmap_copy (refs_not_supported, mem_refs);
2956 : 783 : seq.release ();
2957 : 783 : break;
2958 : : }
2959 : 19913 : sms.safe_push (std::make_pair (e, seq));
2960 : 23148 : }
2961 : :
2962 : : /* Prune pruned mem_refs from earlier processed exits. */
2963 : 19101 : bool changed = !bitmap_empty_p (refs_not_supported);
2964 : 19101 : while (changed)
2965 : : {
2966 : 6261 : changed = false;
2967 : 6261 : std::pair<edge, vec<seq_entry> > *seq;
2968 : 40478 : FOR_EACH_VEC_ELT (sms, i, seq)
2969 : : {
2970 : : bool need_to_push = false;
2971 : 13580 : for (unsigned i = 0; i < seq->second.length (); ++i)
2972 : : {
2973 : 6022 : sm_kind kind = seq->second[i].second;
2974 : 6022 : if (kind == sm_other && seq->second[i].from == NULL_TREE)
2975 : : break;
2976 : 5105 : unsigned id = seq->second[i].first;
2977 : 5105 : unsigned new_idx;
2978 : 5105 : if (kind == sm_ord
2979 : 5105 : && bitmap_bit_p (refs_not_supported, id))
2980 : : {
2981 : 2495 : seq->second[i].second = sm_other;
2982 : 2495 : gcc_assert (seq->second[i].from == NULL_TREE);
2983 : : need_to_push = true;
2984 : : }
2985 : 2610 : else if (need_to_push
2986 : 2610 : && !sm_seq_push_down (seq->second, i, &new_idx))
2987 : : {
2988 : : /* We need to push down both sm_ord and sm_other
2989 : : but for the latter we need to disqualify all
2990 : : following refs. */
2991 : 107 : if (kind == sm_ord)
2992 : : {
2993 : 7 : if (bitmap_set_bit (refs_not_supported, id))
2994 : 7 : changed = true;
2995 : 7 : seq->second[new_idx].second = sm_other;
2996 : : }
2997 : : else
2998 : : {
2999 : 375 : for (unsigned j = seq->second.length () - 1;
3000 : 275 : j > new_idx; --j)
3001 : 175 : if (seq->second[j].second == sm_ord
3002 : 281 : && bitmap_set_bit (refs_not_supported,
3003 : 106 : seq->second[j].first))
3004 : : changed = true;
3005 : 100 : seq->second.truncate (new_idx);
3006 : 100 : break;
3007 : : }
3008 : : }
3009 : : }
3010 : : }
3011 : : }
3012 : 19101 : std::pair<edge, vec<seq_entry> > *seq;
3013 : 58927 : FOR_EACH_VEC_ELT (sms, i, seq)
3014 : : {
3015 : : /* Prune sm_other from the end. */
3016 : 62248 : while (!seq->second.is_empty ()
3017 : 42335 : && seq->second.last ().second == sm_other)
3018 : 4545 : seq->second.pop ();
3019 : : /* Prune duplicates from the start. */
3020 : 19913 : auto_bitmap seen (&lim_bitmap_obstack);
3021 : 19913 : unsigned j, k;
3022 : 47091 : for (j = k = 0; j < seq->second.length (); ++j)
3023 : 27178 : if (bitmap_set_bit (seen, seq->second[j].first))
3024 : : {
3025 : 27067 : if (k != j)
3026 : 79 : seq->second[k] = seq->second[j];
3027 : 27067 : ++k;
3028 : : }
3029 : 19913 : seq->second.truncate (k);
3030 : : /* And verify. */
3031 : 19913 : seq_entry *e;
3032 : 86806 : FOR_EACH_VEC_ELT (seq->second, j, e)
3033 : 27067 : gcc_assert (e->second == sm_ord
3034 : : || (e->second == sm_other && e->from != NULL_TREE));
3035 : 19913 : }
3036 : :
3037 : : /* Verify dependence for refs we cannot handle with the order preserving
3038 : : code (refs_not_supported) or prune them from mem_refs. */
3039 : 19101 : auto_vec<seq_entry> unord_refs;
3040 : 35099 : EXECUTE_IF_SET_IN_BITMAP (refs_not_supported, 0, i, bi)
3041 : : {
3042 : 15998 : ref = memory_accesses.refs_list[i];
3043 : 15998 : if (!ref_indep_loop_p (loop, ref, sm_waw))
3044 : 6847 : bitmap_clear_bit (mem_refs, i);
3045 : : /* We've now verified store order for ref with respect to all other
3046 : : stores in the loop does not matter. */
3047 : : else
3048 : 9151 : unord_refs.safe_push (seq_entry (i, sm_unord));
3049 : : }
3050 : :
3051 : 19101 : hash_map<im_mem_ref *, sm_aux *> aux_map;
3052 : :
3053 : : /* Execute SM but delay the store materialization for ordered
3054 : : sequences on exit. */
3055 : 50956 : EXECUTE_IF_SET_IN_BITMAP (mem_refs, 0, i, bi)
3056 : : {
3057 : 31855 : ref = memory_accesses.refs_list[i];
3058 : 31855 : execute_sm (loop, ref, aux_map, bitmap_bit_p (refs_not_supported, i),
3059 : : false);
3060 : : }
3061 : :
3062 : : /* Materialize ordered store sequences on exits. */
3063 : 19101 : auto_bitmap clobbers_to_prune;
3064 : 43350 : FOR_EACH_VEC_ELT (exits, i, e)
3065 : : {
3066 : 24249 : edge append_cond_position = NULL;
3067 : 24249 : edge last_cond_fallthru = NULL;
3068 : 24249 : if (i < sms.length ())
3069 : : {
3070 : 19913 : gcc_assert (sms[i].first == e);
3071 : 19913 : execute_sm_exit (loop, e, sms[i].second, aux_map, sm_ord,
3072 : : append_cond_position, last_cond_fallthru,
3073 : : clobbers_to_prune);
3074 : 19913 : sms[i].second.release ();
3075 : : }
3076 : 24249 : if (!unord_refs.is_empty ())
3077 : 9772 : execute_sm_exit (loop, e, unord_refs, aux_map, sm_unord,
3078 : : append_cond_position, last_cond_fallthru,
3079 : : clobbers_to_prune);
3080 : : /* Commit edge inserts here to preserve the order of stores
3081 : : when an exit exits multiple loops. */
3082 : 24249 : gsi_commit_one_edge_insert (e, NULL);
3083 : : }
3084 : :
3085 : : /* Remove clobbers inside the loop we re-materialized on exits. */
3086 : 19249 : EXECUTE_IF_SET_IN_BITMAP (clobbers_to_prune, 0, i, bi)
3087 : : {
3088 : 148 : gimple *stmt = memory_accesses.refs_list[i]->accesses_in_loop[0].stmt;
3089 : 148 : gimple_stmt_iterator gsi = gsi_for_stmt (stmt);
3090 : 148 : unlink_stmt_vdef (stmt);
3091 : 148 : release_defs (stmt);
3092 : 148 : gimple_set_vdef (stmt, NULL_TREE);
3093 : 148 : gsi_remove (&gsi, true);
3094 : : }
3095 : :
3096 : 50956 : for (hash_map<im_mem_ref *, sm_aux *>::iterator iter = aux_map.begin ();
3097 : 101912 : iter != aux_map.end (); ++iter)
3098 : 63710 : delete (*iter).second;
3099 : 19101 : }
3100 : :
3101 : : class ref_always_accessed
3102 : : {
3103 : : public:
3104 : 83231 : ref_always_accessed (class loop *loop_, bool stored_p_)
3105 : 83231 : : loop (loop_), stored_p (stored_p_) {}
3106 : : bool operator () (mem_ref_loc *loc);
3107 : : class loop *loop;
3108 : : bool stored_p;
3109 : : };
3110 : :
3111 : : bool
3112 : 161978 : ref_always_accessed::operator () (mem_ref_loc *loc)
3113 : : {
3114 : 161978 : class loop *must_exec;
3115 : :
3116 : 161978 : struct lim_aux_data *lim_data = get_lim_data (loc->stmt);
3117 : 161978 : if (!lim_data)
3118 : : return false;
3119 : :
3120 : : /* If we require an always executed store make sure the statement
3121 : : is a store. */
3122 : 161978 : if (stored_p)
3123 : : {
3124 : 161978 : tree lhs = gimple_get_lhs (loc->stmt);
3125 : 161978 : if (!lhs
3126 : 161978 : || !(DECL_P (lhs) || REFERENCE_CLASS_P (lhs)))
3127 : : return false;
3128 : : }
3129 : :
3130 : 99072 : must_exec = lim_data->always_executed_in;
3131 : 99072 : if (!must_exec)
3132 : : return false;
3133 : :
3134 : 35809 : if (must_exec == loop
3135 : 35809 : || flow_loop_nested_p (must_exec, loop))
3136 : 32490 : return true;
3137 : :
3138 : : return false;
3139 : : }
3140 : :
3141 : : /* Returns true if REF is always accessed in LOOP. If STORED_P is true
3142 : : make sure REF is always stored to in LOOP. */
3143 : :
3144 : : static bool
3145 : 83231 : ref_always_accessed_p (class loop *loop, im_mem_ref *ref, bool stored_p)
3146 : : {
3147 : 34548 : return for_all_locs_in_loop (loop, ref,
3148 : 83231 : ref_always_accessed (loop, stored_p));
3149 : : }
3150 : :
3151 : : /* Returns true if REF1 and REF2 are independent. */
3152 : :
3153 : : static bool
3154 : 611370 : refs_independent_p (im_mem_ref *ref1, im_mem_ref *ref2, bool tbaa_p)
3155 : : {
3156 : 611370 : if (ref1 == ref2)
3157 : : return true;
3158 : :
3159 : 547949 : if (dump_file && (dump_flags & TDF_DETAILS))
3160 : 3036 : fprintf (dump_file, "Querying dependency of refs %u and %u: ",
3161 : 3036 : ref1->id, ref2->id);
3162 : :
3163 : 547949 : if (mem_refs_may_alias_p (ref1, ref2, &memory_accesses.ttae_cache, tbaa_p))
3164 : : {
3165 : 66118 : if (dump_file && (dump_flags & TDF_DETAILS))
3166 : 97 : fprintf (dump_file, "dependent.\n");
3167 : 66118 : return false;
3168 : : }
3169 : : else
3170 : : {
3171 : 481831 : if (dump_file && (dump_flags & TDF_DETAILS))
3172 : 2939 : fprintf (dump_file, "independent.\n");
3173 : 481831 : return true;
3174 : : }
3175 : : }
3176 : :
3177 : : /* Returns true if REF is independent on all other accessess in LOOP.
3178 : : KIND specifies the kind of dependence to consider.
3179 : : lim_raw assumes REF is not stored in LOOP and disambiguates RAW
3180 : : dependences so if true REF can be hoisted out of LOOP
3181 : : sm_war disambiguates a store REF against all other loads to see
3182 : : whether the store can be sunk across loads out of LOOP
3183 : : sm_waw disambiguates a store REF against all other stores to see
3184 : : whether the store can be sunk across stores out of LOOP. */
3185 : :
3186 : : static bool
3187 : 1937683 : ref_indep_loop_p (class loop *loop, im_mem_ref *ref, dep_kind kind)
3188 : : {
3189 : 1937683 : bool indep_p = true;
3190 : 1937683 : bitmap refs_to_check;
3191 : :
3192 : 1937683 : if (kind == sm_war)
3193 : 847120 : refs_to_check = &memory_accesses.refs_loaded_in_loop[loop->num];
3194 : : else
3195 : 1090563 : refs_to_check = &memory_accesses.refs_stored_in_loop[loop->num];
3196 : :
3197 : 1937683 : if (bitmap_bit_p (refs_to_check, UNANALYZABLE_MEM_ID)
3198 : 1937683 : || ref->mem.ref == error_mark_node)
3199 : : indep_p = false;
3200 : : else
3201 : : {
3202 : : /* tri-state, { unknown, independent, dependent } */
3203 : 625069 : dep_state state = query_loop_dependence (loop, ref, kind);
3204 : 625069 : if (state != dep_unknown)
3205 : 0 : return state == dep_independent ? true : false;
3206 : :
3207 : 625069 : class loop *inner = loop->inner;
3208 : 783391 : while (inner)
3209 : : {
3210 : 412797 : if (!ref_indep_loop_p (inner, ref, kind))
3211 : : {
3212 : : indep_p = false;
3213 : : break;
3214 : : }
3215 : 158322 : inner = inner->next;
3216 : : }
3217 : :
3218 : 625069 : if (indep_p)
3219 : : {
3220 : 370594 : unsigned i;
3221 : 370594 : bitmap_iterator bi;
3222 : 937044 : EXECUTE_IF_SET_IN_BITMAP (refs_to_check, 0, i, bi)
3223 : : {
3224 : 636914 : im_mem_ref *aref = memory_accesses.refs_list[i];
3225 : 636914 : if (aref->mem.ref == error_mark_node)
3226 : : {
3227 : 26438 : gimple *stmt = aref->accesses_in_loop[0].stmt;
3228 : 26438 : if ((kind == sm_war
3229 : 8652 : && ref_maybe_used_by_stmt_p (stmt, &ref->mem,
3230 : : kind != sm_waw))
3231 : 34755 : || stmt_may_clobber_ref_p_1 (stmt, &ref->mem,
3232 : : kind != sm_waw))
3233 : : {
3234 : : indep_p = false;
3235 : : break;
3236 : : }
3237 : : }
3238 : 610476 : else if (!refs_independent_p (ref, aref, kind != sm_waw))
3239 : : {
3240 : : indep_p = false;
3241 : : break;
3242 : : }
3243 : : }
3244 : : }
3245 : : }
3246 : :
3247 : 1937683 : if (dump_file && (dump_flags & TDF_DETAILS))
3248 : 741 : fprintf (dump_file, "Querying %s dependencies of ref %u in loop %d: %s\n",
3249 : : kind == lim_raw ? "RAW" : (kind == sm_war ? "SM WAR" : "SM WAW"),
3250 : 360 : ref->id, loop->num, indep_p ? "independent" : "dependent");
3251 : :
3252 : : /* Record the computed result in the cache. */
3253 : 1937683 : record_loop_dependence (loop, ref, kind,
3254 : : indep_p ? dep_independent : dep_dependent);
3255 : :
3256 : 1937683 : return indep_p;
3257 : : }
3258 : :
3259 : : class ref_in_loop_hot_body
3260 : : {
3261 : : public:
3262 : 42473 : ref_in_loop_hot_body (class loop *loop_) : l (loop_) {}
3263 : : bool operator () (mem_ref_loc *loc);
3264 : : class loop *l;
3265 : : };
3266 : :
3267 : : /* Check the coldest loop between loop L and innermost loop. If there is one
3268 : : cold loop between L and INNER_LOOP, store motion can be performed, otherwise
3269 : : no cold loop means no store motion. get_coldest_out_loop also handles cases
3270 : : when l is inner_loop. */
3271 : : bool
3272 : 43255 : ref_in_loop_hot_body::operator () (mem_ref_loc *loc)
3273 : : {
3274 : 43255 : basic_block curr_bb = gimple_bb (loc->stmt);
3275 : 43255 : class loop *inner_loop = curr_bb->loop_father;
3276 : 43255 : return get_coldest_out_loop (l, inner_loop, curr_bb);
3277 : : }
3278 : :
3279 : :
3280 : : /* Returns true if we can perform store motion of REF from LOOP. */
3281 : :
3282 : : static bool
3283 : 2673857 : can_sm_ref_p (class loop *loop, im_mem_ref *ref)
3284 : : {
3285 : 2673857 : tree base;
3286 : :
3287 : : /* Can't hoist unanalyzable refs. */
3288 : 2673857 : if (!MEM_ANALYZABLE (ref))
3289 : : return false;
3290 : :
3291 : : /* Can't hoist/sink aggregate copies. */
3292 : 2320296 : if (ref->mem.ref == error_mark_node)
3293 : : return false;
3294 : :
3295 : : /* It should be movable. */
3296 : 1942041 : if (!is_gimple_reg_type (TREE_TYPE (ref->mem.ref))
3297 : 1941837 : || TREE_THIS_VOLATILE (ref->mem.ref)
3298 : 3867056 : || !for_each_index (&ref->mem.ref, may_move_till, loop))
3299 : 1099557 : return false;
3300 : :
3301 : : /* If it can throw fail, we do not properly update EH info. */
3302 : 842484 : if (tree_could_throw_p (ref->mem.ref))
3303 : : return false;
3304 : :
3305 : : /* If it can trap, it must be always executed in LOOP.
3306 : : Readonly memory locations may trap when storing to them, but
3307 : : tree_could_trap_p is a predicate for rvalues, so check that
3308 : : explicitly. */
3309 : 821592 : base = get_base_address (ref->mem.ref);
3310 : 821592 : if ((tree_could_trap_p (ref->mem.ref)
3311 : 773137 : || (DECL_P (base) && TREE_READONLY (base))
3312 : 772917 : || TREE_CODE (base) == STRING_CST)
3313 : : /* ??? We can at least use false here, allowing loads? We
3314 : : are forcing conditional stores if the ref is not always
3315 : : stored to later anyway. So this would only guard
3316 : : the load we need to emit. Thus when the ref is not
3317 : : loaded we can elide this completely? */
3318 : 870275 : && !ref_always_accessed_p (loop, ref, true))
3319 : : return false;
3320 : :
3321 : : /* Verify all loads of ref can be hoisted. */
3322 : 782791 : if (ref->loaded
3323 : 99897 : && bitmap_bit_p (ref->loaded, loop->num)
3324 : 877355 : && !ref_indep_loop_p (loop, ref, lim_raw))
3325 : : return false;
3326 : :
3327 : : /* Verify the candidate can be disambiguated against all loads,
3328 : : that is, we can elide all in-loop stores. Disambiguation
3329 : : against stores is done later when we cannot guarantee preserving
3330 : : the order of stores. */
3331 : 713289 : if (!ref_indep_loop_p (loop, ref, sm_war))
3332 : : return false;
3333 : :
3334 : : /* Verify whether the candidate is hot for LOOP. Only do store motion if the
3335 : : candidate's profile count is hot. Statement in cold BB shouldn't be moved
3336 : : out of it's loop_father. */
3337 : 42473 : if (!for_all_locs_in_loop (loop, ref, ref_in_loop_hot_body (loop)))
3338 : : return false;
3339 : :
3340 : : return true;
3341 : : }
3342 : :
3343 : : /* Marks the references in LOOP for that store motion should be performed
3344 : : in REFS_TO_SM. SM_EXECUTED is the set of references for that store
3345 : : motion was performed in one of the outer loops. */
3346 : :
3347 : : static void
3348 : 1272623 : find_refs_for_sm (class loop *loop, bitmap sm_executed, bitmap refs_to_sm)
3349 : : {
3350 : 1272623 : bitmap refs = &memory_accesses.all_refs_stored_in_loop[loop->num];
3351 : 1272623 : unsigned i;
3352 : 1272623 : bitmap_iterator bi;
3353 : 1272623 : im_mem_ref *ref;
3354 : :
3355 : 3946480 : EXECUTE_IF_AND_COMPL_IN_BITMAP (refs, sm_executed, 0, i, bi)
3356 : : {
3357 : 2673857 : ref = memory_accesses.refs_list[i];
3358 : 2673857 : if (can_sm_ref_p (loop, ref) && dbg_cnt (lim))
3359 : 41510 : bitmap_set_bit (refs_to_sm, i);
3360 : : }
3361 : 1272623 : }
3362 : :
3363 : : /* Checks whether LOOP (with exits stored in EXITS array) is suitable
3364 : : for a store motion optimization (i.e. whether we can insert statement
3365 : : on its exits). */
3366 : :
3367 : : static bool
3368 : 1327048 : loop_suitable_for_sm (class loop *loop ATTRIBUTE_UNUSED,
3369 : : const vec<edge> &exits)
3370 : : {
3371 : 1327048 : unsigned i;
3372 : 1327048 : edge ex;
3373 : :
3374 : 3410652 : FOR_EACH_VEC_ELT (exits, i, ex)
3375 : 2138029 : if (ex->flags & (EDGE_ABNORMAL | EDGE_EH))
3376 : : return false;
3377 : :
3378 : : return true;
3379 : : }
3380 : :
3381 : : /* Try to perform store motion for all memory references modified inside
3382 : : LOOP. SM_EXECUTED is the bitmap of the memory references for that
3383 : : store motion was executed in one of the outer loops. */
3384 : :
3385 : : static void
3386 : 1327048 : store_motion_loop (class loop *loop, bitmap sm_executed)
3387 : : {
3388 : 1327048 : auto_vec<edge> exits = get_loop_exit_edges (loop);
3389 : 1327048 : class loop *subloop;
3390 : 1327048 : bitmap sm_in_loop = BITMAP_ALLOC (&lim_bitmap_obstack);
3391 : :
3392 : 1327048 : if (loop_suitable_for_sm (loop, exits))
3393 : : {
3394 : 1272623 : find_refs_for_sm (loop, sm_executed, sm_in_loop);
3395 : 1272623 : if (!bitmap_empty_p (sm_in_loop))
3396 : 21379 : hoist_memory_references (loop, sm_in_loop, exits);
3397 : : }
3398 : :
3399 : 1327048 : bitmap_ior_into (sm_executed, sm_in_loop);
3400 : 1635111 : for (subloop = loop->inner; subloop != NULL; subloop = subloop->next)
3401 : 308063 : store_motion_loop (subloop, sm_executed);
3402 : 1327048 : bitmap_and_compl_into (sm_executed, sm_in_loop);
3403 : 1327048 : BITMAP_FREE (sm_in_loop);
3404 : 1327048 : }
3405 : :
3406 : : /* Try to perform store motion for all memory references modified inside
3407 : : loops. */
3408 : :
3409 : : static void
3410 : 482925 : do_store_motion (void)
3411 : : {
3412 : 482925 : class loop *loop;
3413 : 482925 : bitmap sm_executed = BITMAP_ALLOC (&lim_bitmap_obstack);
3414 : :
3415 : 1501910 : for (loop = current_loops->tree_root->inner; loop != NULL; loop = loop->next)
3416 : 1018985 : store_motion_loop (loop, sm_executed);
3417 : :
3418 : 482925 : BITMAP_FREE (sm_executed);
3419 : 482925 : }
3420 : :
3421 : : /* Fills ALWAYS_EXECUTED_IN information for basic blocks of LOOP, i.e.
3422 : : for each such basic block bb records the outermost loop for that execution
3423 : : of its header implies execution of bb. CONTAINS_CALL is the bitmap of
3424 : : blocks that contain a nonpure call. */
3425 : :
3426 : : static void
3427 : 1327585 : fill_always_executed_in_1 (class loop *loop, sbitmap contains_call)
3428 : : {
3429 : 1327585 : basic_block bb = NULL, last = NULL;
3430 : 1327585 : edge e;
3431 : 1327585 : class loop *inn_loop = loop;
3432 : :
3433 : 1327585 : if (ALWAYS_EXECUTED_IN (loop->header) == NULL)
3434 : : {
3435 : 1208178 : auto_vec<basic_block, 64> worklist;
3436 : 1208178 : worklist.reserve_exact (loop->num_nodes);
3437 : 1208178 : worklist.quick_push (loop->header);
3438 : 2664255 : do
3439 : : {
3440 : 2664255 : edge_iterator ei;
3441 : 2664255 : bb = worklist.pop ();
3442 : :
3443 : 2664255 : if (!flow_bb_inside_loop_p (inn_loop, bb))
3444 : : {
3445 : : /* When we are leaving a possibly infinite inner loop
3446 : : we have to stop processing. */
3447 : 158219 : if (!finite_loop_p (inn_loop))
3448 : : break;
3449 : : /* If the loop was finite we can continue with processing
3450 : : the loop we exited to. */
3451 : 149558 : inn_loop = bb->loop_father;
3452 : : }
3453 : :
3454 : 2655594 : if (dominated_by_p (CDI_DOMINATORS, loop->latch, bb))
3455 : 1551739 : last = bb;
3456 : :
3457 : 2655594 : if (bitmap_bit_p (contains_call, bb->index))
3458 : : break;
3459 : :
3460 : : /* If LOOP exits from this BB stop processing. */
3461 : 5088757 : FOR_EACH_EDGE (e, ei, bb->succs)
3462 : 3623094 : if (!flow_bb_inside_loop_p (loop, e->dest))
3463 : : break;
3464 : 2345014 : if (e)
3465 : : break;
3466 : :
3467 : : /* A loop might be infinite (TODO use simple loop analysis
3468 : : to disprove this if possible). */
3469 : 1465663 : if (bb->flags & BB_IRREDUCIBLE_LOOP)
3470 : : break;
3471 : :
3472 : 1465562 : if (bb->loop_father->header == bb)
3473 : : /* Record that we enter into a subloop since it might not
3474 : : be finite. */
3475 : : /* ??? Entering into a not always executed subloop makes
3476 : : fill_always_executed_in quadratic in loop depth since
3477 : : we walk those loops N times. This is not a problem
3478 : : in practice though, see PR102253 for a worst-case testcase. */
3479 : 551208 : inn_loop = bb->loop_father;
3480 : :
3481 : : /* Walk the body of LOOP sorted by dominance relation. Additionally,
3482 : : if a basic block S dominates the latch, then only blocks dominated
3483 : : by S are after it.
3484 : : This is get_loop_body_in_dom_order using a worklist algorithm and
3485 : : stopping once we are no longer interested in visiting further
3486 : : blocks. */
3487 : 1465562 : unsigned old_len = worklist.length ();
3488 : 1465562 : unsigned postpone = 0;
3489 : 1465562 : for (basic_block son = first_dom_son (CDI_DOMINATORS, bb);
3490 : 3176136 : son;
3491 : 1710574 : son = next_dom_son (CDI_DOMINATORS, son))
3492 : : {
3493 : 1710574 : if (!flow_bb_inside_loop_p (loop, son))
3494 : 20117 : continue;
3495 : 1690457 : if (dominated_by_p (CDI_DOMINATORS, loop->latch, son))
3496 : 474862 : postpone = worklist.length ();
3497 : 1690457 : worklist.quick_push (son);
3498 : : }
3499 : 1465562 : if (postpone)
3500 : : /* Postponing the block that dominates the latch means
3501 : : processing it last and thus putting it earliest in the
3502 : : worklist. */
3503 : 144473 : std::swap (worklist[old_len], worklist[postpone]);
3504 : : }
3505 : 2931124 : while (!worklist.is_empty ());
3506 : :
3507 : 1895300 : while (1)
3508 : : {
3509 : 1551739 : if (dump_enabled_p ())
3510 : 1755 : dump_printf (MSG_NOTE, "BB %d is always executed in loop %d\n",
3511 : : last->index, loop->num);
3512 : 1551739 : SET_ALWAYS_EXECUTED_IN (last, loop);
3513 : 1551739 : if (last == loop->header)
3514 : : break;
3515 : 343561 : last = get_immediate_dominator (CDI_DOMINATORS, last);
3516 : : }
3517 : 1208178 : }
3518 : :
3519 : 1635909 : for (loop = loop->inner; loop; loop = loop->next)
3520 : 308324 : fill_always_executed_in_1 (loop, contains_call);
3521 : 1327585 : }
3522 : :
3523 : : /* Fills ALWAYS_EXECUTED_IN information for basic blocks, i.e.
3524 : : for each such basic block bb records the outermost loop for that execution
3525 : : of its header implies execution of bb. */
3526 : :
3527 : : static void
3528 : 483036 : fill_always_executed_in (void)
3529 : : {
3530 : 483036 : basic_block bb;
3531 : 483036 : class loop *loop;
3532 : :
3533 : 483036 : auto_sbitmap contains_call (last_basic_block_for_fn (cfun));
3534 : 483036 : bitmap_clear (contains_call);
3535 : 15335640 : FOR_EACH_BB_FN (bb, cfun)
3536 : : {
3537 : 14852604 : gimple_stmt_iterator gsi;
3538 : 118306601 : for (gsi = gsi_start_bb (bb); !gsi_end_p (gsi); gsi_next (&gsi))
3539 : : {
3540 : 96435068 : if (nonpure_call_p (gsi_stmt (gsi)))
3541 : : break;
3542 : : }
3543 : :
3544 : 14852604 : if (!gsi_end_p (gsi))
3545 : 3664024 : bitmap_set_bit (contains_call, bb->index);
3546 : : }
3547 : :
3548 : 1502297 : for (loop = current_loops->tree_root->inner; loop; loop = loop->next)
3549 : 1019261 : fill_always_executed_in_1 (loop, contains_call);
3550 : 483036 : }
3551 : :
3552 : : /* Find the coldest loop preheader for LOOP, also find the nearest hotter loop
3553 : : to LOOP. Then recursively iterate each inner loop. */
3554 : :
3555 : : void
3556 : 1327585 : fill_coldest_and_hotter_out_loop (class loop *coldest_loop,
3557 : : class loop *hotter_loop, class loop *loop)
3558 : : {
3559 : 1327585 : if (bb_colder_than_loop_preheader (loop_preheader_edge (loop)->src,
3560 : : coldest_loop))
3561 : 25814 : coldest_loop = loop;
3562 : :
3563 : 1327585 : coldest_outermost_loop[loop->num] = coldest_loop;
3564 : :
3565 : 1327585 : hotter_than_inner_loop[loop->num] = NULL;
3566 : 1327585 : class loop *outer_loop = loop_outer (loop);
3567 : 1327585 : if (hotter_loop
3568 : 1327585 : && bb_colder_than_loop_preheader (loop_preheader_edge (loop)->src,
3569 : : hotter_loop))
3570 : 2928 : hotter_than_inner_loop[loop->num] = hotter_loop;
3571 : :
3572 : 1327585 : if (outer_loop && outer_loop != current_loops->tree_root
3573 : 1635909 : && bb_colder_than_loop_preheader (loop_preheader_edge (loop)->src,
3574 : : outer_loop))
3575 : 32093 : hotter_than_inner_loop[loop->num] = outer_loop;
3576 : :
3577 : 1327585 : if (dump_enabled_p ())
3578 : : {
3579 : 1476 : dump_printf (MSG_NOTE, "loop %d's coldest_outermost_loop is %d, ",
3580 : : loop->num, coldest_loop->num);
3581 : 1476 : if (hotter_than_inner_loop[loop->num])
3582 : 245 : dump_printf (MSG_NOTE, "hotter_than_inner_loop is %d\n",
3583 : 245 : hotter_than_inner_loop[loop->num]->num);
3584 : : else
3585 : 1231 : dump_printf (MSG_NOTE, "hotter_than_inner_loop is NULL\n");
3586 : : }
3587 : :
3588 : 1327585 : class loop *inner_loop;
3589 : 1635909 : for (inner_loop = loop->inner; inner_loop; inner_loop = inner_loop->next)
3590 : 616648 : fill_coldest_and_hotter_out_loop (coldest_loop,
3591 : 308324 : hotter_than_inner_loop[loop->num],
3592 : : inner_loop);
3593 : 1327585 : }
3594 : :
3595 : : /* Compute the global information needed by the loop invariant motion pass. */
3596 : :
3597 : : static void
3598 : 483036 : tree_ssa_lim_initialize (bool store_motion)
3599 : : {
3600 : 483036 : unsigned i;
3601 : :
3602 : 483036 : bitmap_obstack_initialize (&lim_bitmap_obstack);
3603 : 483036 : gcc_obstack_init (&mem_ref_obstack);
3604 : 483036 : lim_aux_data_map = new hash_map<gimple *, lim_aux_data *>;
3605 : :
3606 : 483036 : if (flag_tm)
3607 : 104 : compute_transaction_bits ();
3608 : :
3609 : 483036 : memory_accesses.refs = new hash_table<mem_ref_hasher> (100);
3610 : 483036 : memory_accesses.refs_list.create (100);
3611 : : /* Allocate a special, unanalyzable mem-ref with ID zero. */
3612 : 483036 : memory_accesses.refs_list.quick_push
3613 : 483036 : (mem_ref_alloc (NULL, 0, UNANALYZABLE_MEM_ID));
3614 : :
3615 : 966072 : memory_accesses.refs_loaded_in_loop.create (number_of_loops (cfun));
3616 : 966072 : memory_accesses.refs_loaded_in_loop.quick_grow_cleared (number_of_loops (cfun));
3617 : 966072 : memory_accesses.refs_stored_in_loop.create (number_of_loops (cfun));
3618 : 966072 : memory_accesses.refs_stored_in_loop.quick_grow_cleared (number_of_loops (cfun));
3619 : 483036 : if (store_motion)
3620 : : {
3621 : 965850 : memory_accesses.all_refs_stored_in_loop.create (number_of_loops (cfun));
3622 : 482925 : memory_accesses.all_refs_stored_in_loop.quick_grow_cleared
3623 : 965850 : (number_of_loops (cfun));
3624 : : }
3625 : :
3626 : 6067996 : for (i = 0; i < number_of_loops (cfun); i++)
3627 : : {
3628 : 2550962 : bitmap_initialize (&memory_accesses.refs_loaded_in_loop[i],
3629 : : &lim_bitmap_obstack);
3630 : 2550962 : bitmap_initialize (&memory_accesses.refs_stored_in_loop[i],
3631 : : &lim_bitmap_obstack);
3632 : 2550962 : if (store_motion)
3633 : 2549847 : bitmap_initialize (&memory_accesses.all_refs_stored_in_loop[i],
3634 : : &lim_bitmap_obstack);
3635 : : }
3636 : :
3637 : 483036 : memory_accesses.ttae_cache = NULL;
3638 : :
3639 : : /* Initialize bb_loop_postorder with a mapping from loop->num to
3640 : : its postorder index. */
3641 : 483036 : i = 0;
3642 : 966072 : bb_loop_postorder = XNEWVEC (unsigned, number_of_loops (cfun));
3643 : 2776693 : for (auto loop : loops_list (cfun, LI_FROM_INNERMOST))
3644 : 1327585 : bb_loop_postorder[loop->num] = i++;
3645 : 483036 : }
3646 : :
3647 : : /* Cleans up after the invariant motion pass. */
3648 : :
3649 : : static void
3650 : 483036 : tree_ssa_lim_finalize (void)
3651 : : {
3652 : 483036 : basic_block bb;
3653 : 483036 : unsigned i;
3654 : 483036 : im_mem_ref *ref;
3655 : :
3656 : 15382560 : FOR_EACH_BB_FN (bb, cfun)
3657 : 14899524 : SET_ALWAYS_EXECUTED_IN (bb, NULL);
3658 : :
3659 : 483036 : bitmap_obstack_release (&lim_bitmap_obstack);
3660 : 966072 : delete lim_aux_data_map;
3661 : :
3662 : 483036 : delete memory_accesses.refs;
3663 : 483036 : memory_accesses.refs = NULL;
3664 : :
3665 : 5696771 : FOR_EACH_VEC_ELT (memory_accesses.refs_list, i, ref)
3666 : 5213735 : memref_free (ref);
3667 : 483036 : memory_accesses.refs_list.release ();
3668 : 483036 : obstack_free (&mem_ref_obstack, NULL);
3669 : :
3670 : 483036 : memory_accesses.refs_loaded_in_loop.release ();
3671 : 483036 : memory_accesses.refs_stored_in_loop.release ();
3672 : 483036 : memory_accesses.all_refs_stored_in_loop.release ();
3673 : :
3674 : 483036 : if (memory_accesses.ttae_cache)
3675 : 4090 : free_affine_expand_cache (&memory_accesses.ttae_cache);
3676 : :
3677 : 483036 : free (bb_loop_postorder);
3678 : :
3679 : 483036 : coldest_outermost_loop.release ();
3680 : 483036 : hotter_than_inner_loop.release ();
3681 : 483036 : }
3682 : :
3683 : : /* Moves invariants from loops. Only "expensive" invariants are moved out --
3684 : : i.e. those that are likely to be win regardless of the register pressure.
3685 : : Only perform store motion if STORE_MOTION is true. */
3686 : :
3687 : : unsigned int
3688 : 483036 : loop_invariant_motion_in_fun (function *fun, bool store_motion)
3689 : : {
3690 : 483036 : unsigned int todo = 0;
3691 : :
3692 : 483036 : tree_ssa_lim_initialize (store_motion);
3693 : :
3694 : 483036 : mark_ssa_maybe_undefs ();
3695 : :
3696 : : /* Gathers information about memory accesses in the loops. */
3697 : 483036 : analyze_memory_references (store_motion);
3698 : :
3699 : : /* Fills ALWAYS_EXECUTED_IN information for basic blocks. */
3700 : 483036 : fill_always_executed_in ();
3701 : :
3702 : : /* Pre-compute coldest outermost loop and nearest hotter loop of each loop.
3703 : : */
3704 : 483036 : class loop *loop;
3705 : 966072 : coldest_outermost_loop.create (number_of_loops (cfun));
3706 : 966072 : coldest_outermost_loop.safe_grow_cleared (number_of_loops (cfun));
3707 : 966072 : hotter_than_inner_loop.create (number_of_loops (cfun));
3708 : 966072 : hotter_than_inner_loop.safe_grow_cleared (number_of_loops (cfun));
3709 : 1502297 : for (loop = current_loops->tree_root->inner; loop != NULL; loop = loop->next)
3710 : 1019261 : fill_coldest_and_hotter_out_loop (loop, NULL, loop);
3711 : :
3712 : 483036 : int *rpo = XNEWVEC (int, last_basic_block_for_fn (fun));
3713 : 483036 : int n = pre_and_rev_post_order_compute_fn (fun, NULL, rpo, false);
3714 : :
3715 : : /* For each statement determine the outermost loop in that it is
3716 : : invariant and cost for computing the invariant. */
3717 : 15335640 : for (int i = 0; i < n; ++i)
3718 : 14852604 : compute_invariantness (BASIC_BLOCK_FOR_FN (fun, rpo[i]));
3719 : :
3720 : : /* Execute store motion. Force the necessary invariants to be moved
3721 : : out of the loops as well. */
3722 : 483036 : if (store_motion)
3723 : 482925 : do_store_motion ();
3724 : :
3725 : 483036 : free (rpo);
3726 : 483036 : rpo = XNEWVEC (int, last_basic_block_for_fn (fun));
3727 : 483036 : n = pre_and_rev_post_order_compute_fn (fun, NULL, rpo, false);
3728 : :
3729 : : /* Move the expressions that are expensive enough. */
3730 : 15382560 : for (int i = 0; i < n; ++i)
3731 : 14899524 : todo |= move_computations_worker (BASIC_BLOCK_FOR_FN (fun, rpo[i]));
3732 : :
3733 : 483036 : free (rpo);
3734 : :
3735 : 483036 : gsi_commit_edge_inserts ();
3736 : 483036 : if (need_ssa_update_p (fun))
3737 : 14756 : rewrite_into_loop_closed_ssa (NULL, TODO_update_ssa);
3738 : :
3739 : 483036 : tree_ssa_lim_finalize ();
3740 : :
3741 : 483036 : return todo;
3742 : : }
3743 : :
3744 : : /* Loop invariant motion pass. */
3745 : :
3746 : : namespace {
3747 : :
3748 : : const pass_data pass_data_lim =
3749 : : {
3750 : : GIMPLE_PASS, /* type */
3751 : : "lim", /* name */
3752 : : OPTGROUP_LOOP, /* optinfo_flags */
3753 : : TV_LIM, /* tv_id */
3754 : : PROP_cfg, /* properties_required */
3755 : : 0, /* properties_provided */
3756 : : 0, /* properties_destroyed */
3757 : : 0, /* todo_flags_start */
3758 : : 0, /* todo_flags_finish */
3759 : : };
3760 : :
3761 : : class pass_lim : public gimple_opt_pass
3762 : : {
3763 : : public:
3764 : 1156320 : pass_lim (gcc::context *ctxt)
3765 : 2312640 : : gimple_opt_pass (pass_data_lim, ctxt)
3766 : : {}
3767 : :
3768 : : /* opt_pass methods: */
3769 : 867240 : opt_pass * clone () final override { return new pass_lim (m_ctxt); }
3770 : 1278321 : bool gate (function *) final override { return flag_tree_loop_im != 0; }
3771 : : unsigned int execute (function *) final override;
3772 : :
3773 : : }; // class pass_lim
3774 : :
3775 : : unsigned int
3776 : 1278000 : pass_lim::execute (function *fun)
3777 : : {
3778 : 1278000 : in_loop_pipeline = scev_initialized_p ();
3779 : 1278000 : if (!in_loop_pipeline)
3780 : 1036746 : loop_optimizer_init (LOOPS_NORMAL | LOOPS_HAVE_RECORDED_EXITS);
3781 : :
3782 : 2556000 : if (number_of_loops (fun) <= 1)
3783 : : return 0;
3784 : 482941 : unsigned int todo = loop_invariant_motion_in_fun (fun, flag_move_loop_stores);
3785 : :
3786 : 482941 : if (!in_loop_pipeline)
3787 : 241687 : loop_optimizer_finalize ();
3788 : : else
3789 : 241254 : scev_reset ();
3790 : : return todo;
3791 : : }
3792 : :
3793 : : } // anon namespace
3794 : :
3795 : : gimple_opt_pass *
3796 : 289080 : make_pass_lim (gcc::context *ctxt)
3797 : : {
3798 : 289080 : return new pass_lim (ctxt);
3799 : : }
3800 : :
3801 : :
|