Branch data Line data Source code
1 : : /* Statement simplification on GIMPLE.
2 : : Copyright (C) 2010-2024 Free Software Foundation, Inc.
3 : : Split out from tree-ssa-ccp.cc.
4 : :
5 : : This file is part of GCC.
6 : :
7 : : GCC is free software; you can redistribute it and/or modify it
8 : : under the terms of the GNU General Public License as published by the
9 : : Free Software Foundation; either version 3, or (at your option) any
10 : : later version.
11 : :
12 : : GCC is distributed in the hope that it will be useful, but WITHOUT
13 : : ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
14 : : FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License
15 : : for more details.
16 : :
17 : : You should have received a copy of the GNU General Public License
18 : : along with GCC; see the file COPYING3. If not see
19 : : <http://www.gnu.org/licenses/>. */
20 : :
21 : : #include "config.h"
22 : : #include "system.h"
23 : : #include "coretypes.h"
24 : : #include "backend.h"
25 : : #include "target.h"
26 : : #include "rtl.h"
27 : : #include "tree.h"
28 : : #include "gimple.h"
29 : : #include "predict.h"
30 : : #include "ssa.h"
31 : : #include "cgraph.h"
32 : : #include "gimple-pretty-print.h"
33 : : #include "gimple-ssa-warn-access.h"
34 : : #include "gimple-ssa-warn-restrict.h"
35 : : #include "fold-const.h"
36 : : #include "stmt.h"
37 : : #include "expr.h"
38 : : #include "stor-layout.h"
39 : : #include "dumpfile.h"
40 : : #include "gimple-iterator.h"
41 : : #include "gimple-fold.h"
42 : : #include "gimplify.h"
43 : : #include "tree-into-ssa.h"
44 : : #include "tree-dfa.h"
45 : : #include "tree-object-size.h"
46 : : #include "tree-ssa.h"
47 : : #include "tree-ssa-propagate.h"
48 : : #include "ipa-utils.h"
49 : : #include "tree-ssa-address.h"
50 : : #include "langhooks.h"
51 : : #include "gimplify-me.h"
52 : : #include "dbgcnt.h"
53 : : #include "builtins.h"
54 : : #include "tree-eh.h"
55 : : #include "gimple-match.h"
56 : : #include "gomp-constants.h"
57 : : #include "optabs-query.h"
58 : : #include "omp-general.h"
59 : : #include "tree-cfg.h"
60 : : #include "fold-const-call.h"
61 : : #include "stringpool.h"
62 : : #include "attribs.h"
63 : : #include "asan.h"
64 : : #include "diagnostic-core.h"
65 : : #include "intl.h"
66 : : #include "calls.h"
67 : : #include "tree-vector-builder.h"
68 : : #include "tree-ssa-strlen.h"
69 : : #include "varasm.h"
70 : : #include "internal-fn.h"
71 : : #include "gimple-range.h"
72 : :
73 : : enum strlen_range_kind {
74 : : /* Compute the exact constant string length. */
75 : : SRK_STRLEN,
76 : : /* Compute the maximum constant string length. */
77 : : SRK_STRLENMAX,
78 : : /* Compute a range of string lengths bounded by object sizes. When
79 : : the length of a string cannot be determined, consider as the upper
80 : : bound the size of the enclosing object the string may be a member
81 : : or element of. Also determine the size of the largest character
82 : : array the string may refer to. */
83 : : SRK_LENRANGE,
84 : : /* Determine the integer value of the argument (not string length). */
85 : : SRK_INT_VALUE
86 : : };
87 : :
88 : : static bool
89 : : get_range_strlen (tree, bitmap, strlen_range_kind, c_strlen_data *, unsigned);
90 : :
91 : : /* Return true when DECL can be referenced from current unit.
92 : : FROM_DECL (if non-null) specify constructor of variable DECL was taken from.
93 : : We can get declarations that are not possible to reference for various
94 : : reasons:
95 : :
96 : : 1) When analyzing C++ virtual tables.
97 : : C++ virtual tables do have known constructors even
98 : : when they are keyed to other compilation unit.
99 : : Those tables can contain pointers to methods and vars
100 : : in other units. Those methods have both STATIC and EXTERNAL
101 : : set.
102 : : 2) In WHOPR mode devirtualization might lead to reference
103 : : to method that was partitioned elsehwere.
104 : : In this case we have static VAR_DECL or FUNCTION_DECL
105 : : that has no corresponding callgraph/varpool node
106 : : declaring the body.
107 : : 3) COMDAT functions referred by external vtables that
108 : : we devirtualize only during final compilation stage.
109 : : At this time we already decided that we will not output
110 : : the function body and thus we can't reference the symbol
111 : : directly. */
112 : :
113 : : static bool
114 : 4442855 : can_refer_decl_in_current_unit_p (tree decl, tree from_decl)
115 : : {
116 : 4442855 : varpool_node *vnode;
117 : 4442855 : struct cgraph_node *node;
118 : 4442855 : symtab_node *snode;
119 : :
120 : 4442855 : if (DECL_ABSTRACT_P (decl))
121 : : return false;
122 : :
123 : : /* We are concerned only about static/external vars and functions. */
124 : 1505853 : if ((!TREE_STATIC (decl) && !DECL_EXTERNAL (decl))
125 : 5545160 : || !VAR_OR_FUNCTION_DECL_P (decl))
126 : : return true;
127 : :
128 : : /* Static objects can be referred only if they are defined and not optimized
129 : : out yet. */
130 : 4039307 : if (!TREE_PUBLIC (decl))
131 : : {
132 : 1087574 : if (DECL_EXTERNAL (decl))
133 : : return false;
134 : : /* Before we start optimizing unreachable code we can be sure all
135 : : static objects are defined. */
136 : 1087530 : if (symtab->function_flags_ready)
137 : : return true;
138 : 1053977 : snode = symtab_node::get (decl);
139 : 1053977 : if (!snode || !snode->definition)
140 : : return false;
141 : 1053936 : node = dyn_cast <cgraph_node *> (snode);
142 : 1062554 : return !node || !node->inlined_to;
143 : : }
144 : :
145 : : /* We will later output the initializer, so we can refer to it.
146 : : So we are concerned only when DECL comes from initializer of
147 : : external var or var that has been optimized out. */
148 : 2951733 : if (!from_decl
149 : 514197 : || !VAR_P (from_decl)
150 : 513114 : || (!DECL_EXTERNAL (from_decl)
151 : 216181 : && (vnode = varpool_node::get (from_decl)) != NULL
152 : 141828 : && vnode->definition)
153 : 3323031 : || (flag_ltrans
154 : 2 : && (vnode = varpool_node::get (from_decl)) != NULL
155 : 2 : && vnode->in_other_partition))
156 : : return true;
157 : : /* We are folding reference from external vtable. The vtable may reffer
158 : : to a symbol keyed to other compilation unit. The other compilation
159 : : unit may be in separate DSO and the symbol may be hidden. */
160 : 371296 : if (DECL_VISIBILITY_SPECIFIED (decl)
161 : 364330 : && DECL_EXTERNAL (decl)
162 : 290361 : && DECL_VISIBILITY (decl) != VISIBILITY_DEFAULT
163 : 568437 : && (!(snode = symtab_node::get (decl)) || !snode->in_other_partition))
164 : : return false;
165 : : /* When function is public, we always can introduce new reference.
166 : : Exception are the COMDAT functions where introducing a direct
167 : : reference imply need to include function body in the curren tunit. */
168 : 174155 : if (TREE_PUBLIC (decl) && !DECL_COMDAT (decl))
169 : : return true;
170 : : /* We have COMDAT. We are going to check if we still have definition
171 : : or if the definition is going to be output in other partition.
172 : : Bypass this when gimplifying; all needed functions will be produced.
173 : :
174 : : As observed in PR20991 for already optimized out comdat virtual functions
175 : : it may be tempting to not necessarily give up because the copy will be
176 : : output elsewhere when corresponding vtable is output.
177 : : This is however not possible - ABI specify that COMDATs are output in
178 : : units where they are used and when the other unit was compiled with LTO
179 : : it is possible that vtable was kept public while the function itself
180 : : was privatized. */
181 : 125283 : if (!symtab->function_flags_ready)
182 : : return true;
183 : :
184 : 112026 : snode = symtab_node::get (decl);
185 : 112026 : if (!snode
186 : 112026 : || ((!snode->definition || DECL_EXTERNAL (decl))
187 : 15468 : && (!snode->in_other_partition
188 : 0 : || (!snode->forced_by_abi && !snode->force_output))))
189 : : return false;
190 : 63277 : node = dyn_cast <cgraph_node *> (snode);
191 : 63277 : return !node || !node->inlined_to;
192 : : }
193 : :
194 : : /* Create a temporary for TYPE for a statement STMT. If the current function
195 : : is in SSA form, a SSA name is created. Otherwise a temporary register
196 : : is made. */
197 : :
198 : : tree
199 : 917361 : create_tmp_reg_or_ssa_name (tree type, gimple *stmt)
200 : : {
201 : 917361 : if (gimple_in_ssa_p (cfun))
202 : 902292 : return make_ssa_name (type, stmt);
203 : : else
204 : 15069 : return create_tmp_reg (type);
205 : : }
206 : :
207 : : /* CVAL is value taken from DECL_INITIAL of variable. Try to transform it into
208 : : acceptable form for is_gimple_min_invariant.
209 : : FROM_DECL (if non-NULL) specify variable whose constructor contains CVAL. */
210 : :
211 : : tree
212 : 15188880 : canonicalize_constructor_val (tree cval, tree from_decl)
213 : : {
214 : 15188880 : if (CONSTANT_CLASS_P (cval))
215 : : return cval;
216 : :
217 : 9284375 : tree orig_cval = cval;
218 : 9284375 : STRIP_NOPS (cval);
219 : 9284375 : if (TREE_CODE (cval) == POINTER_PLUS_EXPR
220 : 9284375 : && TREE_CODE (TREE_OPERAND (cval, 1)) == INTEGER_CST)
221 : : {
222 : 67976 : tree ptr = TREE_OPERAND (cval, 0);
223 : 67976 : if (is_gimple_min_invariant (ptr))
224 : 203580 : cval = build1_loc (EXPR_LOCATION (cval),
225 : 67860 : ADDR_EXPR, TREE_TYPE (ptr),
226 : 135720 : fold_build2 (MEM_REF, TREE_TYPE (TREE_TYPE (ptr)),
227 : : ptr,
228 : : fold_convert (ptr_type_node,
229 : : TREE_OPERAND (cval, 1))));
230 : : }
231 : 9284375 : if (TREE_CODE (cval) == ADDR_EXPR)
232 : : {
233 : 5117401 : tree base = NULL_TREE;
234 : 5117401 : if (TREE_CODE (TREE_OPERAND (cval, 0)) == COMPOUND_LITERAL_EXPR)
235 : : {
236 : 189 : base = COMPOUND_LITERAL_EXPR_DECL (TREE_OPERAND (cval, 0));
237 : 189 : if (base)
238 : 189 : TREE_OPERAND (cval, 0) = base;
239 : : }
240 : : else
241 : 5117212 : base = get_base_address (TREE_OPERAND (cval, 0));
242 : 5117401 : if (!base)
243 : 0 : return NULL_TREE;
244 : :
245 : 2257163 : if (VAR_OR_FUNCTION_DECL_P (base)
246 : 6407686 : && !can_refer_decl_in_current_unit_p (base, from_decl))
247 : : return NULL_TREE;
248 : 4919307 : if (TREE_TYPE (base) == error_mark_node)
249 : : return NULL_TREE;
250 : 4919307 : if (VAR_P (base))
251 : : /* ??? We should be able to assert that TREE_ADDRESSABLE is set,
252 : : but since the use can be in a debug stmt we can't. */
253 : : ;
254 : 2256112 : else if (TREE_CODE (base) == FUNCTION_DECL)
255 : : {
256 : : /* Make sure we create a cgraph node for functions we'll reference.
257 : : They can be non-existent if the reference comes from an entry
258 : : of an external vtable for example. */
259 : 1289234 : cgraph_node::get_create (base);
260 : : }
261 : : /* Fixup types in global initializers. */
262 : 4919307 : if (TREE_TYPE (TREE_TYPE (cval)) != TREE_TYPE (TREE_OPERAND (cval, 0)))
263 : 36863 : cval = build_fold_addr_expr (TREE_OPERAND (cval, 0));
264 : :
265 : 4919307 : if (!useless_type_conversion_p (TREE_TYPE (orig_cval), TREE_TYPE (cval)))
266 : 210703 : cval = fold_convert (TREE_TYPE (orig_cval), cval);
267 : 4919307 : return cval;
268 : : }
269 : : /* In CONSTRUCTORs we may see unfolded constants like (int (*) ()) 0. */
270 : 4166974 : if (TREE_CODE (cval) == INTEGER_CST)
271 : : {
272 : 59946 : if (TREE_OVERFLOW_P (cval))
273 : 0 : cval = drop_tree_overflow (cval);
274 : 59946 : if (!useless_type_conversion_p (TREE_TYPE (orig_cval), TREE_TYPE (cval)))
275 : 59945 : cval = fold_convert (TREE_TYPE (orig_cval), cval);
276 : 59946 : return cval;
277 : : }
278 : : return orig_cval;
279 : : }
280 : :
281 : : /* If SYM is a constant variable with known value, return the value.
282 : : NULL_TREE is returned otherwise. */
283 : :
284 : : tree
285 : 19955914 : get_symbol_constant_value (tree sym)
286 : : {
287 : 19955914 : tree val = ctor_for_folding (sym);
288 : 19955914 : if (val != error_mark_node)
289 : : {
290 : 38008 : if (val)
291 : : {
292 : 35880 : val = canonicalize_constructor_val (unshare_expr (val), sym);
293 : 35880 : if (val
294 : 35880 : && is_gimple_min_invariant (val)
295 : 64848 : && useless_type_conversion_p (TREE_TYPE (sym), TREE_TYPE (val)))
296 : : return val;
297 : : else
298 : 7019 : return NULL_TREE;
299 : : }
300 : : /* Variables declared 'const' without an initializer
301 : : have zero as the initializer if they may not be
302 : : overridden at link or run time. */
303 : 2128 : if (!val
304 : 2128 : && is_gimple_reg_type (TREE_TYPE (sym)))
305 : 1867 : return build_zero_cst (TREE_TYPE (sym));
306 : : }
307 : :
308 : : return NULL_TREE;
309 : : }
310 : :
311 : :
312 : :
313 : : /* Subroutine of fold_stmt. We perform constant folding of the
314 : : memory reference tree EXPR. */
315 : :
316 : : static tree
317 : 58203586 : maybe_fold_reference (tree expr)
318 : : {
319 : 58203586 : tree result = NULL_TREE;
320 : :
321 : 58203586 : if ((TREE_CODE (expr) == VIEW_CONVERT_EXPR
322 : 56272064 : || TREE_CODE (expr) == REALPART_EXPR
323 : 55584558 : || TREE_CODE (expr) == IMAGPART_EXPR)
324 : 59713221 : && CONSTANT_CLASS_P (TREE_OPERAND (expr, 0)))
325 : 271 : result = fold_unary_loc (EXPR_LOCATION (expr),
326 : : TREE_CODE (expr),
327 : 271 : TREE_TYPE (expr),
328 : 271 : TREE_OPERAND (expr, 0));
329 : 58203315 : else if (TREE_CODE (expr) == BIT_FIELD_REF
330 : 58203315 : && CONSTANT_CLASS_P (TREE_OPERAND (expr, 0)))
331 : 4 : result = fold_ternary_loc (EXPR_LOCATION (expr),
332 : : TREE_CODE (expr),
333 : 4 : TREE_TYPE (expr),
334 : 4 : TREE_OPERAND (expr, 0),
335 : 4 : TREE_OPERAND (expr, 1),
336 : 4 : TREE_OPERAND (expr, 2));
337 : : else
338 : 58203311 : result = fold_const_aggregate_ref (expr);
339 : :
340 : 58203586 : if (result && is_gimple_min_invariant (result))
341 : : return result;
342 : :
343 : : return NULL_TREE;
344 : : }
345 : :
346 : : /* Return true if EXPR is an acceptable right-hand-side for a
347 : : GIMPLE assignment. We validate the entire tree, not just
348 : : the root node, thus catching expressions that embed complex
349 : : operands that are not permitted in GIMPLE. This function
350 : : is needed because the folding routines in fold-const.cc
351 : : may return such expressions in some cases, e.g., an array
352 : : access with an embedded index addition. It may make more
353 : : sense to have folding routines that are sensitive to the
354 : : constraints on GIMPLE operands, rather than abandoning any
355 : : any attempt to fold if the usual folding turns out to be too
356 : : aggressive. */
357 : :
358 : : bool
359 : 0 : valid_gimple_rhs_p (tree expr)
360 : : {
361 : 0 : enum tree_code code = TREE_CODE (expr);
362 : :
363 : 0 : switch (TREE_CODE_CLASS (code))
364 : : {
365 : 0 : case tcc_declaration:
366 : 0 : if (!is_gimple_variable (expr))
367 : : return false;
368 : : break;
369 : :
370 : : case tcc_constant:
371 : : /* All constants are ok. */
372 : : break;
373 : :
374 : 0 : case tcc_comparison:
375 : : /* GENERIC allows comparisons with non-boolean types, reject
376 : : those for GIMPLE. Let vector-typed comparisons pass - rules
377 : : for GENERIC and GIMPLE are the same here. */
378 : 0 : if (!(INTEGRAL_TYPE_P (TREE_TYPE (expr))
379 : 0 : && (TREE_CODE (TREE_TYPE (expr)) == BOOLEAN_TYPE
380 : 0 : || TYPE_PRECISION (TREE_TYPE (expr)) == 1))
381 : 0 : && ! VECTOR_TYPE_P (TREE_TYPE (expr)))
382 : : return false;
383 : :
384 : : /* Fallthru. */
385 : 0 : case tcc_binary:
386 : 0 : if (!is_gimple_val (TREE_OPERAND (expr, 0))
387 : 0 : || !is_gimple_val (TREE_OPERAND (expr, 1)))
388 : 0 : return false;
389 : : break;
390 : :
391 : 0 : case tcc_unary:
392 : 0 : if (!is_gimple_val (TREE_OPERAND (expr, 0)))
393 : : return false;
394 : : break;
395 : :
396 : 0 : case tcc_expression:
397 : 0 : switch (code)
398 : : {
399 : 0 : case ADDR_EXPR:
400 : 0 : {
401 : 0 : tree t;
402 : 0 : if (is_gimple_min_invariant (expr))
403 : : return true;
404 : 0 : t = TREE_OPERAND (expr, 0);
405 : 0 : while (handled_component_p (t))
406 : : {
407 : : /* ??? More checks needed, see the GIMPLE verifier. */
408 : 0 : if ((TREE_CODE (t) == ARRAY_REF
409 : 0 : || TREE_CODE (t) == ARRAY_RANGE_REF)
410 : 0 : && !is_gimple_val (TREE_OPERAND (t, 1)))
411 : : return false;
412 : 0 : t = TREE_OPERAND (t, 0);
413 : : }
414 : 0 : if (!is_gimple_id (t))
415 : : return false;
416 : : }
417 : : break;
418 : :
419 : 0 : default:
420 : 0 : if (get_gimple_rhs_class (code) == GIMPLE_TERNARY_RHS)
421 : : {
422 : 0 : if (!is_gimple_val (TREE_OPERAND (expr, 0))
423 : 0 : || !is_gimple_val (TREE_OPERAND (expr, 1))
424 : 0 : || !is_gimple_val (TREE_OPERAND (expr, 2)))
425 : 0 : return false;
426 : : break;
427 : : }
428 : : return false;
429 : : }
430 : : break;
431 : :
432 : : case tcc_vl_exp:
433 : : return false;
434 : :
435 : 0 : case tcc_exceptional:
436 : 0 : if (code == CONSTRUCTOR)
437 : : {
438 : : unsigned i;
439 : : tree elt;
440 : 0 : FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (expr), i, elt)
441 : 0 : if (!is_gimple_val (elt))
442 : : return false;
443 : : return true;
444 : : }
445 : 0 : if (code != SSA_NAME)
446 : : return false;
447 : : break;
448 : :
449 : 0 : case tcc_reference:
450 : 0 : if (code == BIT_FIELD_REF)
451 : 0 : return is_gimple_val (TREE_OPERAND (expr, 0));
452 : : return false;
453 : :
454 : : default:
455 : : return false;
456 : : }
457 : :
458 : : return true;
459 : : }
460 : :
461 : :
462 : : /* Attempt to fold an assignment statement pointed-to by SI. Returns a
463 : : replacement rhs for the statement or NULL_TREE if no simplification
464 : : could be made. It is assumed that the operands have been previously
465 : : folded. */
466 : :
467 : : static tree
468 : 235689533 : fold_gimple_assign (gimple_stmt_iterator *si)
469 : : {
470 : 235689533 : gimple *stmt = gsi_stmt (*si);
471 : 235689533 : enum tree_code subcode = gimple_assign_rhs_code (stmt);
472 : 235689533 : location_t loc = gimple_location (stmt);
473 : :
474 : 235689533 : tree result = NULL_TREE;
475 : :
476 : 235689533 : switch (get_gimple_rhs_class (subcode))
477 : : {
478 : 156183356 : case GIMPLE_SINGLE_RHS:
479 : 156183356 : {
480 : 156183356 : tree rhs = gimple_assign_rhs1 (stmt);
481 : :
482 : 156183356 : if (TREE_CLOBBER_P (rhs))
483 : : return NULL_TREE;
484 : :
485 : 142590460 : if (REFERENCE_CLASS_P (rhs))
486 : 56404437 : return maybe_fold_reference (rhs);
487 : :
488 : 86186023 : else if (TREE_CODE (rhs) == OBJ_TYPE_REF)
489 : : {
490 : 65876 : tree val = OBJ_TYPE_REF_EXPR (rhs);
491 : 65876 : if (is_gimple_min_invariant (val))
492 : : return val;
493 : 65876 : else if (flag_devirtualize && virtual_method_call_p (rhs))
494 : : {
495 : 65836 : bool final;
496 : 65836 : vec <cgraph_node *>targets
497 : 65836 : = possible_polymorphic_call_targets (rhs, stmt, &final);
498 : 65859 : if (final && targets.length () <= 1 && dbg_cnt (devirt))
499 : : {
500 : 23 : if (dump_enabled_p ())
501 : : {
502 : 0 : dump_printf_loc (MSG_OPTIMIZED_LOCATIONS, stmt,
503 : : "resolving virtual function address "
504 : : "reference to function %s\n",
505 : 0 : targets.length () == 1
506 : 0 : ? targets[0]->name ()
507 : : : "NULL");
508 : : }
509 : 23 : if (targets.length () == 1)
510 : : {
511 : 16 : val = fold_convert (TREE_TYPE (val),
512 : : build_fold_addr_expr_loc
513 : : (loc, targets[0]->decl));
514 : 16 : STRIP_USELESS_TYPE_CONVERSION (val);
515 : : }
516 : : else
517 : : /* We cannot use __builtin_unreachable here because it
518 : : cannot have address taken. */
519 : 7 : val = build_int_cst (TREE_TYPE (val), 0);
520 : 23 : return val;
521 : : }
522 : : }
523 : : }
524 : :
525 : 86120147 : else if (TREE_CODE (rhs) == ADDR_EXPR)
526 : : {
527 : 13535882 : tree ref = TREE_OPERAND (rhs, 0);
528 : 13535882 : if (TREE_CODE (ref) == MEM_REF
529 : 13535882 : && integer_zerop (TREE_OPERAND (ref, 1)))
530 : : {
531 : 2337 : result = TREE_OPERAND (ref, 0);
532 : 2337 : if (!useless_type_conversion_p (TREE_TYPE (rhs),
533 : 2337 : TREE_TYPE (result)))
534 : 0 : result = build1 (NOP_EXPR, TREE_TYPE (rhs), result);
535 : 2337 : return result;
536 : : }
537 : : }
538 : :
539 : 72584265 : else if (TREE_CODE (rhs) == CONSTRUCTOR
540 : 72584265 : && TREE_CODE (TREE_TYPE (rhs)) == VECTOR_TYPE)
541 : : {
542 : : /* Fold a constant vector CONSTRUCTOR to VECTOR_CST. */
543 : : unsigned i;
544 : : tree val;
545 : :
546 : 435943 : FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (rhs), i, val)
547 : 431621 : if (! CONSTANT_CLASS_P (val))
548 : : return NULL_TREE;
549 : :
550 : 4322 : return build_vector_from_ctor (TREE_TYPE (rhs),
551 : 8644 : CONSTRUCTOR_ELTS (rhs));
552 : : }
553 : :
554 : 72247787 : else if (DECL_P (rhs)
555 : 72247787 : && is_gimple_reg_type (TREE_TYPE (rhs)))
556 : 11568888 : return get_symbol_constant_value (rhs);
557 : : }
558 : : break;
559 : :
560 : : case GIMPLE_UNARY_RHS:
561 : : break;
562 : :
563 : : case GIMPLE_BINARY_RHS:
564 : : break;
565 : :
566 : 423517 : case GIMPLE_TERNARY_RHS:
567 : 847034 : result = fold_ternary_loc (loc, subcode,
568 : 423517 : TREE_TYPE (gimple_assign_lhs (stmt)),
569 : : gimple_assign_rhs1 (stmt),
570 : : gimple_assign_rhs2 (stmt),
571 : : gimple_assign_rhs3 (stmt));
572 : :
573 : 423517 : if (result)
574 : : {
575 : 0 : STRIP_USELESS_TYPE_CONVERSION (result);
576 : 0 : if (valid_gimple_rhs_p (result))
577 : : return result;
578 : : }
579 : : break;
580 : :
581 : 0 : case GIMPLE_INVALID_RHS:
582 : 0 : gcc_unreachable ();
583 : : }
584 : :
585 : : return NULL_TREE;
586 : : }
587 : :
588 : :
589 : : /* Replace a statement at *SI_P with a sequence of statements in STMTS,
590 : : adjusting the replacement stmts location and virtual operands.
591 : : If the statement has a lhs the last stmt in the sequence is expected
592 : : to assign to that lhs. */
593 : :
594 : : void
595 : 110646 : gsi_replace_with_seq_vops (gimple_stmt_iterator *si_p, gimple_seq stmts)
596 : : {
597 : 110646 : gimple *stmt = gsi_stmt (*si_p);
598 : :
599 : 110646 : if (gimple_has_location (stmt))
600 : 90755 : annotate_all_with_location (stmts, gimple_location (stmt));
601 : :
602 : : /* First iterate over the replacement statements backward, assigning
603 : : virtual operands to their defining statements. */
604 : 110646 : gimple *laststore = NULL;
605 : 221292 : for (gimple_stmt_iterator i = gsi_last (stmts);
606 : 415642 : !gsi_end_p (i); gsi_prev (&i))
607 : : {
608 : 152498 : gimple *new_stmt = gsi_stmt (i);
609 : 152498 : if ((gimple_assign_single_p (new_stmt)
610 : 100619 : && !is_gimple_reg (gimple_assign_lhs (new_stmt)))
611 : 252658 : || (is_gimple_call (new_stmt)
612 : 15050 : && (gimple_call_flags (new_stmt)
613 : 15050 : & (ECF_NOVOPS | ECF_PURE | ECF_CONST | ECF_NORETURN)) == 0))
614 : : {
615 : 2666 : tree vdef;
616 : 2666 : if (!laststore)
617 : 2513 : vdef = gimple_vdef (stmt);
618 : : else
619 : 153 : vdef = make_ssa_name (gimple_vop (cfun), new_stmt);
620 : 2666 : gimple_set_vdef (new_stmt, vdef);
621 : 2666 : if (vdef && TREE_CODE (vdef) == SSA_NAME)
622 : 1629 : SSA_NAME_DEF_STMT (vdef) = new_stmt;
623 : : laststore = new_stmt;
624 : : }
625 : : }
626 : :
627 : : /* Second iterate over the statements forward, assigning virtual
628 : : operands to their uses. */
629 : 110646 : tree reaching_vuse = gimple_vuse (stmt);
630 : 110646 : for (gimple_stmt_iterator i = gsi_start (stmts);
631 : 263144 : !gsi_end_p (i); gsi_next (&i))
632 : : {
633 : 152498 : gimple *new_stmt = gsi_stmt (i);
634 : : /* If the new statement possibly has a VUSE, update it with exact SSA
635 : : name we know will reach this one. */
636 : 152498 : if (gimple_has_mem_ops (new_stmt))
637 : 152496 : gimple_set_vuse (new_stmt, reaching_vuse);
638 : 152498 : gimple_set_modified (new_stmt, true);
639 : 455858 : if (gimple_vdef (new_stmt))
640 : 152498 : reaching_vuse = gimple_vdef (new_stmt);
641 : : }
642 : :
643 : : /* If the new sequence does not do a store release the virtual
644 : : definition of the original statement. */
645 : 110646 : if (reaching_vuse
646 : 181590 : && reaching_vuse == gimple_vuse (stmt))
647 : : {
648 : 69468 : tree vdef = gimple_vdef (stmt);
649 : 69468 : if (vdef
650 : 1300 : && TREE_CODE (vdef) == SSA_NAME)
651 : : {
652 : 1245 : unlink_stmt_vdef (stmt);
653 : 1245 : release_ssa_name (vdef);
654 : : }
655 : : }
656 : :
657 : : /* Finally replace the original statement with the sequence. */
658 : 110646 : gsi_replace_with_seq (si_p, stmts, false);
659 : 110646 : }
660 : :
661 : : /* Helper function for update_gimple_call and
662 : : gimplify_and_update_call_from_tree. A GIMPLE_CALL STMT is being replaced
663 : : with GIMPLE_CALL NEW_STMT. */
664 : :
665 : : static void
666 : 2269 : finish_update_gimple_call (gimple_stmt_iterator *si_p, gimple *new_stmt,
667 : : gimple *stmt)
668 : : {
669 : 2269 : tree lhs = gimple_call_lhs (stmt);
670 : 2269 : gimple_call_set_lhs (new_stmt, lhs);
671 : 2269 : if (lhs && TREE_CODE (lhs) == SSA_NAME)
672 : 825 : SSA_NAME_DEF_STMT (lhs) = new_stmt;
673 : 2269 : gimple_move_vops (new_stmt, stmt);
674 : 2269 : gimple_set_location (new_stmt, gimple_location (stmt));
675 : 2269 : if (gimple_block (new_stmt) == NULL_TREE)
676 : 0 : gimple_set_block (new_stmt, gimple_block (stmt));
677 : 2269 : gsi_replace (si_p, new_stmt, false);
678 : 2269 : }
679 : :
680 : : /* Update a GIMPLE_CALL statement at iterator *SI_P to call to FN
681 : : with number of arguments NARGS, where the arguments in GIMPLE form
682 : : follow NARGS argument. */
683 : :
684 : : bool
685 : 2267 : update_gimple_call (gimple_stmt_iterator *si_p, tree fn, int nargs, ...)
686 : : {
687 : 2267 : va_list ap;
688 : 2267 : gcall *new_stmt, *stmt = as_a <gcall *> (gsi_stmt (*si_p));
689 : :
690 : 2267 : gcc_assert (is_gimple_call (stmt));
691 : 2267 : va_start (ap, nargs);
692 : 2267 : new_stmt = gimple_build_call_valist (fn, nargs, ap);
693 : 2267 : finish_update_gimple_call (si_p, new_stmt, stmt);
694 : 2267 : va_end (ap);
695 : 2267 : return true;
696 : : }
697 : :
698 : : /* Return true if EXPR is a CALL_EXPR suitable for representation
699 : : as a single GIMPLE_CALL statement. If the arguments require
700 : : further gimplification, return false. */
701 : :
702 : : static bool
703 : 50651 : valid_gimple_call_p (tree expr)
704 : : {
705 : 50651 : unsigned i, nargs;
706 : :
707 : 50651 : if (TREE_CODE (expr) != CALL_EXPR)
708 : : return false;
709 : :
710 : 2 : nargs = call_expr_nargs (expr);
711 : 4 : for (i = 0; i < nargs; i++)
712 : : {
713 : 2 : tree arg = CALL_EXPR_ARG (expr, i);
714 : 2 : if (is_gimple_reg_type (TREE_TYPE (arg)))
715 : : {
716 : 2 : if (!is_gimple_val (arg))
717 : : return false;
718 : : }
719 : : else
720 : 0 : if (!is_gimple_lvalue (arg))
721 : : return false;
722 : : }
723 : :
724 : : return true;
725 : : }
726 : :
727 : : /* Convert EXPR into a GIMPLE value suitable for substitution on the
728 : : RHS of an assignment. Insert the necessary statements before
729 : : iterator *SI_P. The statement at *SI_P, which must be a GIMPLE_CALL
730 : : is replaced. If the call is expected to produces a result, then it
731 : : is replaced by an assignment of the new RHS to the result variable.
732 : : If the result is to be ignored, then the call is replaced by a
733 : : GIMPLE_NOP. A proper VDEF chain is retained by making the first
734 : : VUSE and the last VDEF of the whole sequence be the same as the replaced
735 : : statement and using new SSA names for stores in between. */
736 : :
737 : : void
738 : 50651 : gimplify_and_update_call_from_tree (gimple_stmt_iterator *si_p, tree expr)
739 : : {
740 : 50651 : tree lhs;
741 : 50651 : gimple *stmt, *new_stmt;
742 : 50651 : gimple_stmt_iterator i;
743 : 50651 : gimple_seq stmts = NULL;
744 : :
745 : 50651 : stmt = gsi_stmt (*si_p);
746 : :
747 : 50651 : gcc_assert (is_gimple_call (stmt));
748 : :
749 : 50651 : if (valid_gimple_call_p (expr))
750 : : {
751 : : /* The call has simplified to another call. */
752 : 2 : tree fn = CALL_EXPR_FN (expr);
753 : 2 : unsigned i;
754 : 2 : unsigned nargs = call_expr_nargs (expr);
755 : 2 : vec<tree> args = vNULL;
756 : 2 : gcall *new_stmt;
757 : :
758 : 2 : if (nargs > 0)
759 : : {
760 : 2 : args.create (nargs);
761 : 2 : args.safe_grow_cleared (nargs, true);
762 : :
763 : 6 : for (i = 0; i < nargs; i++)
764 : 2 : args[i] = CALL_EXPR_ARG (expr, i);
765 : : }
766 : :
767 : 2 : new_stmt = gimple_build_call_vec (fn, args);
768 : 2 : finish_update_gimple_call (si_p, new_stmt, stmt);
769 : 2 : args.release ();
770 : 2 : return;
771 : : }
772 : :
773 : 50649 : lhs = gimple_call_lhs (stmt);
774 : 50649 : if (lhs == NULL_TREE)
775 : : {
776 : 12704 : push_gimplify_context (gimple_in_ssa_p (cfun));
777 : 6352 : gimplify_and_add (expr, &stmts);
778 : 6352 : pop_gimplify_context (NULL);
779 : :
780 : : /* We can end up with folding a memcpy of an empty class assignment
781 : : which gets optimized away by C++ gimplification. */
782 : 6352 : if (gimple_seq_empty_p (stmts))
783 : : {
784 : 6025 : if (gimple_in_ssa_p (cfun))
785 : : {
786 : 6025 : unlink_stmt_vdef (stmt);
787 : 6025 : release_defs (stmt);
788 : : }
789 : 6025 : gsi_replace (si_p, gimple_build_nop (), false);
790 : 6025 : return;
791 : : }
792 : : }
793 : : else
794 : : {
795 : 44297 : tree tmp = force_gimple_operand (expr, &stmts, false, NULL_TREE);
796 : 44297 : new_stmt = gimple_build_assign (lhs, tmp);
797 : 44297 : i = gsi_last (stmts);
798 : 44297 : gsi_insert_after_without_update (&i, new_stmt,
799 : : GSI_CONTINUE_LINKING);
800 : : }
801 : :
802 : 44624 : gsi_replace_with_seq_vops (si_p, stmts);
803 : : }
804 : :
805 : : /* Print a message in the dump file recording transformation of FROM to TO. */
806 : :
807 : : static void
808 : 39659 : dump_transformation (gcall *from, gcall *to)
809 : : {
810 : 39659 : if (dump_enabled_p ())
811 : 11 : dump_printf_loc (MSG_OPTIMIZED_LOCATIONS, from, "simplified %T to %T\n",
812 : : gimple_call_fn (from), gimple_call_fn (to));
813 : 39659 : }
814 : :
815 : : /* Replace the call at *GSI with the gimple value VAL. */
816 : :
817 : : void
818 : 71398 : replace_call_with_value (gimple_stmt_iterator *gsi, tree val)
819 : : {
820 : 71398 : gimple *stmt = gsi_stmt (*gsi);
821 : 71398 : tree lhs = gimple_call_lhs (stmt);
822 : 71398 : gimple *repl;
823 : 71398 : if (lhs)
824 : : {
825 : 68327 : if (!useless_type_conversion_p (TREE_TYPE (lhs), TREE_TYPE (val)))
826 : 3314 : val = fold_convert (TREE_TYPE (lhs), val);
827 : 68327 : repl = gimple_build_assign (lhs, val);
828 : : }
829 : : else
830 : 3071 : repl = gimple_build_nop ();
831 : 71398 : tree vdef = gimple_vdef (stmt);
832 : 71398 : if (vdef && TREE_CODE (vdef) == SSA_NAME)
833 : : {
834 : 3724 : unlink_stmt_vdef (stmt);
835 : 3724 : release_ssa_name (vdef);
836 : : }
837 : 71398 : gsi_replace (gsi, repl, false);
838 : 71398 : }
839 : :
840 : : /* Replace the call at *GSI with the new call REPL and fold that
841 : : again. */
842 : :
843 : : static void
844 : 39659 : replace_call_with_call_and_fold (gimple_stmt_iterator *gsi, gimple *repl)
845 : : {
846 : 39659 : gimple *stmt = gsi_stmt (*gsi);
847 : 39659 : dump_transformation (as_a <gcall *> (stmt), as_a <gcall *> (repl));
848 : 39659 : gimple_call_set_lhs (repl, gimple_call_lhs (stmt));
849 : 39659 : gimple_set_location (repl, gimple_location (stmt));
850 : 39659 : gimple_move_vops (repl, stmt);
851 : 39659 : gsi_replace (gsi, repl, false);
852 : 39659 : fold_stmt (gsi);
853 : 39659 : }
854 : :
855 : : /* Return true if VAR is a VAR_DECL or a component thereof. */
856 : :
857 : : static bool
858 : 400469 : var_decl_component_p (tree var)
859 : : {
860 : 400469 : tree inner = var;
861 : 571931 : while (handled_component_p (inner))
862 : 171462 : inner = TREE_OPERAND (inner, 0);
863 : 400469 : return (DECL_P (inner)
864 : 400469 : || (TREE_CODE (inner) == MEM_REF
865 : 39746 : && TREE_CODE (TREE_OPERAND (inner, 0)) == ADDR_EXPR));
866 : : }
867 : :
868 : : /* Return TRUE if the SIZE argument, representing the size of an
869 : : object, is in a range of values of which exactly zero is valid. */
870 : :
871 : : static bool
872 : 887010 : size_must_be_zero_p (tree size)
873 : : {
874 : 887010 : if (integer_zerop (size))
875 : : return true;
876 : :
877 : 884578 : if (TREE_CODE (size) != SSA_NAME || !INTEGRAL_TYPE_P (TREE_TYPE (size)))
878 : : return false;
879 : :
880 : 503634 : tree type = TREE_TYPE (size);
881 : 503634 : int prec = TYPE_PRECISION (type);
882 : :
883 : : /* Compute the value of SSIZE_MAX, the largest positive value that
884 : : can be stored in ssize_t, the signed counterpart of size_t. */
885 : 503634 : wide_int ssize_max = wi::lshift (wi::one (prec), prec - 1) - 1;
886 : 503634 : wide_int zero = wi::zero (TYPE_PRECISION (type));
887 : 503634 : int_range_max valid_range (type, zero, ssize_max);
888 : 503634 : int_range_max vr;
889 : 1007268 : get_range_query (cfun)->range_of_expr (vr, size);
890 : :
891 : 503634 : if (vr.undefined_p ())
892 : 49 : vr.set_varying (TREE_TYPE (size));
893 : 503634 : vr.intersect (valid_range);
894 : 503634 : return vr.zero_p ();
895 : 503634 : }
896 : :
897 : : /* Optimize
898 : : a = {};
899 : : b = a;
900 : : into
901 : : a = {};
902 : : b = {};
903 : : Similarly for memset (&a, ..., sizeof (a)); instead of a = {};
904 : : and/or memcpy (&b, &a, sizeof (a)); instead of b = a; */
905 : :
906 : : static bool
907 : 8603042 : optimize_memcpy_to_memset (gimple_stmt_iterator *gsip, tree dest, tree src, tree len)
908 : : {
909 : 8603042 : gimple *stmt = gsi_stmt (*gsip);
910 : 17206084 : if (gimple_has_volatile_ops (stmt))
911 : : return false;
912 : :
913 : 17198274 : tree vuse = gimple_vuse (stmt);
914 : 8601326 : if (vuse == NULL || TREE_CODE (vuse) != SSA_NAME)
915 : : return false;
916 : :
917 : 5662954 : gimple *defstmt = SSA_NAME_DEF_STMT (vuse);
918 : 5662954 : tree src2 = NULL_TREE, len2 = NULL_TREE;
919 : 5662954 : poly_int64 offset, offset2;
920 : 5662954 : tree val = integer_zero_node;
921 : 5662954 : if (gimple_store_p (defstmt)
922 : 4811439 : && gimple_assign_single_p (defstmt)
923 : 3495271 : && TREE_CODE (gimple_assign_rhs1 (defstmt)) == CONSTRUCTOR
924 : 5994340 : && !gimple_clobber_p (defstmt))
925 : 68987 : src2 = gimple_assign_lhs (defstmt);
926 : 5593967 : else if (gimple_call_builtin_p (defstmt, BUILT_IN_MEMSET)
927 : 14110 : && TREE_CODE (gimple_call_arg (defstmt, 0)) == ADDR_EXPR
928 : 5607889 : && TREE_CODE (gimple_call_arg (defstmt, 1)) == INTEGER_CST)
929 : : {
930 : 13922 : src2 = TREE_OPERAND (gimple_call_arg (defstmt, 0), 0);
931 : 13922 : len2 = gimple_call_arg (defstmt, 2);
932 : 13922 : val = gimple_call_arg (defstmt, 1);
933 : : /* For non-0 val, we'd have to transform stmt from assignment
934 : : into memset (only if dest is addressable). */
935 : 13922 : if (!integer_zerop (val) && is_gimple_assign (stmt))
936 : : src2 = NULL_TREE;
937 : : }
938 : :
939 : 82538 : if (src2 == NULL_TREE)
940 : 5580416 : return false;
941 : :
942 : 82538 : if (len == NULL_TREE)
943 : 69080 : len = (TREE_CODE (src) == COMPONENT_REF
944 : 114169 : ? DECL_SIZE_UNIT (TREE_OPERAND (src, 1))
945 : 45089 : : TYPE_SIZE_UNIT (TREE_TYPE (src)));
946 : 82538 : if (len2 == NULL_TREE)
947 : 68987 : len2 = (TREE_CODE (src2) == COMPONENT_REF
948 : 135569 : ? DECL_SIZE_UNIT (TREE_OPERAND (src2, 1))
949 : 66582 : : TYPE_SIZE_UNIT (TREE_TYPE (src2)));
950 : 82538 : if (len == NULL_TREE
951 : 82538 : || !poly_int_tree_p (len)
952 : 82538 : || len2 == NULL_TREE
953 : 165076 : || !poly_int_tree_p (len2))
954 : : return false;
955 : :
956 : 82538 : src = get_addr_base_and_unit_offset (src, &offset);
957 : 82538 : src2 = get_addr_base_and_unit_offset (src2, &offset2);
958 : 82538 : if (src == NULL_TREE
959 : 82538 : || src2 == NULL_TREE
960 : 82538 : || maybe_lt (offset, offset2))
961 : : return false;
962 : :
963 : 76200 : if (!operand_equal_p (src, src2, 0))
964 : : return false;
965 : :
966 : : /* [ src + offset2, src + offset2 + len2 - 1 ] is set to val.
967 : : Make sure that
968 : : [ src + offset, src + offset + len - 1 ] is a subset of that. */
969 : 6103 : if (maybe_gt (wi::to_poly_offset (len) + (offset - offset2),
970 : : wi::to_poly_offset (len2)))
971 : : return false;
972 : :
973 : 6094 : if (dump_file && (dump_flags & TDF_DETAILS))
974 : : {
975 : 17 : fprintf (dump_file, "Simplified\n ");
976 : 17 : print_gimple_stmt (dump_file, stmt, 0, dump_flags);
977 : 17 : fprintf (dump_file, "after previous\n ");
978 : 17 : print_gimple_stmt (dump_file, defstmt, 0, dump_flags);
979 : : }
980 : :
981 : : /* For simplicity, don't change the kind of the stmt,
982 : : turn dest = src; into dest = {}; and memcpy (&dest, &src, len);
983 : : into memset (&dest, val, len);
984 : : In theory we could change dest = src into memset if dest
985 : : is addressable (maybe beneficial if val is not 0), or
986 : : memcpy (&dest, &src, len) into dest = {} if len is the size
987 : : of dest, dest isn't volatile. */
988 : 6094 : if (is_gimple_assign (stmt))
989 : : {
990 : 6093 : tree ctor = build_constructor (TREE_TYPE (dest), NULL);
991 : 6093 : gimple_assign_set_rhs_from_tree (gsip, ctor);
992 : 6093 : update_stmt (stmt);
993 : : }
994 : : else /* If stmt is memcpy, transform it into memset. */
995 : : {
996 : 1 : gcall *call = as_a <gcall *> (stmt);
997 : 1 : tree fndecl = builtin_decl_implicit (BUILT_IN_MEMSET);
998 : 1 : gimple_call_set_fndecl (call, fndecl);
999 : 1 : gimple_call_set_fntype (call, TREE_TYPE (fndecl));
1000 : 1 : gimple_call_set_arg (call, 1, val);
1001 : 1 : update_stmt (stmt);
1002 : : }
1003 : :
1004 : 6094 : if (dump_file && (dump_flags & TDF_DETAILS))
1005 : : {
1006 : 17 : fprintf (dump_file, "into\n ");
1007 : 17 : print_gimple_stmt (dump_file, stmt, 0, dump_flags);
1008 : : }
1009 : : return true;
1010 : : }
1011 : :
1012 : : /* Fold function call to builtin mem{{,p}cpy,move}. Try to detect and
1013 : : diagnose (otherwise undefined) overlapping copies without preventing
1014 : : folding. When folded, GCC guarantees that overlapping memcpy has
1015 : : the same semantics as memmove. Call to the library memcpy need not
1016 : : provide the same guarantee. Return false if no simplification can
1017 : : be made. */
1018 : :
1019 : : static bool
1020 : 887010 : gimple_fold_builtin_memory_op (gimple_stmt_iterator *gsi,
1021 : : tree dest, tree src, enum built_in_function code)
1022 : : {
1023 : 887010 : gimple *stmt = gsi_stmt (*gsi);
1024 : 887010 : tree lhs = gimple_call_lhs (stmt);
1025 : 887010 : tree len = gimple_call_arg (stmt, 2);
1026 : 887010 : location_t loc = gimple_location (stmt);
1027 : :
1028 : : /* If the LEN parameter is a constant zero or in range where
1029 : : the only valid value is zero, return DEST. */
1030 : 887010 : if (size_must_be_zero_p (len))
1031 : : {
1032 : 2464 : gimple *repl;
1033 : 2464 : if (gimple_call_lhs (stmt))
1034 : 57 : repl = gimple_build_assign (gimple_call_lhs (stmt), dest);
1035 : : else
1036 : 2407 : repl = gimple_build_nop ();
1037 : 2464 : tree vdef = gimple_vdef (stmt);
1038 : 2464 : if (vdef && TREE_CODE (vdef) == SSA_NAME)
1039 : : {
1040 : 409 : unlink_stmt_vdef (stmt);
1041 : 409 : release_ssa_name (vdef);
1042 : : }
1043 : 2464 : gsi_replace (gsi, repl, false);
1044 : 2464 : return true;
1045 : : }
1046 : :
1047 : : /* If SRC and DEST are the same (and not volatile), return
1048 : : DEST{,+LEN,+LEN-1}. */
1049 : 884546 : if (operand_equal_p (src, dest, 0))
1050 : : {
1051 : : /* Avoid diagnosing exact overlap in calls to __builtin_memcpy.
1052 : : It's safe and may even be emitted by GCC itself (see bug
1053 : : 32667). */
1054 : 67 : unlink_stmt_vdef (stmt);
1055 : 134 : if (gimple_vdef (stmt) && TREE_CODE (gimple_vdef (stmt)) == SSA_NAME)
1056 : 27 : release_ssa_name (gimple_vdef (stmt));
1057 : 67 : if (!lhs)
1058 : : {
1059 : 46 : gsi_replace (gsi, gimple_build_nop (), false);
1060 : 46 : return true;
1061 : : }
1062 : 21 : goto done;
1063 : : }
1064 : 1768958 : else if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
1065 : : return false;
1066 : : else
1067 : : {
1068 : : /* We cannot (easily) change the type of the copy if it is a storage
1069 : : order barrier, i.e. is equivalent to a VIEW_CONVERT_EXPR that can
1070 : : modify the storage order of objects (see storage_order_barrier_p). */
1071 : 884479 : tree srctype
1072 : 896918 : = POINTER_TYPE_P (TREE_TYPE (src))
1073 : 896918 : ? TREE_TYPE (TREE_TYPE (src)) : NULL_TREE;
1074 : 884479 : tree desttype
1075 : 905046 : = POINTER_TYPE_P (TREE_TYPE (dest))
1076 : 905046 : ? TREE_TYPE (TREE_TYPE (dest)) : NULL_TREE;
1077 : 884479 : tree destvar, srcvar, srcoff;
1078 : 884479 : unsigned int src_align, dest_align;
1079 : 884479 : unsigned HOST_WIDE_INT tmp_len;
1080 : 884479 : const char *tmp_str;
1081 : :
1082 : : /* Build accesses at offset zero with a ref-all character type. */
1083 : 884479 : tree off0
1084 : 884479 : = build_int_cst (build_pointer_type_for_mode (char_type_node,
1085 : 884479 : ptr_mode, true), 0);
1086 : :
1087 : : /* If we can perform the copy efficiently with first doing all loads
1088 : : and then all stores inline it that way. Currently efficiently
1089 : : means that we can load all the memory into a single integer
1090 : : register which is what MOVE_MAX gives us. */
1091 : 884479 : src_align = get_pointer_alignment (src);
1092 : 884479 : dest_align = get_pointer_alignment (dest);
1093 : 884479 : if (tree_fits_uhwi_p (len)
1094 : 372369 : && compare_tree_int (len, MOVE_MAX) <= 0
1095 : : /* FIXME: Don't transform copies from strings with known length.
1096 : : Until GCC 9 this prevented a case in gcc.dg/strlenopt-8.c
1097 : : from being handled, and the case was XFAILed for that reason.
1098 : : Now that it is handled and the XFAIL removed, as soon as other
1099 : : strlenopt tests that rely on it for passing are adjusted, this
1100 : : hack can be removed. */
1101 : 278788 : && !c_strlen (src, 1)
1102 : 178795 : && !((tmp_str = getbyterep (src, &tmp_len)) != NULL
1103 : 76992 : && memchr (tmp_str, 0, tmp_len) == NULL)
1104 : 113498 : && !(srctype
1105 : 113498 : && AGGREGATE_TYPE_P (srctype)
1106 : 55767 : && TYPE_REVERSE_STORAGE_ORDER (srctype))
1107 : 997828 : && !(desttype
1108 : 113349 : && AGGREGATE_TYPE_P (desttype)
1109 : 65155 : && TYPE_REVERSE_STORAGE_ORDER (desttype)))
1110 : : {
1111 : 113312 : unsigned ilen = tree_to_uhwi (len);
1112 : 113312 : if (pow2p_hwi (ilen))
1113 : : {
1114 : : /* Detect out-of-bounds accesses without issuing warnings.
1115 : : Avoid folding out-of-bounds copies but to avoid false
1116 : : positives for unreachable code defer warning until after
1117 : : DCE has worked its magic.
1118 : : -Wrestrict is still diagnosed. */
1119 : 20169 : if (int warning = check_bounds_or_overlap (as_a <gcall *>(stmt),
1120 : : dest, src, len, len,
1121 : 20169 : false, false))
1122 : 1061 : if (warning != OPT_Wrestrict)
1123 : 17921 : return false;
1124 : :
1125 : 19166 : scalar_int_mode imode;
1126 : 19166 : machine_mode mode;
1127 : 19166 : if (int_mode_for_size (ilen * BITS_PER_UNIT, 0).exists (&imode)
1128 : 19166 : && bitwise_mode_for_size (ilen
1129 : 19166 : * BITS_PER_UNIT).exists (&mode)
1130 : 38332 : && known_eq (GET_MODE_BITSIZE (mode), ilen * BITS_PER_UNIT)
1131 : : /* If the destination pointer is not aligned we must be able
1132 : : to emit an unaligned store. */
1133 : 19166 : && (dest_align >= GET_MODE_ALIGNMENT (mode)
1134 : 11038 : || !targetm.slow_unaligned_access (mode, dest_align)
1135 : 0 : || (optab_handler (movmisalign_optab, mode)
1136 : : != CODE_FOR_nothing)))
1137 : : {
1138 : 19166 : tree type = bitwise_type_for_mode (mode);
1139 : 19166 : tree srctype = type;
1140 : 19166 : tree desttype = type;
1141 : 19166 : if (src_align < GET_MODE_ALIGNMENT (mode))
1142 : 10479 : srctype = build_aligned_type (type, src_align);
1143 : 19166 : tree srcmem = fold_build2 (MEM_REF, srctype, src, off0);
1144 : 19166 : tree tem = fold_const_aggregate_ref (srcmem);
1145 : 19166 : if (tem)
1146 : : srcmem = tem;
1147 : 18421 : else if (src_align < GET_MODE_ALIGNMENT (mode)
1148 : 10253 : && targetm.slow_unaligned_access (mode, src_align)
1149 : 18421 : && (optab_handler (movmisalign_optab, mode)
1150 : : == CODE_FOR_nothing))
1151 : : srcmem = NULL_TREE;
1152 : 18421 : if (srcmem)
1153 : : {
1154 : 19166 : gimple *new_stmt;
1155 : 19166 : if (is_gimple_reg_type (TREE_TYPE (srcmem)))
1156 : : {
1157 : 19166 : new_stmt = gimple_build_assign (NULL_TREE, srcmem);
1158 : 19166 : srcmem
1159 : 19166 : = create_tmp_reg_or_ssa_name (TREE_TYPE (srcmem),
1160 : : new_stmt);
1161 : 19166 : gimple_assign_set_lhs (new_stmt, srcmem);
1162 : 38332 : gimple_set_vuse (new_stmt, gimple_vuse (stmt));
1163 : 19166 : gimple_set_location (new_stmt, loc);
1164 : 19166 : gsi_insert_before (gsi, new_stmt, GSI_SAME_STMT);
1165 : : }
1166 : 19166 : if (dest_align < GET_MODE_ALIGNMENT (mode))
1167 : 11038 : desttype = build_aligned_type (type, dest_align);
1168 : 19166 : new_stmt
1169 : 19166 : = gimple_build_assign (fold_build2 (MEM_REF, desttype,
1170 : : dest, off0),
1171 : : srcmem);
1172 : 19166 : gimple_move_vops (new_stmt, stmt);
1173 : 19166 : if (!lhs)
1174 : : {
1175 : 16918 : gsi_replace (gsi, new_stmt, false);
1176 : 16918 : return true;
1177 : : }
1178 : 2248 : gimple_set_location (new_stmt, loc);
1179 : 2248 : gsi_insert_before (gsi, new_stmt, GSI_SAME_STMT);
1180 : 2248 : goto done;
1181 : : }
1182 : : }
1183 : : }
1184 : : }
1185 : :
1186 : 864310 : if (code == BUILT_IN_MEMMOVE)
1187 : : {
1188 : : /* Both DEST and SRC must be pointer types.
1189 : : ??? This is what old code did. Is the testing for pointer types
1190 : : really mandatory?
1191 : :
1192 : : If either SRC is readonly or length is 1, we can use memcpy. */
1193 : 182080 : if (!dest_align || !src_align)
1194 : : return false;
1195 : 182080 : if (readonly_data_expr (src)
1196 : 182080 : || (tree_fits_uhwi_p (len)
1197 : 31285 : && (MIN (src_align, dest_align) / BITS_PER_UNIT
1198 : 31285 : >= tree_to_uhwi (len))))
1199 : : {
1200 : 833220 : tree fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
1201 : 18201 : if (!fn)
1202 : : return false;
1203 : 18201 : gimple_call_set_fndecl (stmt, fn);
1204 : 18201 : gimple_call_set_arg (stmt, 0, dest);
1205 : 18201 : gimple_call_set_arg (stmt, 1, src);
1206 : 18201 : fold_stmt (gsi);
1207 : 18201 : return true;
1208 : : }
1209 : :
1210 : : /* If *src and *dest can't overlap, optimize into memcpy as well. */
1211 : 163879 : if (TREE_CODE (src) == ADDR_EXPR
1212 : 5207 : && TREE_CODE (dest) == ADDR_EXPR)
1213 : : {
1214 : 1754 : tree src_base, dest_base, fn;
1215 : 1754 : poly_int64 src_offset = 0, dest_offset = 0;
1216 : 1754 : poly_uint64 maxsize;
1217 : :
1218 : 1754 : srcvar = TREE_OPERAND (src, 0);
1219 : 1754 : src_base = get_addr_base_and_unit_offset (srcvar, &src_offset);
1220 : 1754 : if (src_base == NULL)
1221 : 0 : src_base = srcvar;
1222 : 1754 : destvar = TREE_OPERAND (dest, 0);
1223 : 1754 : dest_base = get_addr_base_and_unit_offset (destvar,
1224 : : &dest_offset);
1225 : 1754 : if (dest_base == NULL)
1226 : 0 : dest_base = destvar;
1227 : 1754 : if (!poly_int_tree_p (len, &maxsize))
1228 : 210 : maxsize = -1;
1229 : 1754 : if (SSA_VAR_P (src_base)
1230 : 1744 : && SSA_VAR_P (dest_base))
1231 : : {
1232 : 1744 : if (operand_equal_p (src_base, dest_base, 0)
1233 : 1744 : && ranges_maybe_overlap_p (src_offset, maxsize,
1234 : : dest_offset, maxsize))
1235 : : return false;
1236 : : }
1237 : 10 : else if (TREE_CODE (src_base) == MEM_REF
1238 : 0 : && TREE_CODE (dest_base) == MEM_REF)
1239 : : {
1240 : 0 : if (! operand_equal_p (TREE_OPERAND (src_base, 0),
1241 : 0 : TREE_OPERAND (dest_base, 0), 0))
1242 : 0 : return false;
1243 : 0 : poly_offset_int full_src_offset
1244 : 0 : = mem_ref_offset (src_base) + src_offset;
1245 : 0 : poly_offset_int full_dest_offset
1246 : 0 : = mem_ref_offset (dest_base) + dest_offset;
1247 : 0 : if (ranges_maybe_overlap_p (full_src_offset, maxsize,
1248 : : full_dest_offset, maxsize))
1249 : : return false;
1250 : 0 : }
1251 : : else
1252 : : return false;
1253 : :
1254 : 1754 : fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
1255 : 1317 : if (!fn)
1256 : : return false;
1257 : 1317 : gimple_call_set_fndecl (stmt, fn);
1258 : 1317 : gimple_call_set_arg (stmt, 0, dest);
1259 : 1317 : gimple_call_set_arg (stmt, 1, src);
1260 : 1317 : fold_stmt (gsi);
1261 : 1317 : return true;
1262 : : }
1263 : :
1264 : : /* If the destination and source do not alias optimize into
1265 : : memcpy as well. */
1266 : 162125 : if ((is_gimple_min_invariant (dest)
1267 : 158648 : || TREE_CODE (dest) == SSA_NAME)
1268 : 304412 : && (is_gimple_min_invariant (src)
1269 : 142333 : || TREE_CODE (src) == SSA_NAME))
1270 : : {
1271 : 145349 : ao_ref destr, srcr;
1272 : 145349 : ao_ref_init_from_ptr_and_size (&destr, dest, len);
1273 : 145349 : ao_ref_init_from_ptr_and_size (&srcr, src, len);
1274 : 145349 : if (!refs_may_alias_p_1 (&destr, &srcr, false))
1275 : : {
1276 : 9545 : tree fn;
1277 : 9545 : fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
1278 : 9545 : if (!fn)
1279 : 9545 : return false;
1280 : 9545 : gimple_call_set_fndecl (stmt, fn);
1281 : 9545 : gimple_call_set_arg (stmt, 0, dest);
1282 : 9545 : gimple_call_set_arg (stmt, 1, src);
1283 : 9545 : fold_stmt (gsi);
1284 : 9545 : return true;
1285 : : }
1286 : : }
1287 : :
1288 : 152580 : return false;
1289 : : }
1290 : :
1291 : : /* Try to optimize the memcpy to memset if src and dest are addresses. */
1292 : 682230 : if (code != BUILT_IN_MEMPCPY
1293 : 669707 : && TREE_CODE (dest) == ADDR_EXPR
1294 : 134686 : && TREE_CODE (src) == ADDR_EXPR
1295 : 113633 : && TREE_CODE (len) == INTEGER_CST
1296 : 779718 : && optimize_memcpy_to_memset (gsi, TREE_OPERAND (dest, 0),
1297 : 97488 : TREE_OPERAND (src, 0), len))
1298 : : return true;
1299 : :
1300 : 682229 : if (!tree_fits_shwi_p (len))
1301 : : return false;
1302 : 305556 : if (!srctype
1303 : 305556 : || (AGGREGATE_TYPE_P (srctype)
1304 : 189877 : && TYPE_REVERSE_STORAGE_ORDER (srctype)))
1305 : : return false;
1306 : 305407 : if (!desttype
1307 : 305407 : || (AGGREGATE_TYPE_P (desttype)
1308 : 186402 : && TYPE_REVERSE_STORAGE_ORDER (desttype)))
1309 : : return false;
1310 : : /* In the following try to find a type that is most natural to be
1311 : : used for the memcpy source and destination and that allows
1312 : : the most optimization when memcpy is turned into a plain assignment
1313 : : using that type. In theory we could always use a char[len] type
1314 : : but that only gains us that the destination and source possibly
1315 : : no longer will have their address taken. */
1316 : 305370 : if (TREE_CODE (srctype) == ARRAY_TYPE
1317 : 305370 : && !tree_int_cst_equal (TYPE_SIZE_UNIT (srctype), len))
1318 : 114450 : srctype = TREE_TYPE (srctype);
1319 : 305370 : if (TREE_CODE (desttype) == ARRAY_TYPE
1320 : 305370 : && !tree_int_cst_equal (TYPE_SIZE_UNIT (desttype), len))
1321 : 105015 : desttype = TREE_TYPE (desttype);
1322 : 305370 : if (TREE_ADDRESSABLE (srctype)
1323 : 305358 : || TREE_ADDRESSABLE (desttype))
1324 : : return false;
1325 : :
1326 : : /* Make sure we are not copying using a floating-point mode or
1327 : : a type whose size possibly does not match its precision. */
1328 : 610032 : if (FLOAT_MODE_P (TYPE_MODE (desttype))
1329 : 304417 : || TREE_CODE (desttype) == BOOLEAN_TYPE
1330 : 609735 : || TREE_CODE (desttype) == ENUMERAL_TYPE)
1331 : 949 : desttype = bitwise_type_for_mode (TYPE_MODE (desttype));
1332 : 610236 : if (FLOAT_MODE_P (TYPE_MODE (srctype))
1333 : 304766 : || TREE_CODE (srctype) == BOOLEAN_TYPE
1334 : 610090 : || TREE_CODE (srctype) == ENUMERAL_TYPE)
1335 : 594 : srctype = bitwise_type_for_mode (TYPE_MODE (srctype));
1336 : 305342 : if (!srctype)
1337 : 137 : srctype = desttype;
1338 : 305342 : if (!desttype)
1339 : 0 : desttype = srctype;
1340 : 305342 : if (!srctype)
1341 : : return false;
1342 : :
1343 : 305342 : src_align = get_pointer_alignment (src);
1344 : 305342 : dest_align = get_pointer_alignment (dest);
1345 : :
1346 : : /* Choose between src and destination type for the access based
1347 : : on alignment, whether the access constitutes a register access
1348 : : and whether it may actually expose a declaration for SSA rewrite
1349 : : or SRA decomposition. Also try to expose a string constant, we
1350 : : might be able to concatenate several of them later into a single
1351 : : string store. */
1352 : 305342 : destvar = NULL_TREE;
1353 : 305342 : srcvar = NULL_TREE;
1354 : 305342 : if (TREE_CODE (dest) == ADDR_EXPR
1355 : 113022 : && var_decl_component_p (TREE_OPERAND (dest, 0))
1356 : 113018 : && tree_int_cst_equal (TYPE_SIZE_UNIT (desttype), len)
1357 : 22019 : && dest_align >= TYPE_ALIGN (desttype)
1358 : 327361 : && (is_gimple_reg_type (desttype)
1359 : 21291 : || src_align >= TYPE_ALIGN (desttype)))
1360 : 17274 : destvar = fold_build2 (MEM_REF, desttype, dest, off0);
1361 : 288068 : else if (TREE_CODE (src) == ADDR_EXPR
1362 : 221493 : && var_decl_component_p (TREE_OPERAND (src, 0))
1363 : 46368 : && tree_int_cst_equal (TYPE_SIZE_UNIT (srctype), len)
1364 : 7877 : && src_align >= TYPE_ALIGN (srctype)
1365 : 295927 : && (is_gimple_reg_type (srctype)
1366 : 7697 : || dest_align >= TYPE_ALIGN (srctype)))
1367 : 2610 : srcvar = fold_build2 (MEM_REF, srctype, src, off0);
1368 : : /* FIXME: Don't transform copies from strings with known original length.
1369 : : As soon as strlenopt tests that rely on it for passing are adjusted,
1370 : : this hack can be removed. */
1371 : 285458 : else if (gimple_call_alloca_for_var_p (stmt)
1372 : 3 : && (srcvar = string_constant (src, &srcoff, NULL, NULL))
1373 : 3 : && integer_zerop (srcoff)
1374 : 3 : && tree_int_cst_equal (TYPE_SIZE_UNIT (TREE_TYPE (srcvar)), len)
1375 : 285461 : && dest_align >= TYPE_ALIGN (TREE_TYPE (srcvar)))
1376 : 3 : srctype = TREE_TYPE (srcvar);
1377 : : else
1378 : 285455 : return false;
1379 : :
1380 : : /* Now that we chose an access type express the other side in
1381 : : terms of it if the target allows that with respect to alignment
1382 : : constraints. */
1383 : 19887 : if (srcvar == NULL_TREE)
1384 : : {
1385 : 17274 : if (src_align >= TYPE_ALIGN (desttype))
1386 : 17260 : srcvar = fold_build2 (MEM_REF, desttype, src, off0);
1387 : : else
1388 : : {
1389 : 14 : enum machine_mode mode = TYPE_MODE (desttype);
1390 : 14 : if ((mode == BLKmode && STRICT_ALIGNMENT)
1391 : 14 : || (targetm.slow_unaligned_access (mode, src_align)
1392 : 14 : && (optab_handler (movmisalign_optab, mode)
1393 : : == CODE_FOR_nothing)))
1394 : : return false;
1395 : 14 : srctype = build_aligned_type (TYPE_MAIN_VARIANT (desttype),
1396 : : src_align);
1397 : 14 : srcvar = fold_build2 (MEM_REF, srctype, src, off0);
1398 : : }
1399 : : }
1400 : 2613 : else if (destvar == NULL_TREE)
1401 : : {
1402 : 2613 : if (dest_align >= TYPE_ALIGN (srctype))
1403 : 2613 : destvar = fold_build2 (MEM_REF, srctype, dest, off0);
1404 : : else
1405 : : {
1406 : 0 : enum machine_mode mode = TYPE_MODE (srctype);
1407 : 0 : if ((mode == BLKmode && STRICT_ALIGNMENT)
1408 : 0 : || (targetm.slow_unaligned_access (mode, dest_align)
1409 : 0 : && (optab_handler (movmisalign_optab, mode)
1410 : : == CODE_FOR_nothing)))
1411 : : return false;
1412 : 0 : desttype = build_aligned_type (TYPE_MAIN_VARIANT (srctype),
1413 : : dest_align);
1414 : 0 : destvar = fold_build2 (MEM_REF, desttype, dest, off0);
1415 : : }
1416 : : }
1417 : :
1418 : : /* Same as above, detect out-of-bounds accesses without issuing
1419 : : warnings. Avoid folding out-of-bounds copies but to avoid
1420 : : false positives for unreachable code defer warning until
1421 : : after DCE has worked its magic.
1422 : : -Wrestrict is still diagnosed. */
1423 : 19887 : if (int warning = check_bounds_or_overlap (as_a <gcall *>(stmt),
1424 : : dest, src, len, len,
1425 : 19887 : false, false))
1426 : 105 : if (warning != OPT_Wrestrict)
1427 : : return false;
1428 : :
1429 : 19790 : gimple *new_stmt;
1430 : 19790 : if (is_gimple_reg_type (TREE_TYPE (srcvar)))
1431 : : {
1432 : 845 : tree tem = fold_const_aggregate_ref (srcvar);
1433 : 845 : if (tem)
1434 : 828 : srcvar = tem;
1435 : 845 : if (! is_gimple_min_invariant (srcvar))
1436 : : {
1437 : 17 : new_stmt = gimple_build_assign (NULL_TREE, srcvar);
1438 : 17 : srcvar = create_tmp_reg_or_ssa_name (TREE_TYPE (srcvar),
1439 : : new_stmt);
1440 : 17 : gimple_assign_set_lhs (new_stmt, srcvar);
1441 : 34 : gimple_set_vuse (new_stmt, gimple_vuse (stmt));
1442 : 17 : gimple_set_location (new_stmt, loc);
1443 : 17 : gsi_insert_before (gsi, new_stmt, GSI_SAME_STMT);
1444 : : }
1445 : 845 : new_stmt = gimple_build_assign (destvar, srcvar);
1446 : 845 : goto set_vop_and_replace;
1447 : : }
1448 : :
1449 : : /* We get an aggregate copy. If the source is a STRING_CST, then
1450 : : directly use its type to perform the copy. */
1451 : 18945 : if (TREE_CODE (srcvar) == STRING_CST)
1452 : : desttype = srctype;
1453 : :
1454 : : /* Or else, use an unsigned char[] type to perform the copy in order
1455 : : to preserve padding and to avoid any issues with TREE_ADDRESSABLE
1456 : : types or float modes behavior on copying. */
1457 : : else
1458 : : {
1459 : 37884 : desttype = build_array_type_nelts (unsigned_char_type_node,
1460 : 18942 : tree_to_uhwi (len));
1461 : 18942 : srctype = desttype;
1462 : 18942 : if (src_align > TYPE_ALIGN (srctype))
1463 : 11726 : srctype = build_aligned_type (srctype, src_align);
1464 : 18942 : srcvar = fold_build2 (MEM_REF, srctype, src, off0);
1465 : : }
1466 : :
1467 : 18945 : if (dest_align > TYPE_ALIGN (desttype))
1468 : 12345 : desttype = build_aligned_type (desttype, dest_align);
1469 : 18945 : destvar = fold_build2 (MEM_REF, desttype, dest, off0);
1470 : 18945 : new_stmt = gimple_build_assign (destvar, srcvar);
1471 : :
1472 : 19790 : set_vop_and_replace:
1473 : 19790 : gimple_move_vops (new_stmt, stmt);
1474 : 19790 : if (!lhs)
1475 : : {
1476 : 19315 : gsi_replace (gsi, new_stmt, false);
1477 : 19315 : return true;
1478 : : }
1479 : 475 : gimple_set_location (new_stmt, loc);
1480 : 475 : gsi_insert_before (gsi, new_stmt, GSI_SAME_STMT);
1481 : : }
1482 : :
1483 : 2744 : done:
1484 : 2744 : gimple_seq stmts = NULL;
1485 : 2744 : if (code == BUILT_IN_MEMCPY || code == BUILT_IN_MEMMOVE)
1486 : 2744 : len = NULL_TREE;
1487 : 197 : else if (code == BUILT_IN_MEMPCPY)
1488 : : {
1489 : 197 : len = gimple_convert_to_ptrofftype (&stmts, loc, len);
1490 : 197 : dest = gimple_build (&stmts, loc, POINTER_PLUS_EXPR,
1491 : 197 : TREE_TYPE (dest), dest, len);
1492 : : }
1493 : : else
1494 : 0 : gcc_unreachable ();
1495 : :
1496 : 2744 : gsi_insert_seq_before (gsi, stmts, GSI_SAME_STMT);
1497 : 2744 : gimple *repl = gimple_build_assign (lhs, dest);
1498 : 2744 : gsi_replace (gsi, repl, false);
1499 : 2744 : return true;
1500 : : }
1501 : :
1502 : : /* Transform a call to built-in bcmp(a, b, len) at *GSI into one
1503 : : to built-in memcmp (a, b, len). */
1504 : :
1505 : : static bool
1506 : 142 : gimple_fold_builtin_bcmp (gimple_stmt_iterator *gsi)
1507 : : {
1508 : 142 : tree fn = builtin_decl_implicit (BUILT_IN_MEMCMP);
1509 : :
1510 : 142 : if (!fn)
1511 : : return false;
1512 : :
1513 : : /* Transform bcmp (a, b, len) into memcmp (a, b, len). */
1514 : :
1515 : 142 : gimple *stmt = gsi_stmt (*gsi);
1516 : 284 : if (!gimple_vuse (stmt) && gimple_in_ssa_p (cfun))
1517 : : return false;
1518 : 142 : tree a = gimple_call_arg (stmt, 0);
1519 : 142 : tree b = gimple_call_arg (stmt, 1);
1520 : 142 : tree len = gimple_call_arg (stmt, 2);
1521 : :
1522 : 142 : gimple *repl = gimple_build_call (fn, 3, a, b, len);
1523 : 142 : replace_call_with_call_and_fold (gsi, repl);
1524 : :
1525 : 142 : return true;
1526 : : }
1527 : :
1528 : : /* Transform a call to built-in bcopy (src, dest, len) at *GSI into one
1529 : : to built-in memmove (dest, src, len). */
1530 : :
1531 : : static bool
1532 : 357 : gimple_fold_builtin_bcopy (gimple_stmt_iterator *gsi)
1533 : : {
1534 : 357 : tree fn = builtin_decl_implicit (BUILT_IN_MEMMOVE);
1535 : :
1536 : 357 : if (!fn)
1537 : : return false;
1538 : :
1539 : : /* bcopy has been removed from POSIX in Issue 7 but Issue 6 specifies
1540 : : it's quivalent to memmove (not memcpy). Transform bcopy (src, dest,
1541 : : len) into memmove (dest, src, len). */
1542 : :
1543 : 357 : gimple *stmt = gsi_stmt (*gsi);
1544 : 714 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
1545 : : return false;
1546 : 357 : tree src = gimple_call_arg (stmt, 0);
1547 : 357 : tree dest = gimple_call_arg (stmt, 1);
1548 : 357 : tree len = gimple_call_arg (stmt, 2);
1549 : :
1550 : 357 : gimple *repl = gimple_build_call (fn, 3, dest, src, len);
1551 : 357 : gimple_call_set_fntype (as_a <gcall *> (stmt), TREE_TYPE (fn));
1552 : 357 : replace_call_with_call_and_fold (gsi, repl);
1553 : :
1554 : 357 : return true;
1555 : : }
1556 : :
1557 : : /* Transform a call to built-in bzero (dest, len) at *GSI into one
1558 : : to built-in memset (dest, 0, len). */
1559 : :
1560 : : static bool
1561 : 245 : gimple_fold_builtin_bzero (gimple_stmt_iterator *gsi)
1562 : : {
1563 : 245 : tree fn = builtin_decl_implicit (BUILT_IN_MEMSET);
1564 : :
1565 : 245 : if (!fn)
1566 : : return false;
1567 : :
1568 : : /* Transform bzero (dest, len) into memset (dest, 0, len). */
1569 : :
1570 : 245 : gimple *stmt = gsi_stmt (*gsi);
1571 : 490 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
1572 : : return false;
1573 : 245 : tree dest = gimple_call_arg (stmt, 0);
1574 : 245 : tree len = gimple_call_arg (stmt, 1);
1575 : :
1576 : 245 : gimple_seq seq = NULL;
1577 : 245 : gimple *repl = gimple_build_call (fn, 3, dest, integer_zero_node, len);
1578 : 245 : gimple_seq_add_stmt_without_update (&seq, repl);
1579 : 245 : gsi_replace_with_seq_vops (gsi, seq);
1580 : 245 : fold_stmt (gsi);
1581 : :
1582 : 245 : return true;
1583 : : }
1584 : :
1585 : : /* Fold function call to builtin memset or bzero at *GSI setting the
1586 : : memory of size LEN to VAL. Return whether a simplification was made. */
1587 : :
1588 : : static bool
1589 : 320472 : gimple_fold_builtin_memset (gimple_stmt_iterator *gsi, tree c, tree len)
1590 : : {
1591 : 320472 : gimple *stmt = gsi_stmt (*gsi);
1592 : 320472 : tree etype;
1593 : 320472 : unsigned HOST_WIDE_INT length, cval;
1594 : :
1595 : : /* If the LEN parameter is zero, return DEST. */
1596 : 320472 : if (integer_zerop (len))
1597 : : {
1598 : 803 : replace_call_with_value (gsi, gimple_call_arg (stmt, 0));
1599 : 803 : return true;
1600 : : }
1601 : :
1602 : 957255 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
1603 : : return false;
1604 : :
1605 : 319669 : if (! tree_fits_uhwi_p (len))
1606 : : return false;
1607 : :
1608 : 211703 : if (TREE_CODE (c) != INTEGER_CST)
1609 : : return false;
1610 : :
1611 : 205760 : tree dest = gimple_call_arg (stmt, 0);
1612 : 205760 : tree var = dest;
1613 : 205760 : if (TREE_CODE (var) != ADDR_EXPR)
1614 : : return false;
1615 : :
1616 : 165820 : var = TREE_OPERAND (var, 0);
1617 : 165820 : if (TREE_THIS_VOLATILE (var))
1618 : : return false;
1619 : :
1620 : 165777 : etype = TREE_TYPE (var);
1621 : 165777 : if (TREE_CODE (etype) == ARRAY_TYPE)
1622 : 88576 : etype = TREE_TYPE (etype);
1623 : :
1624 : 165777 : if ((!INTEGRAL_TYPE_P (etype)
1625 : 100141 : && !POINTER_TYPE_P (etype))
1626 : 65986 : || TREE_CODE (etype) == BITINT_TYPE)
1627 : : return false;
1628 : :
1629 : 65954 : if (! var_decl_component_p (var))
1630 : : return false;
1631 : :
1632 : 65954 : length = tree_to_uhwi (len);
1633 : 65954 : if (GET_MODE_SIZE (SCALAR_INT_TYPE_MODE (etype)) != length
1634 : 1752 : || (GET_MODE_PRECISION (SCALAR_INT_TYPE_MODE (etype))
1635 : 3504 : != GET_MODE_BITSIZE (SCALAR_INT_TYPE_MODE (etype)))
1636 : 67706 : || get_pointer_alignment (dest) / BITS_PER_UNIT < length)
1637 : 64202 : return false;
1638 : :
1639 : 1752 : if (length > HOST_BITS_PER_WIDE_INT / BITS_PER_UNIT)
1640 : : return false;
1641 : :
1642 : 1752 : if (!type_has_mode_precision_p (etype))
1643 : 7 : etype = lang_hooks.types.type_for_mode (SCALAR_INT_TYPE_MODE (etype),
1644 : 7 : TYPE_UNSIGNED (etype));
1645 : :
1646 : 1752 : if (integer_zerop (c))
1647 : : cval = 0;
1648 : : else
1649 : : {
1650 : 334 : if (CHAR_BIT != 8 || BITS_PER_UNIT != 8 || HOST_BITS_PER_WIDE_INT > 64)
1651 : : return NULL_TREE;
1652 : :
1653 : 334 : cval = TREE_INT_CST_LOW (c);
1654 : 334 : cval &= 0xff;
1655 : 334 : cval |= cval << 8;
1656 : 334 : cval |= cval << 16;
1657 : 334 : cval |= (cval << 31) << 1;
1658 : : }
1659 : :
1660 : 1752 : var = fold_build2 (MEM_REF, etype, dest, build_int_cst (ptr_type_node, 0));
1661 : 1752 : gimple *store = gimple_build_assign (var, build_int_cst_type (etype, cval));
1662 : 1752 : gimple_move_vops (store, stmt);
1663 : 1752 : gimple_set_location (store, gimple_location (stmt));
1664 : 1752 : gsi_insert_before (gsi, store, GSI_SAME_STMT);
1665 : 1752 : if (gimple_call_lhs (stmt))
1666 : : {
1667 : 2 : gimple *asgn = gimple_build_assign (gimple_call_lhs (stmt), dest);
1668 : 2 : gsi_replace (gsi, asgn, false);
1669 : : }
1670 : : else
1671 : : {
1672 : 1750 : gimple_stmt_iterator gsi2 = *gsi;
1673 : 1750 : gsi_prev (gsi);
1674 : 1750 : gsi_remove (&gsi2, true);
1675 : : }
1676 : :
1677 : : return true;
1678 : : }
1679 : :
1680 : : /* Helper of get_range_strlen for ARG that is not an SSA_NAME. */
1681 : :
1682 : : static bool
1683 : 613820 : get_range_strlen_tree (tree arg, bitmap visited, strlen_range_kind rkind,
1684 : : c_strlen_data *pdata, unsigned eltsize)
1685 : : {
1686 : 613820 : gcc_assert (TREE_CODE (arg) != SSA_NAME);
1687 : :
1688 : : /* The length computed by this invocation of the function. */
1689 : 613820 : tree val = NULL_TREE;
1690 : :
1691 : : /* True if VAL is an optimistic (tight) bound determined from
1692 : : the size of the character array in which the string may be
1693 : : stored. In that case, the computed VAL is used to set
1694 : : PDATA->MAXBOUND. */
1695 : 613820 : bool tight_bound = false;
1696 : :
1697 : : /* We can end up with &(*iftmp_1)[0] here as well, so handle it. */
1698 : 613820 : if (TREE_CODE (arg) == ADDR_EXPR
1699 : 613820 : && TREE_CODE (TREE_OPERAND (arg, 0)) == ARRAY_REF)
1700 : : {
1701 : 31897 : tree op = TREE_OPERAND (arg, 0);
1702 : 31897 : if (integer_zerop (TREE_OPERAND (op, 1)))
1703 : : {
1704 : 13077 : tree aop0 = TREE_OPERAND (op, 0);
1705 : 13077 : if (TREE_CODE (aop0) == INDIRECT_REF
1706 : 13077 : && TREE_CODE (TREE_OPERAND (aop0, 0)) == SSA_NAME)
1707 : 0 : return get_range_strlen (TREE_OPERAND (aop0, 0), visited, rkind,
1708 : 0 : pdata, eltsize);
1709 : : }
1710 : 18820 : else if (TREE_CODE (TREE_OPERAND (op, 0)) == COMPONENT_REF
1711 : 18820 : && rkind == SRK_LENRANGE)
1712 : : {
1713 : : /* Fail if an array is the last member of a struct object
1714 : : since it could be treated as a (fake) flexible array
1715 : : member. */
1716 : 4674 : tree idx = TREE_OPERAND (op, 1);
1717 : :
1718 : 4674 : arg = TREE_OPERAND (op, 0);
1719 : 4674 : tree optype = TREE_TYPE (arg);
1720 : 4674 : if (tree dom = TYPE_DOMAIN (optype))
1721 : 4674 : if (tree bound = TYPE_MAX_VALUE (dom))
1722 : 4674 : if (TREE_CODE (bound) == INTEGER_CST
1723 : 4674 : && TREE_CODE (idx) == INTEGER_CST
1724 : 7778 : && tree_int_cst_lt (bound, idx))
1725 : : return false;
1726 : : }
1727 : : }
1728 : :
1729 : 613604 : if (rkind == SRK_INT_VALUE)
1730 : : {
1731 : : /* We are computing the maximum value (not string length). */
1732 : 26423 : val = arg;
1733 : 26423 : if (TREE_CODE (val) != INTEGER_CST
1734 : 26423 : || tree_int_cst_sgn (val) < 0)
1735 : 2839 : return false;
1736 : : }
1737 : : else
1738 : : {
1739 : 587181 : c_strlen_data lendata = { };
1740 : 587181 : val = c_strlen (arg, 1, &lendata, eltsize);
1741 : :
1742 : 587181 : if (!val && lendata.decl)
1743 : : {
1744 : : /* ARG refers to an unterminated const character array.
1745 : : DATA.DECL with size DATA.LEN. */
1746 : 4559 : val = lendata.minlen;
1747 : 4559 : pdata->decl = lendata.decl;
1748 : : }
1749 : : }
1750 : :
1751 : : /* Set if VAL represents the maximum length based on array size (set
1752 : : when exact length cannot be determined). */
1753 : 610765 : bool maxbound = false;
1754 : :
1755 : 610765 : if (!val && rkind == SRK_LENRANGE)
1756 : : {
1757 : 383183 : if (TREE_CODE (arg) == ADDR_EXPR)
1758 : 155701 : return get_range_strlen (TREE_OPERAND (arg, 0), visited, rkind,
1759 : 155701 : pdata, eltsize);
1760 : :
1761 : 227482 : if (TREE_CODE (arg) == ARRAY_REF)
1762 : : {
1763 : 27503 : tree optype = TREE_TYPE (TREE_OPERAND (arg, 0));
1764 : :
1765 : : /* Determine the "innermost" array type. */
1766 : 27503 : while (TREE_CODE (optype) == ARRAY_TYPE
1767 : 33638 : && TREE_CODE (TREE_TYPE (optype)) == ARRAY_TYPE)
1768 : 6135 : optype = TREE_TYPE (optype);
1769 : :
1770 : : /* Avoid arrays of pointers. */
1771 : 27503 : tree eltype = TREE_TYPE (optype);
1772 : 27503 : if (TREE_CODE (optype) != ARRAY_TYPE
1773 : 27503 : || !INTEGRAL_TYPE_P (eltype))
1774 : : return false;
1775 : :
1776 : : /* Fail when the array bound is unknown or zero. */
1777 : 14925 : val = TYPE_SIZE_UNIT (optype);
1778 : 14925 : if (!val
1779 : 14853 : || TREE_CODE (val) != INTEGER_CST
1780 : 29746 : || integer_zerop (val))
1781 : 113 : return false;
1782 : :
1783 : 14812 : val = fold_build2 (MINUS_EXPR, TREE_TYPE (val), val,
1784 : : integer_one_node);
1785 : :
1786 : : /* Set the minimum size to zero since the string in
1787 : : the array could have zero length. */
1788 : 14812 : pdata->minlen = ssize_int (0);
1789 : :
1790 : 14812 : tight_bound = true;
1791 : : }
1792 : 199979 : else if (TREE_CODE (arg) == COMPONENT_REF
1793 : 199979 : && (TREE_CODE (TREE_TYPE (TREE_OPERAND (arg, 1)))
1794 : : == ARRAY_TYPE))
1795 : : {
1796 : : /* Use the type of the member array to determine the upper
1797 : : bound on the length of the array. This may be overly
1798 : : optimistic if the array itself isn't NUL-terminated and
1799 : : the caller relies on the subsequent member to contain
1800 : : the NUL but that would only be considered valid if
1801 : : the array were the last member of a struct. */
1802 : :
1803 : 10639 : tree fld = TREE_OPERAND (arg, 1);
1804 : :
1805 : 10639 : tree optype = TREE_TYPE (fld);
1806 : :
1807 : : /* Determine the "innermost" array type. */
1808 : 10639 : while (TREE_CODE (optype) == ARRAY_TYPE
1809 : 10881 : && TREE_CODE (TREE_TYPE (optype)) == ARRAY_TYPE)
1810 : 242 : optype = TREE_TYPE (optype);
1811 : :
1812 : : /* Fail when the array bound is unknown or zero. */
1813 : 10639 : val = TYPE_SIZE_UNIT (optype);
1814 : 10639 : if (!val
1815 : 10383 : || TREE_CODE (val) != INTEGER_CST
1816 : 20987 : || integer_zerop (val))
1817 : 376 : return false;
1818 : 10263 : val = fold_build2 (MINUS_EXPR, TREE_TYPE (val), val,
1819 : : integer_one_node);
1820 : :
1821 : : /* Set the minimum size to zero since the string in
1822 : : the array could have zero length. */
1823 : 10263 : pdata->minlen = ssize_int (0);
1824 : :
1825 : : /* The array size determined above is an optimistic bound
1826 : : on the length. If the array isn't nul-terminated the
1827 : : length computed by the library function would be greater.
1828 : : Even though using strlen to cross the subobject boundary
1829 : : is undefined, avoid drawing conclusions from the member
1830 : : type about the length here. */
1831 : 10263 : tight_bound = true;
1832 : : }
1833 : 189340 : else if (TREE_CODE (arg) == MEM_REF
1834 : 26158 : && TREE_CODE (TREE_TYPE (arg)) == ARRAY_TYPE
1835 : 4507 : && TREE_CODE (TREE_TYPE (TREE_TYPE (arg))) == INTEGER_TYPE
1836 : 193265 : && TREE_CODE (TREE_OPERAND (arg, 0)) == ADDR_EXPR)
1837 : : {
1838 : : /* Handle a MEM_REF into a DECL accessing an array of integers,
1839 : : being conservative about references to extern structures with
1840 : : flexible array members that can be initialized to arbitrary
1841 : : numbers of elements as an extension (static structs are okay). */
1842 : 3925 : tree ref = TREE_OPERAND (TREE_OPERAND (arg, 0), 0);
1843 : 3925 : if ((TREE_CODE (ref) == PARM_DECL || VAR_P (ref))
1844 : 7836 : && (decl_binds_to_current_def_p (ref)
1845 : 457 : || !array_ref_flexible_size_p (arg)))
1846 : : {
1847 : : /* Fail if the offset is out of bounds. Such accesses
1848 : : should be diagnosed at some point. */
1849 : 3786 : val = DECL_SIZE_UNIT (ref);
1850 : 3786 : if (!val
1851 : 3614 : || TREE_CODE (val) != INTEGER_CST
1852 : 7400 : || integer_zerop (val))
1853 : 386 : return false;
1854 : :
1855 : 3612 : poly_offset_int psiz = wi::to_offset (val);
1856 : 3612 : poly_offset_int poff = mem_ref_offset (arg);
1857 : 3612 : if (known_le (psiz, poff))
1858 : : return false;
1859 : :
1860 : 3400 : pdata->minlen = ssize_int (0);
1861 : :
1862 : : /* Subtract the offset and one for the terminating nul. */
1863 : 3400 : psiz -= poff;
1864 : 3400 : psiz -= 1;
1865 : 3400 : val = wide_int_to_tree (TREE_TYPE (val), psiz);
1866 : : /* Since VAL reflects the size of a declared object
1867 : : rather the type of the access it is not a tight bound. */
1868 : : }
1869 : : }
1870 : 185415 : else if (TREE_CODE (arg) == PARM_DECL || VAR_P (arg))
1871 : : {
1872 : : /* Avoid handling pointers to arrays. GCC might misuse
1873 : : a pointer to an array of one bound to point to an array
1874 : : object of a greater bound. */
1875 : 135523 : tree argtype = TREE_TYPE (arg);
1876 : 135523 : if (TREE_CODE (argtype) == ARRAY_TYPE)
1877 : : {
1878 : 46612 : val = TYPE_SIZE_UNIT (argtype);
1879 : 46612 : if (!val
1880 : 45818 : || TREE_CODE (val) != INTEGER_CST
1881 : 92430 : || integer_zerop (val))
1882 : 911 : return false;
1883 : 45701 : val = wide_int_to_tree (TREE_TYPE (val),
1884 : 45701 : wi::sub (wi::to_wide (val), 1));
1885 : :
1886 : : /* Set the minimum size to zero since the string in
1887 : : the array could have zero length. */
1888 : 45701 : pdata->minlen = ssize_int (0);
1889 : : }
1890 : : }
1891 : : maxbound = true;
1892 : : }
1893 : :
1894 : 440700 : if (!val)
1895 : : return false;
1896 : :
1897 : : /* Adjust the lower bound on the string length as necessary. */
1898 : 276835 : if (!pdata->minlen
1899 : 276835 : || (rkind != SRK_STRLEN
1900 : 79215 : && TREE_CODE (pdata->minlen) == INTEGER_CST
1901 : 79215 : && TREE_CODE (val) == INTEGER_CST
1902 : 79210 : && tree_int_cst_lt (val, pdata->minlen)))
1903 : 197328 : pdata->minlen = val;
1904 : :
1905 : 276835 : if (pdata->maxbound && TREE_CODE (pdata->maxbound) == INTEGER_CST)
1906 : : {
1907 : : /* Adjust the tighter (more optimistic) string length bound
1908 : : if necessary and proceed to adjust the more conservative
1909 : : bound. */
1910 : 1517 : if (TREE_CODE (val) == INTEGER_CST)
1911 : : {
1912 : 1517 : if (tree_int_cst_lt (pdata->maxbound, val))
1913 : 512 : pdata->maxbound = val;
1914 : : }
1915 : : else
1916 : 0 : pdata->maxbound = val;
1917 : : }
1918 : 275318 : else if (pdata->maxbound || maxbound)
1919 : : /* Set PDATA->MAXBOUND only if it either isn't INTEGER_CST or
1920 : : if VAL corresponds to the maximum length determined based
1921 : : on the type of the object. */
1922 : 76886 : pdata->maxbound = val;
1923 : :
1924 : 276835 : if (tight_bound)
1925 : : {
1926 : : /* VAL computed above represents an optimistically tight bound
1927 : : on the length of the string based on the referenced object's
1928 : : or subobject's type. Determine the conservative upper bound
1929 : : based on the enclosing object's size if possible. */
1930 : 25075 : if (rkind == SRK_LENRANGE)
1931 : : {
1932 : 25075 : poly_int64 offset;
1933 : 25075 : tree base = get_addr_base_and_unit_offset (arg, &offset);
1934 : 25075 : if (!base)
1935 : : {
1936 : : /* When the call above fails due to a non-constant offset
1937 : : assume the offset is zero and use the size of the whole
1938 : : enclosing object instead. */
1939 : 7837 : base = get_base_address (arg);
1940 : 7837 : offset = 0;
1941 : : }
1942 : : /* If the base object is a pointer no upper bound on the length
1943 : : can be determined. Otherwise the maximum length is equal to
1944 : : the size of the enclosing object minus the offset of
1945 : : the referenced subobject minus 1 (for the terminating nul). */
1946 : 25075 : tree type = TREE_TYPE (base);
1947 : 25075 : if (TREE_CODE (type) == POINTER_TYPE
1948 : 25071 : || (TREE_CODE (base) != PARM_DECL && !VAR_P (base))
1949 : 43598 : || !(val = DECL_SIZE_UNIT (base)))
1950 : 7717 : val = build_all_ones_cst (size_type_node);
1951 : : else
1952 : : {
1953 : 17358 : val = DECL_SIZE_UNIT (base);
1954 : 17358 : val = fold_build2 (MINUS_EXPR, TREE_TYPE (val), val,
1955 : : size_int (offset + 1));
1956 : : }
1957 : : }
1958 : : else
1959 : : return false;
1960 : : }
1961 : :
1962 : 276835 : if (pdata->maxlen)
1963 : : {
1964 : : /* Adjust the more conservative bound if possible/necessary
1965 : : and fail otherwise. */
1966 : 8908 : if (rkind != SRK_STRLEN)
1967 : : {
1968 : 7878 : if (TREE_CODE (pdata->maxlen) != INTEGER_CST
1969 : 7878 : || TREE_CODE (val) != INTEGER_CST)
1970 : : return false;
1971 : :
1972 : 7873 : if (tree_int_cst_lt (pdata->maxlen, val))
1973 : 1285 : pdata->maxlen = val;
1974 : 7873 : return true;
1975 : : }
1976 : 1030 : else if (simple_cst_equal (val, pdata->maxlen) != 1)
1977 : : {
1978 : : /* Fail if the length of this ARG is different from that
1979 : : previously determined from another ARG. */
1980 : : return false;
1981 : : }
1982 : : }
1983 : :
1984 : 268053 : pdata->maxlen = val;
1985 : 268053 : return rkind == SRK_LENRANGE || !integer_all_onesp (val);
1986 : : }
1987 : :
1988 : : /* For an ARG referencing one or more strings, try to obtain the range
1989 : : of their lengths, or the size of the largest array ARG referes to if
1990 : : the range of lengths cannot be determined, and store all in *PDATA.
1991 : : For an integer ARG (when RKIND == SRK_INT_VALUE), try to determine
1992 : : the maximum constant value.
1993 : : If ARG is an SSA_NAME, follow its use-def chains. When RKIND ==
1994 : : SRK_STRLEN, then if PDATA->MAXLEN is not equal to the determined
1995 : : length or if we are unable to determine the length, return false.
1996 : : VISITED is a bitmap of visited variables.
1997 : : RKIND determines the kind of value or range to obtain (see
1998 : : strlen_range_kind).
1999 : : Set PDATA->DECL if ARG refers to an unterminated constant array.
2000 : : On input, set ELTSIZE to 1 for normal single byte character strings,
2001 : : and either 2 or 4 for wide characer strings (the size of wchar_t).
2002 : : Return true if *PDATA was successfully populated and false otherwise. */
2003 : :
2004 : : static bool
2005 : 1519367 : get_range_strlen (tree arg, bitmap visited,
2006 : : strlen_range_kind rkind,
2007 : : c_strlen_data *pdata, unsigned eltsize)
2008 : : {
2009 : :
2010 : 1609177 : if (TREE_CODE (arg) != SSA_NAME)
2011 : 613820 : return get_range_strlen_tree (arg, visited, rkind, pdata, eltsize);
2012 : :
2013 : : /* If ARG is registered for SSA update we cannot look at its defining
2014 : : statement. */
2015 : 995357 : if (name_registered_for_update_p (arg))
2016 : : return false;
2017 : :
2018 : : /* If we were already here, break the infinite cycle. */
2019 : 995357 : if (!bitmap_set_bit (visited, SSA_NAME_VERSION (arg)))
2020 : : return true;
2021 : :
2022 : 992818 : tree var = arg;
2023 : 992818 : gimple *def_stmt = SSA_NAME_DEF_STMT (var);
2024 : :
2025 : 992818 : switch (gimple_code (def_stmt))
2026 : : {
2027 : 135304 : case GIMPLE_ASSIGN:
2028 : : /* The RHS of the statement defining VAR must either have a
2029 : : constant length or come from another SSA_NAME with a constant
2030 : : length. */
2031 : 135304 : if (gimple_assign_single_p (def_stmt)
2032 : 135304 : || gimple_assign_unary_nop_p (def_stmt))
2033 : : {
2034 : 89810 : tree rhs = gimple_assign_rhs1 (def_stmt);
2035 : 89810 : return get_range_strlen (rhs, visited, rkind, pdata, eltsize);
2036 : : }
2037 : 45494 : else if (gimple_assign_rhs_code (def_stmt) == COND_EXPR)
2038 : : {
2039 : 246 : tree ops[2] = { gimple_assign_rhs2 (def_stmt),
2040 : 246 : gimple_assign_rhs3 (def_stmt) };
2041 : :
2042 : 738 : for (unsigned int i = 0; i < 2; i++)
2043 : 492 : if (!get_range_strlen (ops[i], visited, rkind, pdata, eltsize))
2044 : : {
2045 : 28 : if (rkind != SRK_LENRANGE)
2046 : : return false;
2047 : : /* Set the upper bound to the maximum to prevent
2048 : : it from being adjusted in the next iteration but
2049 : : leave MINLEN and the more conservative MAXBOUND
2050 : : determined so far alone (or leave them null if
2051 : : they haven't been set yet). That the MINLEN is
2052 : : in fact zero can be determined from MAXLEN being
2053 : : unbounded but the discovered minimum is used for
2054 : : diagnostics. */
2055 : 28 : pdata->maxlen = build_all_ones_cst (size_type_node);
2056 : : }
2057 : : return true;
2058 : : }
2059 : : return false;
2060 : :
2061 : : case GIMPLE_PHI:
2062 : : /* Unless RKIND == SRK_LENRANGE, all arguments of the PHI node
2063 : : must have a constant length. */
2064 : 63589 : for (unsigned i = 0; i < gimple_phi_num_args (def_stmt); i++)
2065 : : {
2066 : 44506 : tree arg = gimple_phi_arg (def_stmt, i)->def;
2067 : :
2068 : : /* If this PHI has itself as an argument, we cannot
2069 : : determine the string length of this argument. However,
2070 : : if we can find a constant string length for the other
2071 : : PHI args then we can still be sure that this is a
2072 : : constant string length. So be optimistic and just
2073 : : continue with the next argument. */
2074 : 44506 : if (arg == gimple_phi_result (def_stmt))
2075 : 0 : continue;
2076 : :
2077 : 44506 : if (!get_range_strlen (arg, visited, rkind, pdata, eltsize))
2078 : : {
2079 : 22507 : if (rkind != SRK_LENRANGE)
2080 : : return false;
2081 : : /* Set the upper bound to the maximum to prevent
2082 : : it from being adjusted in the next iteration but
2083 : : leave MINLEN and the more conservative MAXBOUND
2084 : : determined so far alone (or leave them null if
2085 : : they haven't been set yet). That the MINLEN is
2086 : : in fact zero can be determined from MAXLEN being
2087 : : unbounded but the discovered minimum is used for
2088 : : diagnostics. */
2089 : 20558 : pdata->maxlen = build_all_ones_cst (size_type_node);
2090 : : }
2091 : : }
2092 : : return true;
2093 : :
2094 : : default:
2095 : : return false;
2096 : : }
2097 : : }
2098 : :
2099 : : /* Try to obtain the range of the lengths of the string(s) referenced
2100 : : by ARG, or the size of the largest array ARG refers to if the range
2101 : : of lengths cannot be determined, and store all in *PDATA which must
2102 : : be zero-initialized on input except PDATA->MAXBOUND may be set to
2103 : : a non-null tree node other than INTEGER_CST to request to have it
2104 : : set to the length of the longest string in a PHI. ELTSIZE is
2105 : : the expected size of the string element in bytes: 1 for char and
2106 : : some power of 2 for wide characters.
2107 : : Return true if the range [PDATA->MINLEN, PDATA->MAXLEN] is suitable
2108 : : for optimization. Returning false means that a nonzero PDATA->MINLEN
2109 : : doesn't reflect the true lower bound of the range when PDATA->MAXLEN
2110 : : is -1 (in that case, the actual range is indeterminate, i.e.,
2111 : : [0, PTRDIFF_MAX - 2]. */
2112 : :
2113 : : bool
2114 : 1218619 : get_range_strlen (tree arg, c_strlen_data *pdata, unsigned eltsize)
2115 : : {
2116 : 1218619 : auto_bitmap visited;
2117 : 1218619 : tree maxbound = pdata->maxbound;
2118 : :
2119 : 1218619 : if (!get_range_strlen (arg, visited, SRK_LENRANGE, pdata, eltsize))
2120 : : {
2121 : : /* On failure extend the length range to an impossible maximum
2122 : : (a valid MAXLEN must be less than PTRDIFF_MAX - 1). Other
2123 : : members can stay unchanged regardless. */
2124 : 990307 : pdata->minlen = ssize_int (0);
2125 : 990307 : pdata->maxlen = build_all_ones_cst (size_type_node);
2126 : : }
2127 : 228312 : else if (!pdata->minlen)
2128 : 6096 : pdata->minlen = ssize_int (0);
2129 : :
2130 : : /* If it's unchanged from it initial non-null value, set the conservative
2131 : : MAXBOUND to SIZE_MAX. Otherwise leave it null (if it is null). */
2132 : 1218619 : if (maxbound && pdata->maxbound == maxbound)
2133 : 649064 : pdata->maxbound = build_all_ones_cst (size_type_node);
2134 : :
2135 : 1218619 : return !integer_all_onesp (pdata->maxlen);
2136 : 1218619 : }
2137 : :
2138 : : /* Return the maximum value for ARG given RKIND (see strlen_range_kind).
2139 : : For ARG of pointer types, NONSTR indicates if the caller is prepared
2140 : : to handle unterminated strings. For integer ARG and when RKIND ==
2141 : : SRK_INT_VALUE, NONSTR must be null.
2142 : :
2143 : : If an unterminated array is discovered and our caller handles
2144 : : unterminated arrays, then bubble up the offending DECL and
2145 : : return the maximum size. Otherwise return NULL. */
2146 : :
2147 : : static tree
2148 : 100049 : get_maxval_strlen (tree arg, strlen_range_kind rkind, tree *nonstr = NULL)
2149 : : {
2150 : : /* A non-null NONSTR is meaningless when determining the maximum
2151 : : value of an integer ARG. */
2152 : 100049 : gcc_assert (rkind != SRK_INT_VALUE || nonstr == NULL);
2153 : : /* ARG must have an integral type when RKIND says so. */
2154 : 100049 : gcc_assert (rkind != SRK_INT_VALUE || INTEGRAL_TYPE_P (TREE_TYPE (arg)));
2155 : :
2156 : 100049 : auto_bitmap visited;
2157 : :
2158 : : /* Reset DATA.MAXLEN if the call fails or when DATA.MAXLEN
2159 : : is unbounded. */
2160 : 100049 : c_strlen_data lendata = { };
2161 : 100049 : if (!get_range_strlen (arg, visited, rkind, &lendata, /* eltsize = */1))
2162 : 53032 : lendata.maxlen = NULL_TREE;
2163 : 47017 : else if (lendata.maxlen && integer_all_onesp (lendata.maxlen))
2164 : 0 : lendata.maxlen = NULL_TREE;
2165 : :
2166 : 100049 : if (nonstr)
2167 : : {
2168 : : /* For callers prepared to handle unterminated arrays set
2169 : : *NONSTR to point to the declaration of the array and return
2170 : : the maximum length/size. */
2171 : 25216 : *nonstr = lendata.decl;
2172 : 25216 : return lendata.maxlen;
2173 : : }
2174 : :
2175 : : /* Fail if the constant array isn't nul-terminated. */
2176 : 74833 : return lendata.decl ? NULL_TREE : lendata.maxlen;
2177 : 100049 : }
2178 : :
2179 : : /* Return true if LEN is known to be less than or equal to (or if STRICT is
2180 : : true, strictly less than) the lower bound of SIZE at compile time and false
2181 : : otherwise. */
2182 : :
2183 : : static bool
2184 : 66850 : known_lower (gimple *stmt, tree len, tree size, bool strict = false)
2185 : : {
2186 : 66850 : if (len == NULL_TREE)
2187 : : return false;
2188 : :
2189 : 244950 : wide_int size_range[2];
2190 : 244950 : wide_int len_range[2];
2191 : 48990 : if (get_range (len, stmt, len_range) && get_range (size, stmt, size_range))
2192 : : {
2193 : 17661 : if (strict)
2194 : 2053 : return wi::ltu_p (len_range[1], size_range[0]);
2195 : : else
2196 : 15608 : return wi::leu_p (len_range[1], size_range[0]);
2197 : : }
2198 : :
2199 : : return false;
2200 : 293940 : }
2201 : :
2202 : : /* Fold function call to builtin strcpy with arguments DEST and SRC.
2203 : : If LEN is not NULL, it represents the length of the string to be
2204 : : copied. Return NULL_TREE if no simplification can be made. */
2205 : :
2206 : : static bool
2207 : 27539 : gimple_fold_builtin_strcpy (gimple_stmt_iterator *gsi,
2208 : : tree dest, tree src)
2209 : : {
2210 : 27539 : gimple *stmt = gsi_stmt (*gsi);
2211 : 27539 : location_t loc = gimple_location (stmt);
2212 : 27539 : tree fn;
2213 : :
2214 : : /* If SRC and DEST are the same (and not volatile), return DEST. */
2215 : 27539 : if (operand_equal_p (src, dest, 0))
2216 : : {
2217 : : /* Issue -Wrestrict unless the pointers are null (those do
2218 : : not point to objects and so do not indicate an overlap;
2219 : : such calls could be the result of sanitization and jump
2220 : : threading). */
2221 : 82 : if (!integer_zerop (dest) && !warning_suppressed_p (stmt, OPT_Wrestrict))
2222 : : {
2223 : 47 : tree func = gimple_call_fndecl (stmt);
2224 : :
2225 : 47 : warning_at (loc, OPT_Wrestrict,
2226 : : "%qD source argument is the same as destination",
2227 : : func);
2228 : : }
2229 : :
2230 : 82 : replace_call_with_value (gsi, dest);
2231 : 82 : return true;
2232 : : }
2233 : :
2234 : 27457 : if (optimize_function_for_size_p (cfun))
2235 : : return false;
2236 : :
2237 : 25216 : fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
2238 : 25216 : if (!fn)
2239 : : return false;
2240 : :
2241 : : /* Set to non-null if ARG refers to an unterminated array. */
2242 : 25216 : tree nonstr = NULL;
2243 : 25216 : tree len = get_maxval_strlen (src, SRK_STRLEN, &nonstr);
2244 : :
2245 : 25216 : if (nonstr)
2246 : : {
2247 : : /* Avoid folding calls with unterminated arrays. */
2248 : 596 : if (!warning_suppressed_p (stmt, OPT_Wstringop_overread))
2249 : 69 : warn_string_no_nul (loc, stmt, "strcpy", src, nonstr);
2250 : 596 : suppress_warning (stmt, OPT_Wstringop_overread);
2251 : 596 : return false;
2252 : : }
2253 : :
2254 : 30235 : if (!len || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
2255 : : return false;
2256 : :
2257 : 2778 : len = fold_convert_loc (loc, size_type_node, len);
2258 : 2778 : len = size_binop_loc (loc, PLUS_EXPR, len, build_int_cst (size_type_node, 1));
2259 : 2778 : len = force_gimple_operand_gsi (gsi, len, true,
2260 : : NULL_TREE, true, GSI_SAME_STMT);
2261 : 2778 : gimple *repl = gimple_build_call (fn, 3, dest, src, len);
2262 : 2778 : replace_call_with_call_and_fold (gsi, repl);
2263 : 2778 : return true;
2264 : : }
2265 : :
2266 : : /* Fold function call to builtin strncpy with arguments DEST, SRC, and LEN.
2267 : : If SLEN is not NULL, it represents the length of the source string.
2268 : : Return NULL_TREE if no simplification can be made. */
2269 : :
2270 : : static bool
2271 : 17631 : gimple_fold_builtin_strncpy (gimple_stmt_iterator *gsi,
2272 : : tree dest, tree src, tree len)
2273 : : {
2274 : 17631 : gimple *stmt = gsi_stmt (*gsi);
2275 : 17631 : location_t loc = gimple_location (stmt);
2276 : 17631 : bool nonstring = get_attr_nonstring_decl (dest) != NULL_TREE;
2277 : :
2278 : : /* If the LEN parameter is zero, return DEST. */
2279 : 17631 : if (integer_zerop (len))
2280 : : {
2281 : : /* Avoid warning if the destination refers to an array/pointer
2282 : : decorate with attribute nonstring. */
2283 : 166 : if (!nonstring)
2284 : : {
2285 : 162 : tree fndecl = gimple_call_fndecl (stmt);
2286 : :
2287 : : /* Warn about the lack of nul termination: the result is not
2288 : : a (nul-terminated) string. */
2289 : 162 : tree slen = get_maxval_strlen (src, SRK_STRLEN);
2290 : 162 : if (slen && !integer_zerop (slen))
2291 : 24 : warning_at (loc, OPT_Wstringop_truncation,
2292 : : "%qD destination unchanged after copying no bytes "
2293 : : "from a string of length %E",
2294 : : fndecl, slen);
2295 : : else
2296 : 138 : warning_at (loc, OPT_Wstringop_truncation,
2297 : : "%qD destination unchanged after copying no bytes",
2298 : : fndecl);
2299 : : }
2300 : :
2301 : 166 : replace_call_with_value (gsi, dest);
2302 : 166 : return true;
2303 : : }
2304 : :
2305 : : /* We can't compare slen with len as constants below if len is not a
2306 : : constant. */
2307 : 17465 : if (TREE_CODE (len) != INTEGER_CST)
2308 : : return false;
2309 : :
2310 : : /* Now, we must be passed a constant src ptr parameter. */
2311 : 10719 : tree slen = get_maxval_strlen (src, SRK_STRLEN);
2312 : 10719 : if (!slen || TREE_CODE (slen) != INTEGER_CST)
2313 : : return false;
2314 : :
2315 : : /* The size of the source string including the terminating nul. */
2316 : 1821 : tree ssize = size_binop_loc (loc, PLUS_EXPR, slen, ssize_int (1));
2317 : :
2318 : : /* We do not support simplification of this case, though we do
2319 : : support it when expanding trees into RTL. */
2320 : : /* FIXME: generate a call to __builtin_memset. */
2321 : 1821 : if (tree_int_cst_lt (ssize, len))
2322 : : return false;
2323 : :
2324 : : /* Diagnose truncation that leaves the copy unterminated. */
2325 : 643 : maybe_diag_stxncpy_trunc (*gsi, src, len);
2326 : :
2327 : : /* OK transform into builtin memcpy. */
2328 : 643 : tree fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
2329 : 18108 : if (!fn || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
2330 : : return false;
2331 : :
2332 : 643 : len = fold_convert_loc (loc, size_type_node, len);
2333 : 643 : len = force_gimple_operand_gsi (gsi, len, true,
2334 : : NULL_TREE, true, GSI_SAME_STMT);
2335 : 643 : gimple *repl = gimple_build_call (fn, 3, dest, src, len);
2336 : 643 : replace_call_with_call_and_fold (gsi, repl);
2337 : :
2338 : 643 : return true;
2339 : : }
2340 : :
2341 : : /* Fold function call to builtin strchr or strrchr.
2342 : : If both arguments are constant, evaluate and fold the result,
2343 : : otherwise simplify str(r)chr (str, 0) into str + strlen (str).
2344 : : In general strlen is significantly faster than strchr
2345 : : due to being a simpler operation. */
2346 : : static bool
2347 : 6407 : gimple_fold_builtin_strchr (gimple_stmt_iterator *gsi, bool is_strrchr)
2348 : : {
2349 : 6407 : gimple *stmt = gsi_stmt (*gsi);
2350 : 6407 : tree str = gimple_call_arg (stmt, 0);
2351 : 6407 : tree c = gimple_call_arg (stmt, 1);
2352 : 6407 : location_t loc = gimple_location (stmt);
2353 : 6407 : const char *p;
2354 : 6407 : char ch;
2355 : :
2356 : 6407 : if (!gimple_call_lhs (stmt))
2357 : : return false;
2358 : :
2359 : : /* Avoid folding if the first argument is not a nul-terminated array.
2360 : : Defer warning until later. */
2361 : 6397 : if (!check_nul_terminated_array (NULL_TREE, str))
2362 : : return false;
2363 : :
2364 : 6303 : if ((p = c_getstr (str)) && target_char_cst_p (c, &ch))
2365 : : {
2366 : 41 : const char *p1 = is_strrchr ? strrchr (p, ch) : strchr (p, ch);
2367 : :
2368 : 41 : if (p1 == NULL)
2369 : : {
2370 : 1 : replace_call_with_value (gsi, integer_zero_node);
2371 : 1 : return true;
2372 : : }
2373 : :
2374 : 40 : tree len = build_int_cst (size_type_node, p1 - p);
2375 : 40 : gimple_seq stmts = NULL;
2376 : 40 : gimple *new_stmt = gimple_build_assign (gimple_call_lhs (stmt),
2377 : : POINTER_PLUS_EXPR, str, len);
2378 : 40 : gimple_seq_add_stmt_without_update (&stmts, new_stmt);
2379 : 40 : gsi_replace_with_seq_vops (gsi, stmts);
2380 : 40 : return true;
2381 : : }
2382 : :
2383 : 6344 : if (!integer_zerop (c) || (!gimple_vuse (stmt) && gimple_in_ssa_p (cfun)))
2384 : : return false;
2385 : :
2386 : : /* Transform strrchr (s, 0) to strchr (s, 0) when optimizing for size. */
2387 : 82 : if (is_strrchr && optimize_function_for_size_p (cfun))
2388 : : {
2389 : 3 : tree strchr_fn = builtin_decl_implicit (BUILT_IN_STRCHR);
2390 : :
2391 : 3 : if (strchr_fn)
2392 : : {
2393 : 3 : gimple *repl = gimple_build_call (strchr_fn, 2, str, c);
2394 : 3 : replace_call_with_call_and_fold (gsi, repl);
2395 : 3 : return true;
2396 : : }
2397 : :
2398 : : return false;
2399 : : }
2400 : :
2401 : 79 : tree len;
2402 : 6363 : tree strlen_fn = builtin_decl_implicit (BUILT_IN_STRLEN);
2403 : :
2404 : 79 : if (!strlen_fn)
2405 : : return false;
2406 : :
2407 : : /* Create newstr = strlen (str). */
2408 : 79 : gimple_seq stmts = NULL;
2409 : 79 : gimple *new_stmt = gimple_build_call (strlen_fn, 1, str);
2410 : 79 : gimple_set_location (new_stmt, loc);
2411 : 79 : len = create_tmp_reg_or_ssa_name (size_type_node);
2412 : 79 : gimple_call_set_lhs (new_stmt, len);
2413 : 79 : gimple_seq_add_stmt_without_update (&stmts, new_stmt);
2414 : :
2415 : : /* Create (str p+ strlen (str)). */
2416 : 79 : new_stmt = gimple_build_assign (gimple_call_lhs (stmt),
2417 : : POINTER_PLUS_EXPR, str, len);
2418 : 79 : gimple_seq_add_stmt_without_update (&stmts, new_stmt);
2419 : 79 : gsi_replace_with_seq_vops (gsi, stmts);
2420 : : /* gsi now points at the assignment to the lhs, get a
2421 : : stmt iterator to the strlen.
2422 : : ??? We can't use gsi_for_stmt as that doesn't work when the
2423 : : CFG isn't built yet. */
2424 : 79 : gimple_stmt_iterator gsi2 = *gsi;
2425 : 79 : gsi_prev (&gsi2);
2426 : 79 : fold_stmt (&gsi2);
2427 : 79 : return true;
2428 : : }
2429 : :
2430 : : /* Fold function call to builtin strstr.
2431 : : If both arguments are constant, evaluate and fold the result,
2432 : : additionally fold strstr (x, "") into x and strstr (x, "c")
2433 : : into strchr (x, 'c'). */
2434 : : static bool
2435 : 4837 : gimple_fold_builtin_strstr (gimple_stmt_iterator *gsi)
2436 : : {
2437 : 4837 : gimple *stmt = gsi_stmt (*gsi);
2438 : 4837 : if (!gimple_call_lhs (stmt))
2439 : : return false;
2440 : :
2441 : 4834 : tree haystack = gimple_call_arg (stmt, 0);
2442 : 4834 : tree needle = gimple_call_arg (stmt, 1);
2443 : :
2444 : : /* Avoid folding if either argument is not a nul-terminated array.
2445 : : Defer warning until later. */
2446 : 4834 : if (!check_nul_terminated_array (NULL_TREE, haystack)
2447 : 4834 : || !check_nul_terminated_array (NULL_TREE, needle))
2448 : 21 : return false;
2449 : :
2450 : 4813 : const char *q = c_getstr (needle);
2451 : 4813 : if (q == NULL)
2452 : : return false;
2453 : :
2454 : 3593 : if (const char *p = c_getstr (haystack))
2455 : : {
2456 : 14 : const char *r = strstr (p, q);
2457 : :
2458 : 14 : if (r == NULL)
2459 : : {
2460 : 1 : replace_call_with_value (gsi, integer_zero_node);
2461 : 1 : return true;
2462 : : }
2463 : :
2464 : 13 : tree len = build_int_cst (size_type_node, r - p);
2465 : 13 : gimple_seq stmts = NULL;
2466 : 13 : gimple *new_stmt
2467 : 13 : = gimple_build_assign (gimple_call_lhs (stmt), POINTER_PLUS_EXPR,
2468 : : haystack, len);
2469 : 13 : gimple_seq_add_stmt_without_update (&stmts, new_stmt);
2470 : 13 : gsi_replace_with_seq_vops (gsi, stmts);
2471 : 13 : return true;
2472 : : }
2473 : :
2474 : : /* For strstr (x, "") return x. */
2475 : 3579 : if (q[0] == '\0')
2476 : : {
2477 : 6 : replace_call_with_value (gsi, haystack);
2478 : 6 : return true;
2479 : : }
2480 : :
2481 : 11941 : if (!gimple_vuse (stmt) && gimple_in_ssa_p (cfun))
2482 : : return false;
2483 : :
2484 : : /* Transform strstr (x, "c") into strchr (x, 'c'). */
2485 : 3573 : if (q[1] == '\0')
2486 : : {
2487 : 22 : tree strchr_fn = builtin_decl_implicit (BUILT_IN_STRCHR);
2488 : 22 : if (strchr_fn)
2489 : : {
2490 : 22 : tree c = build_int_cst (integer_type_node, q[0]);
2491 : 22 : gimple *repl = gimple_build_call (strchr_fn, 2, haystack, c);
2492 : 22 : replace_call_with_call_and_fold (gsi, repl);
2493 : 22 : return true;
2494 : : }
2495 : : }
2496 : :
2497 : : return false;
2498 : : }
2499 : :
2500 : : /* Simplify a call to the strcat builtin. DST and SRC are the arguments
2501 : : to the call.
2502 : :
2503 : : Return NULL_TREE if no simplification was possible, otherwise return the
2504 : : simplified form of the call as a tree.
2505 : :
2506 : : The simplified form may be a constant or other expression which
2507 : : computes the same value, but in a more efficient manner (including
2508 : : calls to other builtin functions).
2509 : :
2510 : : The call may contain arguments which need to be evaluated, but
2511 : : which are not useful to determine the result of the call. In
2512 : : this case we return a chain of COMPOUND_EXPRs. The LHS of each
2513 : : COMPOUND_EXPR will be an argument which must be evaluated.
2514 : : COMPOUND_EXPRs are chained through their RHS. The RHS of the last
2515 : : COMPOUND_EXPR in the chain will contain the tree for the simplified
2516 : : form of the builtin function call. */
2517 : :
2518 : : static bool
2519 : 7766 : gimple_fold_builtin_strcat (gimple_stmt_iterator *gsi, tree dst, tree src)
2520 : : {
2521 : 7766 : gimple *stmt = gsi_stmt (*gsi);
2522 : 7766 : location_t loc = gimple_location (stmt);
2523 : :
2524 : 7766 : const char *p = c_getstr (src);
2525 : :
2526 : : /* If the string length is zero, return the dst parameter. */
2527 : 7766 : if (p && *p == '\0')
2528 : : {
2529 : 72 : replace_call_with_value (gsi, dst);
2530 : 72 : return true;
2531 : : }
2532 : :
2533 : 7694 : if (!optimize_bb_for_speed_p (gimple_bb (stmt)))
2534 : : return false;
2535 : :
2536 : 20934 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
2537 : : return false;
2538 : :
2539 : : /* See if we can store by pieces into (dst + strlen(dst)). */
2540 : 7049 : tree newdst;
2541 : 7049 : tree strlen_fn = builtin_decl_implicit (BUILT_IN_STRLEN);
2542 : 7049 : tree memcpy_fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
2543 : :
2544 : 7049 : if (!strlen_fn || !memcpy_fn)
2545 : : return false;
2546 : :
2547 : : /* If the length of the source string isn't computable don't
2548 : : split strcat into strlen and memcpy. */
2549 : 7049 : tree len = get_maxval_strlen (src, SRK_STRLEN);
2550 : 7049 : if (! len)
2551 : : return false;
2552 : :
2553 : : /* Create strlen (dst). */
2554 : 858 : gimple_seq stmts = NULL, stmts2;
2555 : 858 : gimple *repl = gimple_build_call (strlen_fn, 1, dst);
2556 : 858 : gimple_set_location (repl, loc);
2557 : 858 : newdst = create_tmp_reg_or_ssa_name (size_type_node);
2558 : 858 : gimple_call_set_lhs (repl, newdst);
2559 : 858 : gimple_seq_add_stmt_without_update (&stmts, repl);
2560 : :
2561 : : /* Create (dst p+ strlen (dst)). */
2562 : 858 : newdst = fold_build_pointer_plus_loc (loc, dst, newdst);
2563 : 858 : newdst = force_gimple_operand (newdst, &stmts2, true, NULL_TREE);
2564 : 858 : gimple_seq_add_seq_without_update (&stmts, stmts2);
2565 : :
2566 : 858 : len = fold_convert_loc (loc, size_type_node, len);
2567 : 858 : len = size_binop_loc (loc, PLUS_EXPR, len,
2568 : 858 : build_int_cst (size_type_node, 1));
2569 : 858 : len = force_gimple_operand (len, &stmts2, true, NULL_TREE);
2570 : 858 : gimple_seq_add_seq_without_update (&stmts, stmts2);
2571 : :
2572 : 858 : repl = gimple_build_call (memcpy_fn, 3, newdst, src, len);
2573 : 858 : gimple_seq_add_stmt_without_update (&stmts, repl);
2574 : 858 : if (gimple_call_lhs (stmt))
2575 : : {
2576 : 165 : repl = gimple_build_assign (gimple_call_lhs (stmt), dst);
2577 : 165 : gimple_seq_add_stmt_without_update (&stmts, repl);
2578 : 165 : gsi_replace_with_seq_vops (gsi, stmts);
2579 : : /* gsi now points at the assignment to the lhs, get a
2580 : : stmt iterator to the memcpy call.
2581 : : ??? We can't use gsi_for_stmt as that doesn't work when the
2582 : : CFG isn't built yet. */
2583 : 165 : gimple_stmt_iterator gsi2 = *gsi;
2584 : 165 : gsi_prev (&gsi2);
2585 : 165 : fold_stmt (&gsi2);
2586 : : }
2587 : : else
2588 : : {
2589 : 693 : gsi_replace_with_seq_vops (gsi, stmts);
2590 : 693 : fold_stmt (gsi);
2591 : : }
2592 : : return true;
2593 : : }
2594 : :
2595 : : /* Fold a call to the __strcat_chk builtin FNDECL. DEST, SRC, and SIZE
2596 : : are the arguments to the call. */
2597 : :
2598 : : static bool
2599 : 1854 : gimple_fold_builtin_strcat_chk (gimple_stmt_iterator *gsi)
2600 : : {
2601 : 1854 : gimple *stmt = gsi_stmt (*gsi);
2602 : 1854 : tree dest = gimple_call_arg (stmt, 0);
2603 : 1854 : tree src = gimple_call_arg (stmt, 1);
2604 : 1854 : tree size = gimple_call_arg (stmt, 2);
2605 : 1854 : tree fn;
2606 : 1854 : const char *p;
2607 : :
2608 : 1854 : p = c_getstr (src);
2609 : : /* If the SRC parameter is "", return DEST. */
2610 : 1854 : if (p && *p == '\0')
2611 : : {
2612 : 60 : replace_call_with_value (gsi, dest);
2613 : 60 : return true;
2614 : : }
2615 : :
2616 : 1794 : if (! tree_fits_uhwi_p (size) || ! integer_all_onesp (size))
2617 : 1712 : return false;
2618 : :
2619 : 1876 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
2620 : : return false;
2621 : :
2622 : : /* If __builtin_strcat_chk is used, assume strcat is available. */
2623 : 82 : fn = builtin_decl_explicit (BUILT_IN_STRCAT);
2624 : 82 : if (!fn)
2625 : : return false;
2626 : :
2627 : 82 : gimple *repl = gimple_build_call (fn, 2, dest, src);
2628 : 82 : replace_call_with_call_and_fold (gsi, repl);
2629 : 82 : return true;
2630 : : }
2631 : :
2632 : : /* Simplify a call to the strncat builtin. */
2633 : :
2634 : : static bool
2635 : 5763 : gimple_fold_builtin_strncat (gimple_stmt_iterator *gsi)
2636 : : {
2637 : 5763 : gimple *stmt = gsi_stmt (*gsi);
2638 : 5763 : tree dst = gimple_call_arg (stmt, 0);
2639 : 5763 : tree src = gimple_call_arg (stmt, 1);
2640 : 5763 : tree len = gimple_call_arg (stmt, 2);
2641 : 5763 : tree src_len = c_strlen (src, 1);
2642 : :
2643 : : /* If the requested length is zero, or the src parameter string
2644 : : length is zero, return the dst parameter. */
2645 : 5763 : if (integer_zerop (len) || (src_len && integer_zerop (src_len)))
2646 : : {
2647 : 117 : replace_call_with_value (gsi, dst);
2648 : 117 : return true;
2649 : : }
2650 : :
2651 : : /* Return early if the requested len is less than the string length.
2652 : : Warnings will be issued elsewhere later. */
2653 : 5646 : if (!src_len || known_lower (stmt, len, src_len, true))
2654 : 5041 : return false;
2655 : :
2656 : : /* Warn on constant LEN. */
2657 : 605 : if (TREE_CODE (len) == INTEGER_CST)
2658 : : {
2659 : 131 : bool nowarn = warning_suppressed_p (stmt, OPT_Wstringop_overflow_);
2660 : 131 : tree dstsize;
2661 : :
2662 : 131 : if (!nowarn && compute_builtin_object_size (dst, 1, &dstsize)
2663 : 175 : && TREE_CODE (dstsize) == INTEGER_CST)
2664 : : {
2665 : 44 : int cmpdst = tree_int_cst_compare (len, dstsize);
2666 : :
2667 : 44 : if (cmpdst >= 0)
2668 : : {
2669 : 19 : tree fndecl = gimple_call_fndecl (stmt);
2670 : :
2671 : : /* Strncat copies (at most) LEN bytes and always appends
2672 : : the terminating NUL so the specified bound should never
2673 : : be equal to (or greater than) the size of the destination.
2674 : : If it is, the copy could overflow. */
2675 : 19 : location_t loc = gimple_location (stmt);
2676 : 37 : nowarn = warning_at (loc, OPT_Wstringop_overflow_,
2677 : : cmpdst == 0
2678 : : ? G_("%qD specified bound %E equals "
2679 : : "destination size")
2680 : : : G_("%qD specified bound %E exceeds "
2681 : : "destination size %E"),
2682 : : fndecl, len, dstsize);
2683 : 19 : if (nowarn)
2684 : 0 : suppress_warning (stmt, OPT_Wstringop_overflow_);
2685 : : }
2686 : : }
2687 : :
2688 : 131 : if (!nowarn && TREE_CODE (src_len) == INTEGER_CST
2689 : 243 : && tree_int_cst_compare (src_len, len) == 0)
2690 : : {
2691 : 20 : tree fndecl = gimple_call_fndecl (stmt);
2692 : 20 : location_t loc = gimple_location (stmt);
2693 : :
2694 : : /* To avoid possible overflow the specified bound should also
2695 : : not be equal to the length of the source, even when the size
2696 : : of the destination is unknown (it's not an uncommon mistake
2697 : : to specify as the bound to strncpy the length of the source). */
2698 : 20 : if (warning_at (loc, OPT_Wstringop_overflow_,
2699 : : "%qD specified bound %E equals source length",
2700 : : fndecl, len))
2701 : 6 : suppress_warning (stmt, OPT_Wstringop_overflow_);
2702 : : }
2703 : : }
2704 : :
2705 : 605 : if (!known_lower (stmt, src_len, len))
2706 : : return false;
2707 : :
2708 : 136 : tree fn = builtin_decl_implicit (BUILT_IN_STRCAT);
2709 : :
2710 : : /* If the replacement _DECL isn't initialized, don't do the
2711 : : transformation. */
2712 : 5782 : if (!fn || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
2713 : : return false;
2714 : :
2715 : : /* Otherwise, emit a call to strcat. */
2716 : 136 : gcall *repl = gimple_build_call (fn, 2, dst, src);
2717 : 136 : replace_call_with_call_and_fold (gsi, repl);
2718 : 136 : return true;
2719 : : }
2720 : :
2721 : : /* Fold a call to the __strncat_chk builtin with arguments DEST, SRC,
2722 : : LEN, and SIZE. */
2723 : :
2724 : : static bool
2725 : 1225 : gimple_fold_builtin_strncat_chk (gimple_stmt_iterator *gsi)
2726 : : {
2727 : 1225 : gimple *stmt = gsi_stmt (*gsi);
2728 : 1225 : tree dest = gimple_call_arg (stmt, 0);
2729 : 1225 : tree src = gimple_call_arg (stmt, 1);
2730 : 1225 : tree len = gimple_call_arg (stmt, 2);
2731 : 1225 : tree size = gimple_call_arg (stmt, 3);
2732 : 1225 : tree fn;
2733 : 1225 : const char *p;
2734 : :
2735 : 1225 : p = c_getstr (src);
2736 : : /* If the SRC parameter is "" or if LEN is 0, return DEST. */
2737 : 312 : if ((p && *p == '\0')
2738 : 1486 : || integer_zerop (len))
2739 : : {
2740 : 78 : replace_call_with_value (gsi, dest);
2741 : 78 : return true;
2742 : : }
2743 : :
2744 : 3289 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
2745 : : return false;
2746 : :
2747 : 1147 : if (! integer_all_onesp (size))
2748 : : {
2749 : 1060 : tree src_len = c_strlen (src, 1);
2750 : 1060 : if (known_lower (stmt, src_len, len))
2751 : : {
2752 : : /* If LEN >= strlen (SRC), optimize into __strcat_chk. */
2753 : 65 : fn = builtin_decl_explicit (BUILT_IN_STRCAT_CHK);
2754 : 65 : if (!fn)
2755 : : return false;
2756 : :
2757 : 65 : gimple *repl = gimple_build_call (fn, 3, dest, src, size);
2758 : 65 : replace_call_with_call_and_fold (gsi, repl);
2759 : 65 : return true;
2760 : : }
2761 : : return false;
2762 : : }
2763 : :
2764 : : /* If __builtin_strncat_chk is used, assume strncat is available. */
2765 : 87 : fn = builtin_decl_explicit (BUILT_IN_STRNCAT);
2766 : 87 : if (!fn)
2767 : : return false;
2768 : :
2769 : 87 : gimple *repl = gimple_build_call (fn, 3, dest, src, len);
2770 : 87 : replace_call_with_call_and_fold (gsi, repl);
2771 : 87 : return true;
2772 : : }
2773 : :
2774 : : /* Build and append gimple statements to STMTS that would load a first
2775 : : character of a memory location identified by STR. LOC is location
2776 : : of the statement. */
2777 : :
2778 : : static tree
2779 : 425 : gimple_load_first_char (location_t loc, tree str, gimple_seq *stmts)
2780 : : {
2781 : 425 : tree var;
2782 : :
2783 : 425 : tree cst_uchar_node = build_type_variant (unsigned_char_type_node, 1, 0);
2784 : 425 : tree cst_uchar_ptr_node
2785 : 425 : = build_pointer_type_for_mode (cst_uchar_node, ptr_mode, true);
2786 : 425 : tree off0 = build_int_cst (cst_uchar_ptr_node, 0);
2787 : :
2788 : 425 : tree temp = fold_build2_loc (loc, MEM_REF, cst_uchar_node, str, off0);
2789 : 425 : gassign *stmt = gimple_build_assign (NULL_TREE, temp);
2790 : 425 : var = create_tmp_reg_or_ssa_name (cst_uchar_node, stmt);
2791 : :
2792 : 425 : gimple_assign_set_lhs (stmt, var);
2793 : 425 : gimple_seq_add_stmt_without_update (stmts, stmt);
2794 : :
2795 : 425 : return var;
2796 : : }
2797 : :
2798 : : /* Fold a call to the str{n}{case}cmp builtin pointed by GSI iterator. */
2799 : :
2800 : : static bool
2801 : 1371514 : gimple_fold_builtin_string_compare (gimple_stmt_iterator *gsi)
2802 : : {
2803 : 1371514 : gimple *stmt = gsi_stmt (*gsi);
2804 : 1371514 : tree callee = gimple_call_fndecl (stmt);
2805 : 1371514 : enum built_in_function fcode = DECL_FUNCTION_CODE (callee);
2806 : :
2807 : 1371514 : tree type = integer_type_node;
2808 : 1371514 : tree str1 = gimple_call_arg (stmt, 0);
2809 : 1371514 : tree str2 = gimple_call_arg (stmt, 1);
2810 : 1371514 : tree lhs = gimple_call_lhs (stmt);
2811 : :
2812 : 1371514 : tree bound_node = NULL_TREE;
2813 : 1371514 : unsigned HOST_WIDE_INT bound = HOST_WIDE_INT_M1U;
2814 : :
2815 : : /* Handle strncmp and strncasecmp functions. */
2816 : 1371514 : if (gimple_call_num_args (stmt) == 3)
2817 : : {
2818 : 22800 : bound_node = gimple_call_arg (stmt, 2);
2819 : 22800 : if (tree_fits_uhwi_p (bound_node))
2820 : 17602 : bound = tree_to_uhwi (bound_node);
2821 : : }
2822 : :
2823 : : /* If the BOUND parameter is zero, return zero. */
2824 : 17602 : if (bound == 0)
2825 : : {
2826 : 4 : replace_call_with_value (gsi, integer_zero_node);
2827 : 4 : return true;
2828 : : }
2829 : :
2830 : : /* If ARG1 and ARG2 are the same (and not volatile), return zero. */
2831 : 1371510 : if (operand_equal_p (str1, str2, 0))
2832 : : {
2833 : 33 : replace_call_with_value (gsi, integer_zero_node);
2834 : 33 : return true;
2835 : : }
2836 : :
2837 : 2742954 : if (!gimple_vuse (stmt) && gimple_in_ssa_p (cfun))
2838 : : return false;
2839 : :
2840 : : /* Initially set to the number of characters, including the terminating
2841 : : nul if each array has one. LENx == strnlen (Sx, LENx) implies that
2842 : : the array Sx is not terminated by a nul.
2843 : : For nul-terminated strings then adjusted to their length so that
2844 : : LENx == NULPOSx holds. */
2845 : 1371477 : unsigned HOST_WIDE_INT len1 = HOST_WIDE_INT_MAX, len2 = len1;
2846 : 1371477 : const char *p1 = getbyterep (str1, &len1);
2847 : 1371477 : const char *p2 = getbyterep (str2, &len2);
2848 : :
2849 : : /* The position of the terminating nul character if one exists, otherwise
2850 : : a value greater than LENx. */
2851 : 1371477 : unsigned HOST_WIDE_INT nulpos1 = HOST_WIDE_INT_MAX, nulpos2 = nulpos1;
2852 : :
2853 : 1371477 : if (p1)
2854 : : {
2855 : 42453 : size_t n = strnlen (p1, len1);
2856 : 42453 : if (n < len1)
2857 : 42338 : len1 = nulpos1 = n;
2858 : : }
2859 : :
2860 : 1371477 : if (p2)
2861 : : {
2862 : 1344472 : size_t n = strnlen (p2, len2);
2863 : 1344472 : if (n < len2)
2864 : 1344408 : len2 = nulpos2 = n;
2865 : : }
2866 : :
2867 : : /* For known strings, return an immediate value. */
2868 : 1371477 : if (p1 && p2)
2869 : : {
2870 : 39371 : int r = 0;
2871 : 39371 : bool known_result = false;
2872 : :
2873 : 39371 : switch (fcode)
2874 : : {
2875 : 38172 : case BUILT_IN_STRCMP:
2876 : 38172 : case BUILT_IN_STRCMP_EQ:
2877 : 38172 : if (len1 != nulpos1 || len2 != nulpos2)
2878 : : break;
2879 : :
2880 : 38144 : r = strcmp (p1, p2);
2881 : 38144 : known_result = true;
2882 : 38144 : break;
2883 : :
2884 : 1118 : case BUILT_IN_STRNCMP:
2885 : 1118 : case BUILT_IN_STRNCMP_EQ:
2886 : 1118 : {
2887 : 1118 : if (bound == HOST_WIDE_INT_M1U)
2888 : : break;
2889 : :
2890 : : /* Reduce the bound to be no more than the length
2891 : : of the shorter of the two strings, or the sizes
2892 : : of the unterminated arrays. */
2893 : 38 : unsigned HOST_WIDE_INT n = bound;
2894 : :
2895 : 38 : if (len1 == nulpos1 && len1 < n)
2896 : 4 : n = len1 + 1;
2897 : 38 : if (len2 == nulpos2 && len2 < n)
2898 : 11 : n = len2 + 1;
2899 : :
2900 : 38 : if (MIN (nulpos1, nulpos2) + 1 < n)
2901 : : break;
2902 : :
2903 : 38 : r = strncmp (p1, p2, n);
2904 : 38 : known_result = true;
2905 : 38 : break;
2906 : : }
2907 : : /* Only handleable situation is where the string are equal (result 0),
2908 : : which is already handled by operand_equal_p case. */
2909 : : case BUILT_IN_STRCASECMP:
2910 : : break;
2911 : 41 : case BUILT_IN_STRNCASECMP:
2912 : 41 : {
2913 : 41 : if (bound == HOST_WIDE_INT_M1U)
2914 : : break;
2915 : 41 : r = strncmp (p1, p2, bound);
2916 : 41 : if (r == 0)
2917 : : known_result = true;
2918 : : break;
2919 : : }
2920 : 0 : default:
2921 : 0 : gcc_unreachable ();
2922 : : }
2923 : :
2924 : 38182 : if (known_result)
2925 : : {
2926 : 38182 : replace_call_with_value (gsi, build_cmp_result (type, r));
2927 : 38182 : return true;
2928 : : }
2929 : : }
2930 : :
2931 : 2666590 : bool nonzero_bound = (bound >= 1 && bound < HOST_WIDE_INT_M1U)
2932 : 1315848 : || fcode == BUILT_IN_STRCMP
2933 : 1315848 : || fcode == BUILT_IN_STRCMP_EQ
2934 : 1338689 : || fcode == BUILT_IN_STRCASECMP;
2935 : :
2936 : 1333295 : location_t loc = gimple_location (stmt);
2937 : :
2938 : : /* If the second arg is "", return *(const unsigned char*)arg1. */
2939 : 1333295 : if (p2 && *p2 == '\0' && nonzero_bound)
2940 : : {
2941 : 140 : gimple_seq stmts = NULL;
2942 : 140 : tree var = gimple_load_first_char (loc, str1, &stmts);
2943 : 140 : if (lhs)
2944 : : {
2945 : 140 : stmt = gimple_build_assign (lhs, NOP_EXPR, var);
2946 : 140 : gimple_seq_add_stmt_without_update (&stmts, stmt);
2947 : : }
2948 : :
2949 : 140 : gsi_replace_with_seq_vops (gsi, stmts);
2950 : 140 : return true;
2951 : : }
2952 : :
2953 : : /* If the first arg is "", return -*(const unsigned char*)arg2. */
2954 : 1333155 : if (p1 && *p1 == '\0' && nonzero_bound)
2955 : : {
2956 : 81 : gimple_seq stmts = NULL;
2957 : 81 : tree var = gimple_load_first_char (loc, str2, &stmts);
2958 : :
2959 : 81 : if (lhs)
2960 : : {
2961 : 81 : tree c = create_tmp_reg_or_ssa_name (integer_type_node);
2962 : 81 : stmt = gimple_build_assign (c, NOP_EXPR, var);
2963 : 81 : gimple_seq_add_stmt_without_update (&stmts, stmt);
2964 : :
2965 : 81 : stmt = gimple_build_assign (lhs, NEGATE_EXPR, c);
2966 : 81 : gimple_seq_add_stmt_without_update (&stmts, stmt);
2967 : : }
2968 : :
2969 : 81 : gsi_replace_with_seq_vops (gsi, stmts);
2970 : 81 : return true;
2971 : : }
2972 : :
2973 : : /* If BOUND is one, return an expression corresponding to
2974 : : (*(const unsigned char*)arg2 - *(const unsigned char*)arg1). */
2975 : 1333074 : if (fcode == BUILT_IN_STRNCMP && bound == 1)
2976 : : {
2977 : 102 : gimple_seq stmts = NULL;
2978 : 102 : tree temp1 = gimple_load_first_char (loc, str1, &stmts);
2979 : 102 : tree temp2 = gimple_load_first_char (loc, str2, &stmts);
2980 : :
2981 : 102 : if (lhs)
2982 : : {
2983 : 99 : tree c1 = create_tmp_reg_or_ssa_name (integer_type_node);
2984 : 99 : gassign *convert1 = gimple_build_assign (c1, NOP_EXPR, temp1);
2985 : 99 : gimple_seq_add_stmt_without_update (&stmts, convert1);
2986 : :
2987 : 99 : tree c2 = create_tmp_reg_or_ssa_name (integer_type_node);
2988 : 99 : gassign *convert2 = gimple_build_assign (c2, NOP_EXPR, temp2);
2989 : 99 : gimple_seq_add_stmt_without_update (&stmts, convert2);
2990 : :
2991 : 99 : stmt = gimple_build_assign (lhs, MINUS_EXPR, c1, c2);
2992 : 99 : gimple_seq_add_stmt_without_update (&stmts, stmt);
2993 : : }
2994 : :
2995 : 102 : gsi_replace_with_seq_vops (gsi, stmts);
2996 : 102 : return true;
2997 : : }
2998 : :
2999 : : /* If BOUND is greater than the length of one constant string,
3000 : : and the other argument is also a nul-terminated string, replace
3001 : : strncmp with strcmp. */
3002 : 1332972 : if (fcode == BUILT_IN_STRNCMP
3003 : 17394 : && bound > 0 && bound < HOST_WIDE_INT_M1U
3004 : 12326 : && ((p2 && len2 < bound && len2 == nulpos2)
3005 : 12112 : || (p1 && len1 < bound && len1 == nulpos1)))
3006 : : {
3007 : 1332972 : tree fn = builtin_decl_implicit (BUILT_IN_STRCMP);
3008 : 276 : if (!fn)
3009 : : return false;
3010 : 276 : gimple *repl = gimple_build_call (fn, 2, str1, str2);
3011 : 276 : replace_call_with_call_and_fold (gsi, repl);
3012 : 276 : return true;
3013 : : }
3014 : :
3015 : : return false;
3016 : : }
3017 : :
3018 : : /* Fold a call to the memchr pointed by GSI iterator. */
3019 : :
3020 : : static bool
3021 : 24125 : gimple_fold_builtin_memchr (gimple_stmt_iterator *gsi)
3022 : : {
3023 : 24125 : gimple *stmt = gsi_stmt (*gsi);
3024 : 24125 : tree lhs = gimple_call_lhs (stmt);
3025 : 24125 : tree arg1 = gimple_call_arg (stmt, 0);
3026 : 24125 : tree arg2 = gimple_call_arg (stmt, 1);
3027 : 24125 : tree len = gimple_call_arg (stmt, 2);
3028 : :
3029 : : /* If the LEN parameter is zero, return zero. */
3030 : 24125 : if (integer_zerop (len))
3031 : : {
3032 : 1 : replace_call_with_value (gsi, build_int_cst (ptr_type_node, 0));
3033 : 1 : return true;
3034 : : }
3035 : :
3036 : 24124 : char c;
3037 : 24124 : if (TREE_CODE (arg2) != INTEGER_CST
3038 : 13474 : || !tree_fits_uhwi_p (len)
3039 : 24859 : || !target_char_cst_p (arg2, &c))
3040 : 23389 : return false;
3041 : :
3042 : 735 : unsigned HOST_WIDE_INT length = tree_to_uhwi (len);
3043 : 735 : unsigned HOST_WIDE_INT string_length;
3044 : 735 : const char *p1 = getbyterep (arg1, &string_length);
3045 : :
3046 : 735 : if (p1)
3047 : : {
3048 : 100 : const char *r = (const char *)memchr (p1, c, MIN (length, string_length));
3049 : 100 : if (r == NULL)
3050 : : {
3051 : 17 : tree mem_size, offset_node;
3052 : 17 : byte_representation (arg1, &offset_node, &mem_size, NULL);
3053 : 34 : unsigned HOST_WIDE_INT offset = (offset_node == NULL_TREE)
3054 : 17 : ? 0 : tree_to_uhwi (offset_node);
3055 : : /* MEM_SIZE is the size of the array the string literal
3056 : : is stored in. */
3057 : 17 : unsigned HOST_WIDE_INT string_size = tree_to_uhwi (mem_size) - offset;
3058 : 17 : gcc_checking_assert (string_length <= string_size);
3059 : 17 : if (length <= string_size)
3060 : : {
3061 : 5 : replace_call_with_value (gsi, build_int_cst (ptr_type_node, 0));
3062 : 5 : return true;
3063 : : }
3064 : : }
3065 : : else
3066 : : {
3067 : 83 : unsigned HOST_WIDE_INT offset = r - p1;
3068 : 83 : gimple_seq stmts = NULL;
3069 : 83 : if (lhs != NULL_TREE)
3070 : : {
3071 : 81 : tree offset_cst = build_int_cst (sizetype, offset);
3072 : 81 : gassign *stmt = gimple_build_assign (lhs, POINTER_PLUS_EXPR,
3073 : : arg1, offset_cst);
3074 : 81 : gimple_seq_add_stmt_without_update (&stmts, stmt);
3075 : : }
3076 : : else
3077 : 2 : gimple_seq_add_stmt_without_update (&stmts,
3078 : : gimple_build_nop ());
3079 : :
3080 : 83 : gsi_replace_with_seq_vops (gsi, stmts);
3081 : 83 : return true;
3082 : : }
3083 : : }
3084 : :
3085 : : return false;
3086 : : }
3087 : :
3088 : : /* Fold a call to the fputs builtin. ARG0 and ARG1 are the arguments
3089 : : to the call. IGNORE is true if the value returned
3090 : : by the builtin will be ignored. UNLOCKED is true is true if this
3091 : : actually a call to fputs_unlocked. If LEN in non-NULL, it represents
3092 : : the known length of the string. Return NULL_TREE if no simplification
3093 : : was possible. */
3094 : :
3095 : : static bool
3096 : 21986 : gimple_fold_builtin_fputs (gimple_stmt_iterator *gsi,
3097 : : tree arg0, tree arg1,
3098 : : bool unlocked)
3099 : : {
3100 : 21986 : gimple *stmt = gsi_stmt (*gsi);
3101 : :
3102 : : /* If we're using an unlocked function, assume the other unlocked
3103 : : functions exist explicitly. */
3104 : 21986 : tree const fn_fputc = (unlocked
3105 : 21986 : ? builtin_decl_explicit (BUILT_IN_FPUTC_UNLOCKED)
3106 : 21986 : : builtin_decl_implicit (BUILT_IN_FPUTC));
3107 : 21942 : tree const fn_fwrite = (unlocked
3108 : 44 : ? builtin_decl_explicit (BUILT_IN_FWRITE_UNLOCKED)
3109 : 21986 : : builtin_decl_implicit (BUILT_IN_FWRITE));
3110 : :
3111 : : /* If the return value is used, don't do the transformation. */
3112 : 21986 : if (gimple_call_lhs (stmt))
3113 : : return false;
3114 : :
3115 : : /* Get the length of the string passed to fputs. If the length
3116 : : can't be determined, punt. */
3117 : 21906 : tree len = get_maxval_strlen (arg0, SRK_STRLEN);
3118 : 21906 : if (!len || TREE_CODE (len) != INTEGER_CST)
3119 : : return false;
3120 : :
3121 : 16924 : switch (compare_tree_int (len, 1))
3122 : : {
3123 : 91 : case -1: /* length is 0, delete the call entirely . */
3124 : 91 : replace_call_with_value (gsi, integer_zero_node);
3125 : 91 : return true;
3126 : :
3127 : 1045 : case 0: /* length is 1, call fputc. */
3128 : 1045 : {
3129 : 1045 : const char *p = c_getstr (arg0);
3130 : 1045 : if (p != NULL)
3131 : : {
3132 : 2060 : if (!fn_fputc || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3133 : : return false;
3134 : :
3135 : 1030 : gimple *repl
3136 : 1030 : = gimple_build_call (fn_fputc, 2,
3137 : 1030 : build_int_cst (integer_type_node, p[0]),
3138 : : arg1);
3139 : 1030 : replace_call_with_call_and_fold (gsi, repl);
3140 : 1030 : return true;
3141 : : }
3142 : : }
3143 : : /* FALLTHROUGH */
3144 : 15803 : case 1: /* length is greater than 1, call fwrite. */
3145 : 15803 : {
3146 : : /* If optimizing for size keep fputs. */
3147 : 15803 : if (optimize_function_for_size_p (cfun))
3148 : : return false;
3149 : : /* New argument list transforming fputs(string, stream) to
3150 : : fwrite(string, 1, len, stream). */
3151 : 29005 : if (!fn_fwrite || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3152 : : return false;
3153 : :
3154 : 8140 : gimple *repl
3155 : 8140 : = gimple_build_call (fn_fwrite, 4, arg0, size_one_node,
3156 : : fold_convert (size_type_node, len), arg1);
3157 : 8140 : replace_call_with_call_and_fold (gsi, repl);
3158 : 8140 : return true;
3159 : : }
3160 : 0 : default:
3161 : 0 : gcc_unreachable ();
3162 : : }
3163 : : }
3164 : :
3165 : : /* Fold a call to the __mem{cpy,pcpy,move,set}_chk builtin.
3166 : : DEST, SRC, LEN, and SIZE are the arguments to the call.
3167 : : IGNORE is true, if return value can be ignored. FCODE is the BUILT_IN_*
3168 : : code of the builtin. If MAXLEN is not NULL, it is maximum length
3169 : : passed as third argument. */
3170 : :
3171 : : static bool
3172 : 26052 : gimple_fold_builtin_memory_chk (gimple_stmt_iterator *gsi,
3173 : : tree dest, tree src, tree len, tree size,
3174 : : enum built_in_function fcode)
3175 : : {
3176 : 26052 : gimple *stmt = gsi_stmt (*gsi);
3177 : 26052 : location_t loc = gimple_location (stmt);
3178 : 26052 : bool ignore = gimple_call_lhs (stmt) == NULL_TREE;
3179 : 26052 : tree fn;
3180 : :
3181 : : /* If SRC and DEST are the same (and not volatile), return DEST
3182 : : (resp. DEST+LEN for __mempcpy_chk). */
3183 : 26052 : if (fcode != BUILT_IN_MEMSET_CHK && operand_equal_p (src, dest, 0))
3184 : : {
3185 : 13 : if (fcode != BUILT_IN_MEMPCPY_CHK)
3186 : : {
3187 : 7 : replace_call_with_value (gsi, dest);
3188 : 7 : return true;
3189 : : }
3190 : : else
3191 : : {
3192 : 6 : gimple_seq stmts = NULL;
3193 : 6 : len = gimple_convert_to_ptrofftype (&stmts, loc, len);
3194 : 6 : tree temp = gimple_build (&stmts, loc, POINTER_PLUS_EXPR,
3195 : 6 : TREE_TYPE (dest), dest, len);
3196 : 6 : gsi_insert_seq_before (gsi, stmts, GSI_SAME_STMT);
3197 : 6 : replace_call_with_value (gsi, temp);
3198 : 6 : return true;
3199 : : }
3200 : : }
3201 : :
3202 : 69565 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
3203 : : return false;
3204 : :
3205 : 26039 : tree maxlen = get_maxval_strlen (len, SRK_INT_VALUE);
3206 : 26039 : if (! integer_all_onesp (size)
3207 : 24975 : && !known_lower (stmt, len, size)
3208 : 43643 : && !known_lower (stmt, maxlen, size))
3209 : : {
3210 : : /* MAXLEN and LEN both cannot be proved to be less than SIZE, at
3211 : : least try to optimize (void) __mempcpy_chk () into
3212 : : (void) __memcpy_chk () */
3213 : 17527 : if (fcode == BUILT_IN_MEMPCPY_CHK && ignore)
3214 : : {
3215 : 40 : fn = builtin_decl_explicit (BUILT_IN_MEMCPY_CHK);
3216 : 40 : if (!fn)
3217 : : return false;
3218 : :
3219 : 40 : gimple *repl = gimple_build_call (fn, 4, dest, src, len, size);
3220 : 40 : replace_call_with_call_and_fold (gsi, repl);
3221 : 40 : return true;
3222 : : }
3223 : : return false;
3224 : : }
3225 : :
3226 : 8512 : fn = NULL_TREE;
3227 : : /* If __builtin_mem{cpy,pcpy,move,set}_chk is used, assume
3228 : : mem{cpy,pcpy,move,set} is available. */
3229 : 8512 : switch (fcode)
3230 : : {
3231 : 1764 : case BUILT_IN_MEMCPY_CHK:
3232 : 1764 : fn = builtin_decl_explicit (BUILT_IN_MEMCPY);
3233 : 1764 : break;
3234 : 1071 : case BUILT_IN_MEMPCPY_CHK:
3235 : 1071 : fn = builtin_decl_explicit (BUILT_IN_MEMPCPY);
3236 : 1071 : break;
3237 : 1657 : case BUILT_IN_MEMMOVE_CHK:
3238 : 1657 : fn = builtin_decl_explicit (BUILT_IN_MEMMOVE);
3239 : 1657 : break;
3240 : 4020 : case BUILT_IN_MEMSET_CHK:
3241 : 4020 : fn = builtin_decl_explicit (BUILT_IN_MEMSET);
3242 : 4020 : break;
3243 : : default:
3244 : : break;
3245 : : }
3246 : :
3247 : 8512 : if (!fn)
3248 : : return false;
3249 : :
3250 : 8512 : gimple *repl = gimple_build_call (fn, 3, dest, src, len);
3251 : 8512 : replace_call_with_call_and_fold (gsi, repl);
3252 : 8512 : return true;
3253 : : }
3254 : :
3255 : : /* Fold a call to the __st[rp]cpy_chk builtin.
3256 : : DEST, SRC, and SIZE are the arguments to the call.
3257 : : IGNORE is true if return value can be ignored. FCODE is the BUILT_IN_*
3258 : : code of the builtin. If MAXLEN is not NULL, it is maximum length of
3259 : : strings passed as second argument. */
3260 : :
3261 : : static bool
3262 : 2803 : gimple_fold_builtin_stxcpy_chk (gimple_stmt_iterator *gsi,
3263 : : tree dest,
3264 : : tree src, tree size,
3265 : : enum built_in_function fcode)
3266 : : {
3267 : 2803 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3268 : 2803 : location_t loc = gimple_location (stmt);
3269 : 2803 : bool ignore = gimple_call_lhs (stmt) == NULL_TREE;
3270 : 2803 : tree len, fn;
3271 : :
3272 : : /* If SRC and DEST are the same (and not volatile), return DEST. */
3273 : 2803 : if (fcode == BUILT_IN_STRCPY_CHK && operand_equal_p (src, dest, 0))
3274 : : {
3275 : : /* Issue -Wrestrict unless the pointers are null (those do
3276 : : not point to objects and so do not indicate an overlap;
3277 : : such calls could be the result of sanitization and jump
3278 : : threading). */
3279 : 0 : if (!integer_zerop (dest)
3280 : 0 : && !warning_suppressed_p (stmt, OPT_Wrestrict))
3281 : : {
3282 : 0 : tree func = gimple_call_fndecl (stmt);
3283 : :
3284 : 0 : warning_at (loc, OPT_Wrestrict,
3285 : : "%qD source argument is the same as destination",
3286 : : func);
3287 : : }
3288 : :
3289 : 0 : replace_call_with_value (gsi, dest);
3290 : 0 : return true;
3291 : : }
3292 : :
3293 : 5606 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
3294 : : return false;
3295 : :
3296 : 2803 : tree maxlen = get_maxval_strlen (src, SRK_STRLENMAX);
3297 : 2803 : if (! integer_all_onesp (size))
3298 : : {
3299 : 2734 : len = c_strlen (src, 1);
3300 : 2734 : if (!known_lower (stmt, len, size, true)
3301 : 2734 : && !known_lower (stmt, maxlen, size, true))
3302 : : {
3303 : 2398 : if (fcode == BUILT_IN_STPCPY_CHK)
3304 : : {
3305 : 1199 : if (! ignore)
3306 : : return false;
3307 : :
3308 : : /* If return value of __stpcpy_chk is ignored,
3309 : : optimize into __strcpy_chk. */
3310 : 37 : fn = builtin_decl_explicit (BUILT_IN_STRCPY_CHK);
3311 : 37 : if (!fn)
3312 : : return false;
3313 : :
3314 : 37 : gimple *repl = gimple_build_call (fn, 3, dest, src, size);
3315 : 37 : replace_call_with_call_and_fold (gsi, repl);
3316 : 37 : return true;
3317 : : }
3318 : :
3319 : 1199 : if (! len || TREE_SIDE_EFFECTS (len))
3320 : : return false;
3321 : :
3322 : : /* If c_strlen returned something, but not provably less than size,
3323 : : transform __strcpy_chk into __memcpy_chk. */
3324 : 106 : fn = builtin_decl_explicit (BUILT_IN_MEMCPY_CHK);
3325 : 106 : if (!fn)
3326 : : return false;
3327 : :
3328 : 106 : gimple_seq stmts = NULL;
3329 : 106 : len = force_gimple_operand (len, &stmts, true, NULL_TREE);
3330 : 106 : len = gimple_convert (&stmts, loc, size_type_node, len);
3331 : 106 : len = gimple_build (&stmts, loc, PLUS_EXPR, size_type_node, len,
3332 : 106 : build_int_cst (size_type_node, 1));
3333 : 106 : gsi_insert_seq_before (gsi, stmts, GSI_SAME_STMT);
3334 : 106 : gimple *repl = gimple_build_call (fn, 4, dest, src, len, size);
3335 : 106 : replace_call_with_call_and_fold (gsi, repl);
3336 : 106 : return true;
3337 : : }
3338 : : }
3339 : :
3340 : : /* If __builtin_st{r,p}cpy_chk is used, assume st{r,p}cpy is available. */
3341 : 662 : fn = builtin_decl_explicit (fcode == BUILT_IN_STPCPY_CHK && !ignore
3342 : : ? BUILT_IN_STPCPY : BUILT_IN_STRCPY);
3343 : 405 : if (!fn)
3344 : : return false;
3345 : :
3346 : 405 : gcall *repl = gimple_build_call (fn, 2, dest, src);
3347 : 405 : replace_call_with_call_and_fold (gsi, repl);
3348 : 405 : return true;
3349 : : }
3350 : :
3351 : : /* Fold a call to the __st{r,p}ncpy_chk builtin. DEST, SRC, LEN, and SIZE
3352 : : are the arguments to the call. If MAXLEN is not NULL, it is maximum
3353 : : length passed as third argument. IGNORE is true if return value can be
3354 : : ignored. FCODE is the BUILT_IN_* code of the builtin. */
3355 : :
3356 : : static bool
3357 : 3047 : gimple_fold_builtin_stxncpy_chk (gimple_stmt_iterator *gsi,
3358 : : tree dest, tree src,
3359 : : tree len, tree size,
3360 : : enum built_in_function fcode)
3361 : : {
3362 : 3047 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3363 : 3047 : bool ignore = gimple_call_lhs (stmt) == NULL_TREE;
3364 : 3047 : tree fn;
3365 : :
3366 : 3047 : tree maxlen = get_maxval_strlen (len, SRK_INT_VALUE);
3367 : 3047 : if (! integer_all_onesp (size)
3368 : 3047 : && !known_lower (stmt, len, size) && !known_lower (stmt, maxlen, size))
3369 : : {
3370 : 2590 : if (fcode == BUILT_IN_STPNCPY_CHK && ignore)
3371 : : {
3372 : : /* If return value of __stpncpy_chk is ignored,
3373 : : optimize into __strncpy_chk. */
3374 : 208 : fn = builtin_decl_explicit (BUILT_IN_STRNCPY_CHK);
3375 : 208 : if (fn)
3376 : : {
3377 : 208 : gimple *repl = gimple_build_call (fn, 4, dest, src, len, size);
3378 : 208 : replace_call_with_call_and_fold (gsi, repl);
3379 : 208 : return true;
3380 : : }
3381 : : }
3382 : : return false;
3383 : : }
3384 : :
3385 : : /* If __builtin_st{r,p}ncpy_chk is used, assume st{r,p}ncpy is available. */
3386 : 804 : fn = builtin_decl_explicit (fcode == BUILT_IN_STPNCPY_CHK && !ignore
3387 : : ? BUILT_IN_STPNCPY : BUILT_IN_STRNCPY);
3388 : 3296 : if (!fn || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3389 : : return false;
3390 : :
3391 : 457 : gcall *repl = gimple_build_call (fn, 3, dest, src, len);
3392 : 457 : replace_call_with_call_and_fold (gsi, repl);
3393 : 457 : return true;
3394 : : }
3395 : :
3396 : : /* Fold function call to builtin stpcpy with arguments DEST and SRC.
3397 : : Return NULL_TREE if no simplification can be made. */
3398 : :
3399 : : static bool
3400 : 4348 : gimple_fold_builtin_stpcpy (gimple_stmt_iterator *gsi)
3401 : : {
3402 : 4348 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3403 : 4348 : location_t loc = gimple_location (stmt);
3404 : 4348 : tree dest = gimple_call_arg (stmt, 0);
3405 : 4348 : tree src = gimple_call_arg (stmt, 1);
3406 : 4348 : tree fn, lenp1;
3407 : :
3408 : 8696 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
3409 : : return false;
3410 : :
3411 : : /* If the result is unused, replace stpcpy with strcpy. */
3412 : 4348 : if (gimple_call_lhs (stmt) == NULL_TREE)
3413 : : {
3414 : 30 : tree fn = builtin_decl_implicit (BUILT_IN_STRCPY);
3415 : 30 : if (!fn)
3416 : : return false;
3417 : 30 : gimple_call_set_fndecl (stmt, fn);
3418 : 30 : fold_stmt (gsi);
3419 : 30 : return true;
3420 : : }
3421 : :
3422 : : /* Set to non-null if ARG refers to an unterminated array. */
3423 : 4318 : c_strlen_data data = { };
3424 : : /* The size of the unterminated array if SRC referes to one. */
3425 : 4318 : tree size;
3426 : : /* True if the size is exact/constant, false if it's the lower bound
3427 : : of a range. */
3428 : 4318 : bool exact;
3429 : 4318 : tree len = c_strlen (src, 1, &data, 1);
3430 : 4318 : if (!len
3431 : 757 : || TREE_CODE (len) != INTEGER_CST)
3432 : : {
3433 : 3821 : data.decl = unterminated_array (src, &size, &exact);
3434 : 3821 : if (!data.decl)
3435 : : return false;
3436 : : }
3437 : :
3438 : 1172 : if (data.decl)
3439 : : {
3440 : : /* Avoid folding calls with unterminated arrays. */
3441 : 675 : if (!warning_suppressed_p (stmt, OPT_Wstringop_overread))
3442 : 75 : warn_string_no_nul (loc, stmt, "stpcpy", src, data.decl, size,
3443 : : exact);
3444 : 675 : suppress_warning (stmt, OPT_Wstringop_overread);
3445 : 675 : return false;
3446 : : }
3447 : :
3448 : 497 : if (optimize_function_for_size_p (cfun)
3449 : : /* If length is zero it's small enough. */
3450 : 497 : && !integer_zerop (len))
3451 : : return false;
3452 : :
3453 : : /* If the source has a known length replace stpcpy with memcpy. */
3454 : 4318 : fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
3455 : 290 : if (!fn)
3456 : : return false;
3457 : :
3458 : 290 : gimple_seq stmts = NULL;
3459 : 290 : tree tem = gimple_convert (&stmts, loc, size_type_node, len);
3460 : 290 : lenp1 = gimple_build (&stmts, loc, PLUS_EXPR, size_type_node,
3461 : 290 : tem, build_int_cst (size_type_node, 1));
3462 : 290 : gsi_insert_seq_before (gsi, stmts, GSI_SAME_STMT);
3463 : 290 : gcall *repl = gimple_build_call (fn, 3, dest, src, lenp1);
3464 : 290 : gimple_move_vops (repl, stmt);
3465 : 290 : gsi_insert_before (gsi, repl, GSI_SAME_STMT);
3466 : : /* Replace the result with dest + len. */
3467 : 290 : stmts = NULL;
3468 : 290 : tem = gimple_convert (&stmts, loc, sizetype, len);
3469 : 290 : gsi_insert_seq_before (gsi, stmts, GSI_SAME_STMT);
3470 : 290 : gassign *ret = gimple_build_assign (gimple_call_lhs (stmt),
3471 : : POINTER_PLUS_EXPR, dest, tem);
3472 : 290 : gsi_replace (gsi, ret, false);
3473 : : /* Finally fold the memcpy call. */
3474 : 290 : gimple_stmt_iterator gsi2 = *gsi;
3475 : 290 : gsi_prev (&gsi2);
3476 : 290 : fold_stmt (&gsi2);
3477 : 290 : return true;
3478 : : }
3479 : :
3480 : : /* Fold a call EXP to {,v}snprintf having NARGS passed as ARGS. Return
3481 : : NULL_TREE if a normal call should be emitted rather than expanding
3482 : : the function inline. FCODE is either BUILT_IN_SNPRINTF_CHK or
3483 : : BUILT_IN_VSNPRINTF_CHK. If MAXLEN is not NULL, it is maximum length
3484 : : passed as second argument. */
3485 : :
3486 : : static bool
3487 : 2917 : gimple_fold_builtin_snprintf_chk (gimple_stmt_iterator *gsi,
3488 : : enum built_in_function fcode)
3489 : : {
3490 : 2917 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3491 : 2917 : tree dest, size, len, fn, fmt, flag;
3492 : 2917 : const char *fmt_str;
3493 : :
3494 : : /* Verify the required arguments in the original call. */
3495 : 2917 : if (gimple_call_num_args (stmt) < 5)
3496 : : return false;
3497 : :
3498 : 2917 : dest = gimple_call_arg (stmt, 0);
3499 : 2917 : len = gimple_call_arg (stmt, 1);
3500 : 2917 : flag = gimple_call_arg (stmt, 2);
3501 : 2917 : size = gimple_call_arg (stmt, 3);
3502 : 2917 : fmt = gimple_call_arg (stmt, 4);
3503 : :
3504 : 2917 : tree maxlen = get_maxval_strlen (len, SRK_INT_VALUE);
3505 : 2917 : if (! integer_all_onesp (size)
3506 : 2917 : && !known_lower (stmt, len, size) && !known_lower (stmt, maxlen, size))
3507 : : return false;
3508 : :
3509 : 314 : if (!init_target_chars ())
3510 : : return false;
3511 : :
3512 : : /* Only convert __{,v}snprintf_chk to {,v}snprintf if flag is 0
3513 : : or if format doesn't contain % chars or is "%s". */
3514 : 314 : if (! integer_zerop (flag))
3515 : : {
3516 : 58 : fmt_str = c_getstr (fmt);
3517 : 58 : if (fmt_str == NULL)
3518 : : return false;
3519 : 58 : if (strchr (fmt_str, target_percent) != NULL
3520 : 57 : && strcmp (fmt_str, target_percent_s))
3521 : : return false;
3522 : : }
3523 : :
3524 : : /* If __builtin_{,v}snprintf_chk is used, assume {,v}snprintf is
3525 : : available. */
3526 : 415 : fn = builtin_decl_explicit (fcode == BUILT_IN_VSNPRINTF_CHK
3527 : : ? BUILT_IN_VSNPRINTF : BUILT_IN_SNPRINTF);
3528 : 3176 : if (!fn || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3529 : : return false;
3530 : :
3531 : : /* Replace the called function and the first 5 argument by 3 retaining
3532 : : trailing varargs. */
3533 : 259 : gimple_call_set_fndecl (stmt, fn);
3534 : 259 : gimple_call_set_fntype (stmt, TREE_TYPE (fn));
3535 : 259 : gimple_call_set_arg (stmt, 0, dest);
3536 : 259 : gimple_call_set_arg (stmt, 1, len);
3537 : 259 : gimple_call_set_arg (stmt, 2, fmt);
3538 : 546 : for (unsigned i = 3; i < gimple_call_num_args (stmt) - 2; ++i)
3539 : 287 : gimple_call_set_arg (stmt, i, gimple_call_arg (stmt, i + 2));
3540 : 259 : gimple_set_num_ops (stmt, gimple_num_ops (stmt) - 2);
3541 : 259 : fold_stmt (gsi);
3542 : 259 : return true;
3543 : : }
3544 : :
3545 : : /* Fold a call EXP to __{,v}sprintf_chk having NARGS passed as ARGS.
3546 : : Return NULL_TREE if a normal call should be emitted rather than
3547 : : expanding the function inline. FCODE is either BUILT_IN_SPRINTF_CHK
3548 : : or BUILT_IN_VSPRINTF_CHK. */
3549 : :
3550 : : static bool
3551 : 5105 : gimple_fold_builtin_sprintf_chk (gimple_stmt_iterator *gsi,
3552 : : enum built_in_function fcode)
3553 : : {
3554 : 5105 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3555 : 5105 : tree dest, size, len, fn, fmt, flag;
3556 : 5105 : const char *fmt_str;
3557 : 5105 : unsigned nargs = gimple_call_num_args (stmt);
3558 : :
3559 : : /* Verify the required arguments in the original call. */
3560 : 5105 : if (nargs < 4)
3561 : : return false;
3562 : 5105 : dest = gimple_call_arg (stmt, 0);
3563 : 5105 : flag = gimple_call_arg (stmt, 1);
3564 : 5105 : size = gimple_call_arg (stmt, 2);
3565 : 5105 : fmt = gimple_call_arg (stmt, 3);
3566 : :
3567 : 5105 : len = NULL_TREE;
3568 : :
3569 : 5105 : if (!init_target_chars ())
3570 : : return false;
3571 : :
3572 : : /* Check whether the format is a literal string constant. */
3573 : 5105 : fmt_str = c_getstr (fmt);
3574 : 5105 : if (fmt_str != NULL)
3575 : : {
3576 : : /* If the format doesn't contain % args or %%, we know the size. */
3577 : 4681 : if (strchr (fmt_str, target_percent) == 0)
3578 : : {
3579 : 322 : if (fcode != BUILT_IN_SPRINTF_CHK || nargs == 4)
3580 : 322 : len = build_int_cstu (size_type_node, strlen (fmt_str));
3581 : : }
3582 : : /* If the format is "%s" and first ... argument is a string literal,
3583 : : we know the size too. */
3584 : 4359 : else if (fcode == BUILT_IN_SPRINTF_CHK
3585 : 3400 : && strcmp (fmt_str, target_percent_s) == 0)
3586 : : {
3587 : 490 : tree arg;
3588 : :
3589 : 490 : if (nargs == 5)
3590 : : {
3591 : 490 : arg = gimple_call_arg (stmt, 4);
3592 : 490 : if (POINTER_TYPE_P (TREE_TYPE (arg)))
3593 : 454 : len = c_strlen (arg, 1);
3594 : : }
3595 : : }
3596 : : }
3597 : :
3598 : 5105 : if (! integer_all_onesp (size) && !known_lower (stmt, len, size, true))
3599 : : return false;
3600 : :
3601 : : /* Only convert __{,v}sprintf_chk to {,v}sprintf if flag is 0
3602 : : or if format doesn't contain % chars or is "%s". */
3603 : 202 : if (! integer_zerop (flag))
3604 : : {
3605 : 1 : if (fmt_str == NULL)
3606 : : return false;
3607 : 1 : if (strchr (fmt_str, target_percent) != NULL
3608 : 0 : && strcmp (fmt_str, target_percent_s))
3609 : : return false;
3610 : : }
3611 : :
3612 : : /* If __builtin_{,v}sprintf_chk is used, assume {,v}sprintf is available. */
3613 : 347 : fn = builtin_decl_explicit (fcode == BUILT_IN_VSPRINTF_CHK
3614 : : ? BUILT_IN_VSPRINTF : BUILT_IN_SPRINTF);
3615 : 5307 : if (!fn || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3616 : : return false;
3617 : :
3618 : : /* Replace the called function and the first 4 argument by 2 retaining
3619 : : trailing varargs. */
3620 : 202 : gimple_call_set_fndecl (stmt, fn);
3621 : 202 : gimple_call_set_fntype (stmt, TREE_TYPE (fn));
3622 : 202 : gimple_call_set_arg (stmt, 0, dest);
3623 : 202 : gimple_call_set_arg (stmt, 1, fmt);
3624 : 400 : for (unsigned i = 2; i < gimple_call_num_args (stmt) - 2; ++i)
3625 : 198 : gimple_call_set_arg (stmt, i, gimple_call_arg (stmt, i + 2));
3626 : 202 : gimple_set_num_ops (stmt, gimple_num_ops (stmt) - 2);
3627 : 202 : fold_stmt (gsi);
3628 : 202 : return true;
3629 : : }
3630 : :
3631 : : /* Simplify a call to the sprintf builtin with arguments DEST, FMT, and ORIG.
3632 : : ORIG may be null if this is a 2-argument call. We don't attempt to
3633 : : simplify calls with more than 3 arguments.
3634 : :
3635 : : Return true if simplification was possible, otherwise false. */
3636 : :
3637 : : bool
3638 : 2233 : gimple_fold_builtin_sprintf (gimple_stmt_iterator *gsi)
3639 : : {
3640 : 2233 : gimple *stmt = gsi_stmt (*gsi);
3641 : :
3642 : : /* Verify the required arguments in the original call. We deal with two
3643 : : types of sprintf() calls: 'sprintf (str, fmt)' and
3644 : : 'sprintf (dest, "%s", orig)'. */
3645 : 2233 : if (gimple_call_num_args (stmt) > 3)
3646 : : return false;
3647 : :
3648 : 1841 : tree orig = NULL_TREE;
3649 : 1841 : if (gimple_call_num_args (stmt) == 3)
3650 : 1750 : orig = gimple_call_arg (stmt, 2);
3651 : :
3652 : : /* Check whether the format is a literal string constant. */
3653 : 1841 : tree fmt = gimple_call_arg (stmt, 1);
3654 : 1841 : const char *fmt_str = c_getstr (fmt);
3655 : 1841 : if (fmt_str == NULL)
3656 : : return false;
3657 : :
3658 : 1841 : tree dest = gimple_call_arg (stmt, 0);
3659 : :
3660 : 1841 : if (!init_target_chars ())
3661 : : return false;
3662 : :
3663 : 1841 : tree fn = builtin_decl_implicit (BUILT_IN_STRCPY);
3664 : 5066 : if (!fn || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3665 : : return false;
3666 : :
3667 : : /* If the format doesn't contain % args or %%, use strcpy. */
3668 : 1841 : if (strchr (fmt_str, target_percent) == NULL)
3669 : : {
3670 : : /* Don't optimize sprintf (buf, "abc", ptr++). */
3671 : 103 : if (orig)
3672 : : return false;
3673 : :
3674 : : /* Convert sprintf (str, fmt) into strcpy (str, fmt) when
3675 : : 'format' is known to contain no % formats. */
3676 : 90 : gimple_seq stmts = NULL;
3677 : 90 : gimple *repl = gimple_build_call (fn, 2, dest, fmt);
3678 : :
3679 : : /* Propagate the NO_WARNING bit to avoid issuing the same
3680 : : warning more than once. */
3681 : 90 : copy_warning (repl, stmt);
3682 : :
3683 : 90 : gimple_seq_add_stmt_without_update (&stmts, repl);
3684 : 90 : if (tree lhs = gimple_call_lhs (stmt))
3685 : : {
3686 : 0 : repl = gimple_build_assign (lhs, build_int_cst (TREE_TYPE (lhs),
3687 : 0 : strlen (fmt_str)));
3688 : 0 : gimple_seq_add_stmt_without_update (&stmts, repl);
3689 : 0 : gsi_replace_with_seq_vops (gsi, stmts);
3690 : : /* gsi now points at the assignment to the lhs, get a
3691 : : stmt iterator to the memcpy call.
3692 : : ??? We can't use gsi_for_stmt as that doesn't work when the
3693 : : CFG isn't built yet. */
3694 : 0 : gimple_stmt_iterator gsi2 = *gsi;
3695 : 0 : gsi_prev (&gsi2);
3696 : 0 : fold_stmt (&gsi2);
3697 : : }
3698 : : else
3699 : : {
3700 : 90 : gsi_replace_with_seq_vops (gsi, stmts);
3701 : 90 : fold_stmt (gsi);
3702 : : }
3703 : 90 : return true;
3704 : : }
3705 : :
3706 : : /* If the format is "%s", use strcpy if the result isn't used. */
3707 : 1738 : else if (fmt_str && strcmp (fmt_str, target_percent_s) == 0)
3708 : : {
3709 : : /* Don't crash on sprintf (str1, "%s"). */
3710 : 746 : if (!orig)
3711 : : return false;
3712 : :
3713 : : /* Don't fold calls with source arguments of invalid (nonpointer)
3714 : : types. */
3715 : 745 : if (!POINTER_TYPE_P (TREE_TYPE (orig)))
3716 : : return false;
3717 : :
3718 : 739 : tree orig_len = NULL_TREE;
3719 : 739 : if (gimple_call_lhs (stmt))
3720 : : {
3721 : 17 : orig_len = get_maxval_strlen (orig, SRK_STRLEN);
3722 : 17 : if (!orig_len)
3723 : : return false;
3724 : : }
3725 : :
3726 : : /* Convert sprintf (str1, "%s", str2) into strcpy (str1, str2). */
3727 : 722 : gimple_seq stmts = NULL;
3728 : 722 : gimple *repl = gimple_build_call (fn, 2, dest, orig);
3729 : :
3730 : : /* Propagate the NO_WARNING bit to avoid issuing the same
3731 : : warning more than once. */
3732 : 722 : copy_warning (repl, stmt);
3733 : :
3734 : 722 : gimple_seq_add_stmt_without_update (&stmts, repl);
3735 : 722 : if (tree lhs = gimple_call_lhs (stmt))
3736 : : {
3737 : 0 : if (!useless_type_conversion_p (TREE_TYPE (lhs),
3738 : 0 : TREE_TYPE (orig_len)))
3739 : 0 : orig_len = fold_convert (TREE_TYPE (lhs), orig_len);
3740 : 0 : repl = gimple_build_assign (lhs, orig_len);
3741 : 0 : gimple_seq_add_stmt_without_update (&stmts, repl);
3742 : 0 : gsi_replace_with_seq_vops (gsi, stmts);
3743 : : /* gsi now points at the assignment to the lhs, get a
3744 : : stmt iterator to the memcpy call.
3745 : : ??? We can't use gsi_for_stmt as that doesn't work when the
3746 : : CFG isn't built yet. */
3747 : 0 : gimple_stmt_iterator gsi2 = *gsi;
3748 : 0 : gsi_prev (&gsi2);
3749 : 0 : fold_stmt (&gsi2);
3750 : : }
3751 : : else
3752 : : {
3753 : 722 : gsi_replace_with_seq_vops (gsi, stmts);
3754 : 722 : fold_stmt (gsi);
3755 : : }
3756 : 722 : return true;
3757 : : }
3758 : : return false;
3759 : : }
3760 : :
3761 : : /* Simplify a call to the snprintf builtin with arguments DEST, DESTSIZE,
3762 : : FMT, and ORIG. ORIG may be null if this is a 3-argument call. We don't
3763 : : attempt to simplify calls with more than 4 arguments.
3764 : :
3765 : : Return true if simplification was possible, otherwise false. */
3766 : :
3767 : : bool
3768 : 1578 : gimple_fold_builtin_snprintf (gimple_stmt_iterator *gsi)
3769 : : {
3770 : 1578 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3771 : 1578 : tree dest = gimple_call_arg (stmt, 0);
3772 : 1578 : tree destsize = gimple_call_arg (stmt, 1);
3773 : 1578 : tree fmt = gimple_call_arg (stmt, 2);
3774 : 1578 : tree orig = NULL_TREE;
3775 : 1578 : const char *fmt_str = NULL;
3776 : :
3777 : 1578 : if (gimple_call_num_args (stmt) > 4
3778 : 2702 : || (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun)))
3779 : : return false;
3780 : :
3781 : 705 : if (gimple_call_num_args (stmt) == 4)
3782 : 586 : orig = gimple_call_arg (stmt, 3);
3783 : :
3784 : : /* Check whether the format is a literal string constant. */
3785 : 705 : fmt_str = c_getstr (fmt);
3786 : 705 : if (fmt_str == NULL)
3787 : : return false;
3788 : :
3789 : 705 : if (!init_target_chars ())
3790 : : return false;
3791 : :
3792 : : /* If the format doesn't contain % args or %%, use strcpy. */
3793 : 705 : if (strchr (fmt_str, target_percent) == NULL)
3794 : : {
3795 : 148 : tree fn = builtin_decl_implicit (BUILT_IN_STRCPY);
3796 : 118 : if (!fn)
3797 : : return false;
3798 : :
3799 : : /* Don't optimize snprintf (buf, 4, "abc", ptr++). */
3800 : 118 : if (orig)
3801 : : return false;
3802 : :
3803 : 118 : tree len = build_int_cstu (TREE_TYPE (destsize), strlen (fmt_str));
3804 : :
3805 : : /* We could expand this as
3806 : : memcpy (str, fmt, cst - 1); str[cst - 1] = '\0';
3807 : : or to
3808 : : memcpy (str, fmt_with_nul_at_cstm1, cst);
3809 : : but in the former case that might increase code size
3810 : : and in the latter case grow .rodata section too much.
3811 : : So punt for now. */
3812 : 118 : if (!known_lower (stmt, len, destsize, true))
3813 : : return false;
3814 : :
3815 : 88 : gimple_seq stmts = NULL;
3816 : 88 : gimple *repl = gimple_build_call (fn, 2, dest, fmt);
3817 : 88 : gimple_seq_add_stmt_without_update (&stmts, repl);
3818 : 88 : if (tree lhs = gimple_call_lhs (stmt))
3819 : : {
3820 : 0 : repl = gimple_build_assign (lhs,
3821 : 0 : fold_convert (TREE_TYPE (lhs), len));
3822 : 0 : gimple_seq_add_stmt_without_update (&stmts, repl);
3823 : 0 : gsi_replace_with_seq_vops (gsi, stmts);
3824 : : /* gsi now points at the assignment to the lhs, get a
3825 : : stmt iterator to the memcpy call.
3826 : : ??? We can't use gsi_for_stmt as that doesn't work when the
3827 : : CFG isn't built yet. */
3828 : 0 : gimple_stmt_iterator gsi2 = *gsi;
3829 : 0 : gsi_prev (&gsi2);
3830 : 0 : fold_stmt (&gsi2);
3831 : : }
3832 : : else
3833 : : {
3834 : 88 : gsi_replace_with_seq_vops (gsi, stmts);
3835 : 88 : fold_stmt (gsi);
3836 : : }
3837 : 88 : return true;
3838 : : }
3839 : :
3840 : : /* If the format is "%s", use strcpy if the result isn't used. */
3841 : 587 : else if (fmt_str && strcmp (fmt_str, target_percent_s) == 0)
3842 : : {
3843 : 292 : tree fn = builtin_decl_implicit (BUILT_IN_STRCPY);
3844 : 174 : if (!fn)
3845 : : return false;
3846 : :
3847 : : /* Don't crash on snprintf (str1, cst, "%s"). */
3848 : 174 : if (!orig)
3849 : : return false;
3850 : :
3851 : 174 : tree orig_len = get_maxval_strlen (orig, SRK_STRLEN);
3852 : :
3853 : : /* We could expand this as
3854 : : memcpy (str1, str2, cst - 1); str1[cst - 1] = '\0';
3855 : : or to
3856 : : memcpy (str1, str2_with_nul_at_cstm1, cst);
3857 : : but in the former case that might increase code size
3858 : : and in the latter case grow .rodata section too much.
3859 : : So punt for now. */
3860 : 174 : if (!known_lower (stmt, orig_len, destsize, true))
3861 : : return false;
3862 : :
3863 : : /* Convert snprintf (str1, cst, "%s", str2) into
3864 : : strcpy (str1, str2) if strlen (str2) < cst. */
3865 : 56 : gimple_seq stmts = NULL;
3866 : 56 : gimple *repl = gimple_build_call (fn, 2, dest, orig);
3867 : 56 : gimple_seq_add_stmt_without_update (&stmts, repl);
3868 : 56 : if (tree lhs = gimple_call_lhs (stmt))
3869 : : {
3870 : 0 : if (!useless_type_conversion_p (TREE_TYPE (lhs),
3871 : 0 : TREE_TYPE (orig_len)))
3872 : 0 : orig_len = fold_convert (TREE_TYPE (lhs), orig_len);
3873 : 0 : repl = gimple_build_assign (lhs, orig_len);
3874 : 0 : gimple_seq_add_stmt_without_update (&stmts, repl);
3875 : 0 : gsi_replace_with_seq_vops (gsi, stmts);
3876 : : /* gsi now points at the assignment to the lhs, get a
3877 : : stmt iterator to the memcpy call.
3878 : : ??? We can't use gsi_for_stmt as that doesn't work when the
3879 : : CFG isn't built yet. */
3880 : 0 : gimple_stmt_iterator gsi2 = *gsi;
3881 : 0 : gsi_prev (&gsi2);
3882 : 0 : fold_stmt (&gsi2);
3883 : : }
3884 : : else
3885 : : {
3886 : 56 : gsi_replace_with_seq_vops (gsi, stmts);
3887 : 56 : fold_stmt (gsi);
3888 : : }
3889 : 56 : return true;
3890 : : }
3891 : : return false;
3892 : : }
3893 : :
3894 : : /* Fold a call to the {,v}fprintf{,_unlocked} and __{,v}printf_chk builtins.
3895 : : FP, FMT, and ARG are the arguments to the call. We don't fold calls with
3896 : : more than 3 arguments, and ARG may be null in the 2-argument case.
3897 : :
3898 : : Return NULL_TREE if no simplification was possible, otherwise return the
3899 : : simplified form of the call as a tree. FCODE is the BUILT_IN_*
3900 : : code of the function to be simplified. */
3901 : :
3902 : : static bool
3903 : 59351 : gimple_fold_builtin_fprintf (gimple_stmt_iterator *gsi,
3904 : : tree fp, tree fmt, tree arg,
3905 : : enum built_in_function fcode)
3906 : : {
3907 : 59351 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
3908 : 59351 : tree fn_fputc, fn_fputs;
3909 : 59351 : const char *fmt_str = NULL;
3910 : :
3911 : : /* If the return value is used, don't do the transformation. */
3912 : 59351 : if (gimple_call_lhs (stmt) != NULL_TREE)
3913 : : return false;
3914 : :
3915 : : /* Check whether the format is a literal string constant. */
3916 : 54671 : fmt_str = c_getstr (fmt);
3917 : 54671 : if (fmt_str == NULL)
3918 : : return false;
3919 : :
3920 : 54419 : if (fcode == BUILT_IN_FPRINTF_UNLOCKED)
3921 : : {
3922 : : /* If we're using an unlocked function, assume the other
3923 : : unlocked functions exist explicitly. */
3924 : 86 : fn_fputc = builtin_decl_explicit (BUILT_IN_FPUTC_UNLOCKED);
3925 : 86 : fn_fputs = builtin_decl_explicit (BUILT_IN_FPUTS_UNLOCKED);
3926 : : }
3927 : : else
3928 : : {
3929 : 54333 : fn_fputc = builtin_decl_implicit (BUILT_IN_FPUTC);
3930 : 54333 : fn_fputs = builtin_decl_implicit (BUILT_IN_FPUTS);
3931 : : }
3932 : :
3933 : 54419 : if (!init_target_chars ())
3934 : : return false;
3935 : :
3936 : 157976 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
3937 : : return false;
3938 : :
3939 : : /* If the format doesn't contain % args or %%, use strcpy. */
3940 : 54419 : if (strchr (fmt_str, target_percent) == NULL)
3941 : : {
3942 : 9525 : if (fcode != BUILT_IN_VFPRINTF && fcode != BUILT_IN_VFPRINTF_CHK
3943 : 9455 : && arg)
3944 : : return false;
3945 : :
3946 : : /* If the format specifier was "", fprintf does nothing. */
3947 : 9525 : if (fmt_str[0] == '\0')
3948 : : {
3949 : 58 : replace_call_with_value (gsi, NULL_TREE);
3950 : 58 : return true;
3951 : : }
3952 : :
3953 : : /* When "string" doesn't contain %, replace all cases of
3954 : : fprintf (fp, string) with fputs (string, fp). The fputs
3955 : : builtin will take care of special cases like length == 1. */
3956 : 9467 : if (fn_fputs)
3957 : : {
3958 : 9467 : gcall *repl = gimple_build_call (fn_fputs, 2, fmt, fp);
3959 : 9467 : replace_call_with_call_and_fold (gsi, repl);
3960 : 9467 : return true;
3961 : : }
3962 : : }
3963 : :
3964 : : /* The other optimizations can be done only on the non-va_list variants. */
3965 : 44894 : else if (fcode == BUILT_IN_VFPRINTF || fcode == BUILT_IN_VFPRINTF_CHK)
3966 : : return false;
3967 : :
3968 : : /* If the format specifier was "%s", call __builtin_fputs (arg, fp). */
3969 : 43687 : else if (strcmp (fmt_str, target_percent_s) == 0)
3970 : : {
3971 : 639 : if (!arg || ! POINTER_TYPE_P (TREE_TYPE (arg)))
3972 : : return false;
3973 : 639 : if (fn_fputs)
3974 : : {
3975 : 639 : gcall *repl = gimple_build_call (fn_fputs, 2, arg, fp);
3976 : 639 : replace_call_with_call_and_fold (gsi, repl);
3977 : 639 : return true;
3978 : : }
3979 : : }
3980 : :
3981 : : /* If the format specifier was "%c", call __builtin_fputc (arg, fp). */
3982 : 43048 : else if (strcmp (fmt_str, target_percent_c) == 0)
3983 : : {
3984 : 49 : if (!arg
3985 : 49 : || ! useless_type_conversion_p (integer_type_node, TREE_TYPE (arg)))
3986 : 0 : return false;
3987 : 49 : if (fn_fputc)
3988 : : {
3989 : 49 : gcall *repl = gimple_build_call (fn_fputc, 2, arg, fp);
3990 : 49 : replace_call_with_call_and_fold (gsi, repl);
3991 : 49 : return true;
3992 : : }
3993 : : }
3994 : :
3995 : : return false;
3996 : : }
3997 : :
3998 : : /* Fold a call to the {,v}printf{,_unlocked} and __{,v}printf_chk builtins.
3999 : : FMT and ARG are the arguments to the call; we don't fold cases with
4000 : : more than 2 arguments, and ARG may be null if this is a 1-argument case.
4001 : :
4002 : : Return NULL_TREE if no simplification was possible, otherwise return the
4003 : : simplified form of the call as a tree. FCODE is the BUILT_IN_*
4004 : : code of the function to be simplified. */
4005 : :
4006 : : static bool
4007 : 115368 : gimple_fold_builtin_printf (gimple_stmt_iterator *gsi, tree fmt,
4008 : : tree arg, enum built_in_function fcode)
4009 : : {
4010 : 115368 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
4011 : 115368 : tree fn_putchar, fn_puts, newarg;
4012 : 115368 : const char *fmt_str = NULL;
4013 : :
4014 : : /* If the return value is used, don't do the transformation. */
4015 : 115368 : if (gimple_call_lhs (stmt) != NULL_TREE)
4016 : : return false;
4017 : :
4018 : 334351 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
4019 : : return false;
4020 : :
4021 : : /* Check whether the format is a literal string constant. */
4022 : 111935 : fmt_str = c_getstr (fmt);
4023 : 111935 : if (fmt_str == NULL)
4024 : : return false;
4025 : :
4026 : 108473 : if (fcode == BUILT_IN_PRINTF_UNLOCKED)
4027 : : {
4028 : : /* If we're using an unlocked function, assume the other
4029 : : unlocked functions exist explicitly. */
4030 : 86 : fn_putchar = builtin_decl_explicit (BUILT_IN_PUTCHAR_UNLOCKED);
4031 : 86 : fn_puts = builtin_decl_explicit (BUILT_IN_PUTS_UNLOCKED);
4032 : : }
4033 : : else
4034 : : {
4035 : 108387 : fn_putchar = builtin_decl_implicit (BUILT_IN_PUTCHAR);
4036 : 108387 : fn_puts = builtin_decl_implicit (BUILT_IN_PUTS);
4037 : : }
4038 : :
4039 : 108473 : if (!init_target_chars ())
4040 : : return false;
4041 : :
4042 : 108473 : if (strcmp (fmt_str, target_percent_s) == 0
4043 : 101392 : || strchr (fmt_str, target_percent) == NULL)
4044 : : {
4045 : 15034 : const char *str;
4046 : :
4047 : 15034 : if (strcmp (fmt_str, target_percent_s) == 0)
4048 : : {
4049 : 7081 : if (fcode == BUILT_IN_VPRINTF || fcode == BUILT_IN_VPRINTF_CHK)
4050 : : return false;
4051 : :
4052 : 6757 : if (!arg || ! POINTER_TYPE_P (TREE_TYPE (arg)))
4053 : : return false;
4054 : :
4055 : 6752 : str = c_getstr (arg);
4056 : 6752 : if (str == NULL)
4057 : : return false;
4058 : : }
4059 : : else
4060 : : {
4061 : : /* The format specifier doesn't contain any '%' characters. */
4062 : 7953 : if (fcode != BUILT_IN_VPRINTF && fcode != BUILT_IN_VPRINTF_CHK
4063 : 7811 : && arg)
4064 : : return false;
4065 : : str = fmt_str;
4066 : : }
4067 : :
4068 : : /* If the string was "", printf does nothing. */
4069 : 5745 : if (str[0] == '\0')
4070 : : {
4071 : 109 : replace_call_with_value (gsi, NULL_TREE);
4072 : 109 : return true;
4073 : : }
4074 : :
4075 : : /* If the string has length of 1, call putchar. */
4076 : 5636 : if (str[1] == '\0')
4077 : : {
4078 : : /* Given printf("c"), (where c is any one character,)
4079 : : convert "c"[0] to an int and pass that to the replacement
4080 : : function. */
4081 : 559 : newarg = build_int_cst (integer_type_node, str[0]);
4082 : 559 : if (fn_putchar)
4083 : : {
4084 : 559 : gcall *repl = gimple_build_call (fn_putchar, 1, newarg);
4085 : 559 : replace_call_with_call_and_fold (gsi, repl);
4086 : 559 : return true;
4087 : : }
4088 : : }
4089 : : else
4090 : : {
4091 : : /* If the string was "string\n", call puts("string"). */
4092 : 5077 : size_t len = strlen (str);
4093 : 5077 : if ((unsigned char)str[len - 1] == target_newline
4094 : 3995 : && (size_t) (int) len == len
4095 : 3995 : && (int) len > 0)
4096 : : {
4097 : 3995 : char *newstr;
4098 : :
4099 : : /* Create a NUL-terminated string that's one char shorter
4100 : : than the original, stripping off the trailing '\n'. */
4101 : 3995 : newstr = xstrdup (str);
4102 : 3995 : newstr[len - 1] = '\0';
4103 : 3995 : newarg = build_string_literal (len, newstr);
4104 : 3995 : free (newstr);
4105 : 3995 : if (fn_puts)
4106 : : {
4107 : 3995 : gcall *repl = gimple_build_call (fn_puts, 1, newarg);
4108 : 3995 : replace_call_with_call_and_fold (gsi, repl);
4109 : 3995 : return true;
4110 : : }
4111 : : }
4112 : : else
4113 : : /* We'd like to arrange to call fputs(string,stdout) here,
4114 : : but we need stdout and don't have a way to get it yet. */
4115 : : return false;
4116 : : }
4117 : : }
4118 : :
4119 : : /* The other optimizations can be done only on the non-va_list variants. */
4120 : 93439 : else if (fcode == BUILT_IN_VPRINTF || fcode == BUILT_IN_VPRINTF_CHK)
4121 : : return false;
4122 : :
4123 : : /* If the format specifier was "%s\n", call __builtin_puts(arg). */
4124 : 93161 : else if (strcmp (fmt_str, target_percent_s_newline) == 0)
4125 : : {
4126 : 177 : if (!arg || ! POINTER_TYPE_P (TREE_TYPE (arg)))
4127 : : return false;
4128 : 177 : if (fn_puts)
4129 : : {
4130 : 177 : gcall *repl = gimple_build_call (fn_puts, 1, arg);
4131 : 177 : replace_call_with_call_and_fold (gsi, repl);
4132 : 177 : return true;
4133 : : }
4134 : : }
4135 : :
4136 : : /* If the format specifier was "%c", call __builtin_putchar(arg). */
4137 : 92984 : else if (strcmp (fmt_str, target_percent_c) == 0)
4138 : : {
4139 : 94 : if (!arg || ! useless_type_conversion_p (integer_type_node,
4140 : 47 : TREE_TYPE (arg)))
4141 : 0 : return false;
4142 : 47 : if (fn_putchar)
4143 : : {
4144 : 47 : gcall *repl = gimple_build_call (fn_putchar, 1, arg);
4145 : 47 : replace_call_with_call_and_fold (gsi, repl);
4146 : 47 : return true;
4147 : : }
4148 : : }
4149 : :
4150 : : return false;
4151 : : }
4152 : :
4153 : :
4154 : :
4155 : : /* Fold a call to __builtin_strlen with known length LEN. */
4156 : :
4157 : : static bool
4158 : 150219 : gimple_fold_builtin_strlen (gimple_stmt_iterator *gsi)
4159 : : {
4160 : 150219 : gimple *stmt = gsi_stmt (*gsi);
4161 : 150219 : tree arg = gimple_call_arg (stmt, 0);
4162 : :
4163 : 150219 : wide_int minlen;
4164 : 150219 : wide_int maxlen;
4165 : :
4166 : 150219 : c_strlen_data lendata = { };
4167 : 150219 : if (get_range_strlen (arg, &lendata, /* eltsize = */ 1)
4168 : 37973 : && !lendata.decl
4169 : 34720 : && lendata.minlen && TREE_CODE (lendata.minlen) == INTEGER_CST
4170 : 184834 : && lendata.maxlen && TREE_CODE (lendata.maxlen) == INTEGER_CST)
4171 : : {
4172 : : /* The range of lengths refers to either a single constant
4173 : : string or to the longest and shortest constant string
4174 : : referenced by the argument of the strlen() call, or to
4175 : : the strings that can possibly be stored in the arrays
4176 : : the argument refers to. */
4177 : 34615 : minlen = wi::to_wide (lendata.minlen);
4178 : 34615 : maxlen = wi::to_wide (lendata.maxlen);
4179 : : }
4180 : : else
4181 : : {
4182 : 115604 : unsigned prec = TYPE_PRECISION (sizetype);
4183 : :
4184 : 115604 : minlen = wi::shwi (0, prec);
4185 : 115604 : maxlen = wi::to_wide (max_object_size (), prec) - 2;
4186 : : }
4187 : :
4188 : : /* For -fsanitize=address, don't optimize the upper bound of the
4189 : : length to be able to diagnose UB on non-zero terminated arrays. */
4190 : 150219 : if (sanitize_flags_p (SANITIZE_ADDRESS))
4191 : 287 : maxlen = wi::max_value (TYPE_PRECISION (sizetype), UNSIGNED);
4192 : :
4193 : 150219 : if (minlen == maxlen)
4194 : : {
4195 : : /* Fold the strlen call to a constant. */
4196 : 2762 : tree type = TREE_TYPE (lendata.minlen);
4197 : 5524 : tree len = force_gimple_operand_gsi (gsi,
4198 : 2762 : wide_int_to_tree (type, minlen),
4199 : : true, NULL, true, GSI_SAME_STMT);
4200 : 2762 : replace_call_with_value (gsi, len);
4201 : 2762 : return true;
4202 : : }
4203 : :
4204 : : /* Set the strlen() range to [0, MAXLEN]. */
4205 : 147457 : if (tree lhs = gimple_call_lhs (stmt))
4206 : 147452 : set_strlen_range (lhs, minlen, maxlen);
4207 : :
4208 : : return false;
4209 : 150219 : }
4210 : :
4211 : : static bool
4212 : 106 : gimple_fold_builtin_omp_is_initial_device (gimple_stmt_iterator *gsi)
4213 : : {
4214 : : #if ACCEL_COMPILER
4215 : : replace_call_with_value (gsi, integer_zero_node);
4216 : : return true;
4217 : : #else
4218 : 106 : if (!ENABLE_OFFLOADING || symtab->state == EXPANSION)
4219 : : {
4220 : 0 : replace_call_with_value (gsi, integer_one_node);
4221 : 106 : return true;
4222 : : }
4223 : : #endif
4224 : : return false;
4225 : : }
4226 : :
4227 : :
4228 : : /* Fold a call to __builtin_acc_on_device. */
4229 : :
4230 : : static bool
4231 : 2858 : gimple_fold_builtin_acc_on_device (gimple_stmt_iterator *gsi, tree arg0)
4232 : : {
4233 : : /* Defer folding until we know which compiler we're in. */
4234 : 2858 : if (symtab->state != EXPANSION)
4235 : : return false;
4236 : :
4237 : 550 : unsigned val_host = GOMP_DEVICE_HOST;
4238 : 550 : unsigned val_dev = GOMP_DEVICE_NONE;
4239 : :
4240 : : #ifdef ACCEL_COMPILER
4241 : : val_host = GOMP_DEVICE_NOT_HOST;
4242 : : val_dev = ACCEL_COMPILER_acc_device;
4243 : : #endif
4244 : :
4245 : 550 : location_t loc = gimple_location (gsi_stmt (*gsi));
4246 : :
4247 : 550 : tree host_eq = make_ssa_name (boolean_type_node);
4248 : 550 : gimple *host_ass = gimple_build_assign
4249 : 550 : (host_eq, EQ_EXPR, arg0, build_int_cst (TREE_TYPE (arg0), val_host));
4250 : 550 : gimple_set_location (host_ass, loc);
4251 : 550 : gsi_insert_before (gsi, host_ass, GSI_SAME_STMT);
4252 : :
4253 : 550 : tree dev_eq = make_ssa_name (boolean_type_node);
4254 : 550 : gimple *dev_ass = gimple_build_assign
4255 : 550 : (dev_eq, EQ_EXPR, arg0, build_int_cst (TREE_TYPE (arg0), val_dev));
4256 : 550 : gimple_set_location (dev_ass, loc);
4257 : 550 : gsi_insert_before (gsi, dev_ass, GSI_SAME_STMT);
4258 : :
4259 : 550 : tree result = make_ssa_name (boolean_type_node);
4260 : 550 : gimple *result_ass = gimple_build_assign
4261 : 550 : (result, BIT_IOR_EXPR, host_eq, dev_eq);
4262 : 550 : gimple_set_location (result_ass, loc);
4263 : 550 : gsi_insert_before (gsi, result_ass, GSI_SAME_STMT);
4264 : :
4265 : 550 : replace_call_with_value (gsi, result);
4266 : :
4267 : 550 : return true;
4268 : : }
4269 : :
4270 : : /* Fold realloc (0, n) -> malloc (n). */
4271 : :
4272 : : static bool
4273 : 43279 : gimple_fold_builtin_realloc (gimple_stmt_iterator *gsi)
4274 : : {
4275 : 43279 : gimple *stmt = gsi_stmt (*gsi);
4276 : 43279 : tree arg = gimple_call_arg (stmt, 0);
4277 : 43279 : tree size = gimple_call_arg (stmt, 1);
4278 : :
4279 : 128637 : if (!gimple_vdef (stmt) && gimple_in_ssa_p (cfun))
4280 : : return false;
4281 : :
4282 : 43279 : if (operand_equal_p (arg, null_pointer_node, 0))
4283 : : {
4284 : 1200 : tree fn_malloc = builtin_decl_implicit (BUILT_IN_MALLOC);
4285 : 1200 : if (fn_malloc)
4286 : : {
4287 : 1200 : gcall *repl = gimple_build_call (fn_malloc, 1, size);
4288 : 1200 : replace_call_with_call_and_fold (gsi, repl);
4289 : 1200 : return true;
4290 : : }
4291 : : }
4292 : : return false;
4293 : : }
4294 : :
4295 : : /* Number of bytes into which any type but aggregate, vector or
4296 : : _BitInt types should fit. */
4297 : : static constexpr size_t clear_padding_unit
4298 : : = MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT;
4299 : : /* Buffer size on which __builtin_clear_padding folding code works. */
4300 : : static const size_t clear_padding_buf_size = 32 * clear_padding_unit;
4301 : :
4302 : : /* Data passed through __builtin_clear_padding folding. */
4303 : : struct clear_padding_struct {
4304 : : location_t loc;
4305 : : /* 0 during __builtin_clear_padding folding, nonzero during
4306 : : clear_type_padding_in_mask. In that case, instead of clearing the
4307 : : non-padding bits in union_ptr array clear the padding bits in there. */
4308 : : bool clear_in_mask;
4309 : : tree base;
4310 : : tree alias_type;
4311 : : gimple_stmt_iterator *gsi;
4312 : : /* Alignment of buf->base + 0. */
4313 : : unsigned align;
4314 : : /* Offset from buf->base. Should be always a multiple of UNITS_PER_WORD. */
4315 : : HOST_WIDE_INT off;
4316 : : /* Number of padding bytes before buf->off that don't have padding clear
4317 : : code emitted yet. */
4318 : : HOST_WIDE_INT padding_bytes;
4319 : : /* The size of the whole object. Never emit code to touch
4320 : : buf->base + buf->sz or following bytes. */
4321 : : HOST_WIDE_INT sz;
4322 : : /* Number of bytes recorded in buf->buf. */
4323 : : size_t size;
4324 : : /* When inside union, instead of emitting code we and bits inside of
4325 : : the union_ptr array. */
4326 : : unsigned char *union_ptr;
4327 : : /* Set bits mean padding bits that need to be cleared by the builtin. */
4328 : : unsigned char buf[clear_padding_buf_size + clear_padding_unit];
4329 : : };
4330 : :
4331 : : /* Emit code to clear padding requested in BUF->buf - set bits
4332 : : in there stand for padding that should be cleared. FULL is true
4333 : : if everything from the buffer should be flushed, otherwise
4334 : : it can leave up to 2 * clear_padding_unit bytes for further
4335 : : processing. */
4336 : :
4337 : : static void
4338 : 31777 : clear_padding_flush (clear_padding_struct *buf, bool full)
4339 : : {
4340 : 31777 : gcc_assert ((clear_padding_unit % UNITS_PER_WORD) == 0);
4341 : 31777 : if (!full && buf->size < 2 * clear_padding_unit)
4342 : 31777 : return;
4343 : 32851 : gcc_assert ((buf->off % UNITS_PER_WORD) == 0);
4344 : 31735 : size_t end = buf->size;
4345 : 31735 : if (!full)
4346 : 42 : end = ((end - clear_padding_unit - 1) / clear_padding_unit
4347 : : * clear_padding_unit);
4348 : 31735 : size_t padding_bytes = buf->padding_bytes;
4349 : 31735 : if (buf->union_ptr)
4350 : : {
4351 : 30979 : if (buf->clear_in_mask)
4352 : : {
4353 : : /* During clear_type_padding_in_mask, clear the padding
4354 : : bits set in buf->buf in the buf->union_ptr mask. */
4355 : 206963 : for (size_t i = 0; i < end; i++)
4356 : : {
4357 : 176377 : if (buf->buf[i] == (unsigned char) ~0)
4358 : 6348 : padding_bytes++;
4359 : : else
4360 : : {
4361 : 170029 : memset (&buf->union_ptr[buf->off + i - padding_bytes],
4362 : : 0, padding_bytes);
4363 : 170029 : padding_bytes = 0;
4364 : 170029 : buf->union_ptr[buf->off + i] &= ~buf->buf[i];
4365 : : }
4366 : : }
4367 : 30586 : if (full)
4368 : : {
4369 : 30586 : memset (&buf->union_ptr[buf->off + end - padding_bytes],
4370 : : 0, padding_bytes);
4371 : 30586 : buf->off = 0;
4372 : 30586 : buf->size = 0;
4373 : 30586 : buf->padding_bytes = 0;
4374 : : }
4375 : : else
4376 : : {
4377 : 0 : memmove (buf->buf, buf->buf + end, buf->size - end);
4378 : 0 : buf->off += end;
4379 : 0 : buf->size -= end;
4380 : 0 : buf->padding_bytes = padding_bytes;
4381 : : }
4382 : 30586 : return;
4383 : : }
4384 : : /* Inside of a union, instead of emitting any code, instead
4385 : : clear all bits in the union_ptr buffer that are clear
4386 : : in buf. Whole padding bytes don't clear anything. */
4387 : 3017 : for (size_t i = 0; i < end; i++)
4388 : : {
4389 : 2624 : if (buf->buf[i] == (unsigned char) ~0)
4390 : 1424 : padding_bytes++;
4391 : : else
4392 : : {
4393 : 1200 : padding_bytes = 0;
4394 : 1200 : buf->union_ptr[buf->off + i] &= buf->buf[i];
4395 : : }
4396 : : }
4397 : 393 : if (full)
4398 : : {
4399 : 393 : buf->off = 0;
4400 : 393 : buf->size = 0;
4401 : 393 : buf->padding_bytes = 0;
4402 : : }
4403 : : else
4404 : : {
4405 : 0 : memmove (buf->buf, buf->buf + end, buf->size - end);
4406 : 0 : buf->off += end;
4407 : 0 : buf->size -= end;
4408 : 0 : buf->padding_bytes = padding_bytes;
4409 : : }
4410 : 393 : return;
4411 : : }
4412 : 756 : size_t wordsize = UNITS_PER_WORD;
4413 : 43633 : for (size_t i = 0; i < end; i += wordsize)
4414 : : {
4415 : 42877 : size_t nonzero_first = wordsize;
4416 : 42877 : size_t nonzero_last = 0;
4417 : 42877 : size_t zero_first = wordsize;
4418 : 42877 : size_t zero_last = 0;
4419 : 42877 : bool all_ones = true, bytes_only = true;
4420 : 43158 : if ((unsigned HOST_WIDE_INT) (buf->off + i + wordsize)
4421 : 42877 : > (unsigned HOST_WIDE_INT) buf->sz)
4422 : : {
4423 : 281 : gcc_assert (wordsize > 1);
4424 : 281 : wordsize /= 2;
4425 : 281 : i -= wordsize;
4426 : 281 : continue;
4427 : : }
4428 : 42596 : size_t endsize = end - i > wordsize ? wordsize : end - i;
4429 : 382139 : for (size_t j = i; j < i + endsize; j++)
4430 : : {
4431 : 339543 : if (buf->buf[j])
4432 : : {
4433 : 329642 : if (nonzero_first == wordsize)
4434 : : {
4435 : 41664 : nonzero_first = j - i;
4436 : 41664 : nonzero_last = j - i;
4437 : : }
4438 : 329642 : if (nonzero_last != j - i)
4439 : 158 : all_ones = false;
4440 : 329642 : nonzero_last = j + 1 - i;
4441 : : }
4442 : : else
4443 : : {
4444 : 9901 : if (zero_first == wordsize)
4445 : 1923 : zero_first = j - i;
4446 : 9901 : zero_last = j + 1 - i;
4447 : : }
4448 : 339543 : if (buf->buf[j] != 0 && buf->buf[j] != (unsigned char) ~0)
4449 : : {
4450 : 79 : all_ones = false;
4451 : 79 : bytes_only = false;
4452 : : }
4453 : : }
4454 : 42596 : size_t padding_end = i;
4455 : 42596 : if (padding_bytes)
4456 : : {
4457 : 41008 : if (nonzero_first == 0
4458 : 41008 : && nonzero_last == endsize
4459 : 40560 : && all_ones)
4460 : : {
4461 : : /* All bits are padding and we had some padding
4462 : : before too. Just extend it. */
4463 : 40560 : padding_bytes += endsize;
4464 : 40560 : continue;
4465 : : }
4466 : 448 : if (all_ones && nonzero_first == 0)
4467 : : {
4468 : 4 : padding_bytes += nonzero_last;
4469 : 4 : padding_end += nonzero_last;
4470 : 4 : nonzero_first = wordsize;
4471 : 4 : nonzero_last = 0;
4472 : : }
4473 : 444 : else if (bytes_only && nonzero_first == 0)
4474 : : {
4475 : 0 : gcc_assert (zero_first && zero_first != wordsize);
4476 : 0 : padding_bytes += zero_first;
4477 : 0 : padding_end += zero_first;
4478 : : }
4479 : 448 : tree atype, src;
4480 : 448 : if (padding_bytes == 1)
4481 : : {
4482 : 33 : atype = char_type_node;
4483 : 33 : src = build_zero_cst (char_type_node);
4484 : : }
4485 : : else
4486 : : {
4487 : 415 : atype = build_array_type_nelts (char_type_node, padding_bytes);
4488 : 415 : src = build_constructor (atype, NULL);
4489 : : }
4490 : 448 : tree dst = build2_loc (buf->loc, MEM_REF, atype, buf->base,
4491 : 448 : build_int_cst (buf->alias_type,
4492 : 448 : buf->off + padding_end
4493 : 448 : - padding_bytes));
4494 : 448 : gimple *g = gimple_build_assign (dst, src);
4495 : 448 : gimple_set_location (g, buf->loc);
4496 : 448 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4497 : 448 : padding_bytes = 0;
4498 : 448 : buf->padding_bytes = 0;
4499 : : }
4500 : 2036 : if (nonzero_first == wordsize)
4501 : : /* All bits in a word are 0, there are no padding bits. */
4502 : 936 : continue;
4503 : 1100 : if (all_ones && nonzero_last == endsize)
4504 : : {
4505 : : /* All bits between nonzero_first and end of word are padding
4506 : : bits, start counting padding_bytes. */
4507 : 837 : padding_bytes = nonzero_last - nonzero_first;
4508 : 837 : continue;
4509 : : }
4510 : 263 : if (bytes_only)
4511 : : {
4512 : : /* If bitfields aren't involved in this word, prefer storing
4513 : : individual bytes or groups of them over performing a RMW
4514 : : operation on the whole word. */
4515 : 226 : gcc_assert (i + zero_last <= end);
4516 : 1113 : for (size_t j = padding_end; j < i + zero_last; j++)
4517 : : {
4518 : 887 : if (buf->buf[j])
4519 : : {
4520 : : size_t k;
4521 : 604 : for (k = j; k < i + zero_last; k++)
4522 : 604 : if (buf->buf[k] == 0)
4523 : : break;
4524 : 258 : HOST_WIDE_INT off = buf->off + j;
4525 : 258 : tree atype, src;
4526 : 258 : if (k - j == 1)
4527 : : {
4528 : 214 : atype = char_type_node;
4529 : 214 : src = build_zero_cst (char_type_node);
4530 : : }
4531 : : else
4532 : : {
4533 : 44 : atype = build_array_type_nelts (char_type_node, k - j);
4534 : 44 : src = build_constructor (atype, NULL);
4535 : : }
4536 : 258 : tree dst = build2_loc (buf->loc, MEM_REF, atype,
4537 : : buf->base,
4538 : 258 : build_int_cst (buf->alias_type, off));
4539 : 258 : gimple *g = gimple_build_assign (dst, src);
4540 : 258 : gimple_set_location (g, buf->loc);
4541 : 258 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4542 : 258 : j = k;
4543 : : }
4544 : : }
4545 : 226 : if (nonzero_last == endsize)
4546 : 98 : padding_bytes = nonzero_last - zero_last;
4547 : 226 : continue;
4548 : 226 : }
4549 : 120 : for (size_t eltsz = 1; eltsz <= wordsize; eltsz <<= 1)
4550 : : {
4551 : 120 : if (nonzero_last - nonzero_first <= eltsz
4552 : 37 : && ((nonzero_first & ~(eltsz - 1))
4553 : 37 : == ((nonzero_last - 1) & ~(eltsz - 1))))
4554 : : {
4555 : 37 : tree type;
4556 : 37 : if (eltsz == 1)
4557 : 2 : type = char_type_node;
4558 : : else
4559 : 35 : type = lang_hooks.types.type_for_size (eltsz * BITS_PER_UNIT,
4560 : : 0);
4561 : 37 : size_t start = nonzero_first & ~(eltsz - 1);
4562 : 37 : HOST_WIDE_INT off = buf->off + i + start;
4563 : 37 : tree atype = type;
4564 : 37 : if (eltsz > 1 && buf->align < TYPE_ALIGN (type))
4565 : 0 : atype = build_aligned_type (type, buf->align);
4566 : 37 : tree dst = build2_loc (buf->loc, MEM_REF, atype, buf->base,
4567 : 37 : build_int_cst (buf->alias_type, off));
4568 : 37 : tree src;
4569 : 37 : gimple *g;
4570 : 37 : if (all_ones
4571 : 37 : && nonzero_first == start
4572 : 0 : && nonzero_last == start + eltsz)
4573 : 0 : src = build_zero_cst (type);
4574 : : else
4575 : : {
4576 : 37 : src = make_ssa_name (type);
4577 : 37 : tree tmp_dst = unshare_expr (dst);
4578 : : /* The folding introduces a read from the tmp_dst, we should
4579 : : prevent uninitialized warning analysis from issuing warning
4580 : : for such fake read. In order to suppress warning only for
4581 : : this expr, we should set the location of tmp_dst to
4582 : : UNKNOWN_LOCATION first, then suppress_warning will call
4583 : : set_no_warning_bit to set the no_warning flag only for
4584 : : tmp_dst. */
4585 : 37 : SET_EXPR_LOCATION (tmp_dst, UNKNOWN_LOCATION);
4586 : 37 : suppress_warning (tmp_dst, OPT_Wuninitialized);
4587 : 37 : g = gimple_build_assign (src, tmp_dst);
4588 : 37 : gimple_set_location (g, buf->loc);
4589 : 37 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4590 : 74 : tree mask = native_interpret_expr (type,
4591 : 37 : buf->buf + i + start,
4592 : : eltsz);
4593 : 37 : gcc_assert (mask && TREE_CODE (mask) == INTEGER_CST);
4594 : 37 : mask = fold_build1 (BIT_NOT_EXPR, type, mask);
4595 : 37 : tree src_masked = make_ssa_name (type);
4596 : 37 : g = gimple_build_assign (src_masked, BIT_AND_EXPR,
4597 : : src, mask);
4598 : 37 : gimple_set_location (g, buf->loc);
4599 : 37 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4600 : 37 : src = src_masked;
4601 : : }
4602 : 37 : g = gimple_build_assign (dst, src);
4603 : 37 : gimple_set_location (g, buf->loc);
4604 : 37 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4605 : 37 : break;
4606 : : }
4607 : : }
4608 : : }
4609 : 756 : if (full)
4610 : : {
4611 : 714 : if (padding_bytes)
4612 : : {
4613 : 487 : tree atype, src;
4614 : 487 : if (padding_bytes == 1)
4615 : : {
4616 : 108 : atype = char_type_node;
4617 : 108 : src = build_zero_cst (char_type_node);
4618 : : }
4619 : : else
4620 : : {
4621 : 379 : atype = build_array_type_nelts (char_type_node, padding_bytes);
4622 : 379 : src = build_constructor (atype, NULL);
4623 : : }
4624 : 487 : tree dst = build2_loc (buf->loc, MEM_REF, atype, buf->base,
4625 : 487 : build_int_cst (buf->alias_type,
4626 : 487 : buf->off + end
4627 : 487 : - padding_bytes));
4628 : 487 : gimple *g = gimple_build_assign (dst, src);
4629 : 487 : gimple_set_location (g, buf->loc);
4630 : 487 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4631 : : }
4632 : 714 : size_t end_rem = end % UNITS_PER_WORD;
4633 : 714 : buf->off += end - end_rem;
4634 : 714 : buf->size = end_rem;
4635 : 714 : memset (buf->buf, 0, buf->size);
4636 : 714 : buf->padding_bytes = 0;
4637 : : }
4638 : : else
4639 : : {
4640 : 42 : memmove (buf->buf, buf->buf + end, buf->size - end);
4641 : 42 : buf->off += end;
4642 : 42 : buf->size -= end;
4643 : 42 : buf->padding_bytes = padding_bytes;
4644 : : }
4645 : : }
4646 : :
4647 : : /* Append PADDING_BYTES padding bytes. */
4648 : :
4649 : : static void
4650 : 5145 : clear_padding_add_padding (clear_padding_struct *buf,
4651 : : HOST_WIDE_INT padding_bytes)
4652 : : {
4653 : 5145 : if (padding_bytes == 0)
4654 : : return;
4655 : 1667 : if ((unsigned HOST_WIDE_INT) padding_bytes + buf->size
4656 : : > (unsigned HOST_WIDE_INT) clear_padding_buf_size)
4657 : 42 : clear_padding_flush (buf, false);
4658 : 1667 : if ((unsigned HOST_WIDE_INT) padding_bytes + buf->size
4659 : : > (unsigned HOST_WIDE_INT) clear_padding_buf_size)
4660 : : {
4661 : 42 : memset (buf->buf + buf->size, ~0, clear_padding_buf_size - buf->size);
4662 : 42 : padding_bytes -= clear_padding_buf_size - buf->size;
4663 : 42 : buf->size = clear_padding_buf_size;
4664 : 42 : clear_padding_flush (buf, false);
4665 : 42 : gcc_assert (buf->padding_bytes);
4666 : : /* At this point buf->buf[0] through buf->buf[buf->size - 1]
4667 : : is guaranteed to be all ones. */
4668 : 42 : padding_bytes += buf->size;
4669 : 42 : buf->size = padding_bytes % UNITS_PER_WORD;
4670 : 42 : memset (buf->buf, ~0, buf->size);
4671 : 42 : buf->off += padding_bytes - buf->size;
4672 : 42 : buf->padding_bytes += padding_bytes - buf->size;
4673 : : }
4674 : : else
4675 : : {
4676 : 1625 : memset (buf->buf + buf->size, ~0, padding_bytes);
4677 : 1625 : buf->size += padding_bytes;
4678 : : }
4679 : : }
4680 : :
4681 : : static void clear_padding_type (clear_padding_struct *, tree,
4682 : : HOST_WIDE_INT, bool);
4683 : :
4684 : : /* Clear padding bits of union type TYPE. */
4685 : :
4686 : : static void
4687 : 128 : clear_padding_union (clear_padding_struct *buf, tree type,
4688 : : HOST_WIDE_INT sz, bool for_auto_init)
4689 : : {
4690 : 128 : clear_padding_struct *union_buf;
4691 : 128 : HOST_WIDE_INT start_off = 0, next_off = 0;
4692 : 128 : size_t start_size = 0;
4693 : 128 : if (buf->union_ptr)
4694 : : {
4695 : 42 : start_off = buf->off + buf->size;
4696 : 42 : next_off = start_off + sz;
4697 : 42 : start_size = start_off % UNITS_PER_WORD;
4698 : 42 : start_off -= start_size;
4699 : 42 : clear_padding_flush (buf, true);
4700 : 42 : union_buf = buf;
4701 : : }
4702 : : else
4703 : : {
4704 : 86 : if (sz + buf->size > clear_padding_buf_size)
4705 : 0 : clear_padding_flush (buf, false);
4706 : 86 : union_buf = XALLOCA (clear_padding_struct);
4707 : 86 : union_buf->loc = buf->loc;
4708 : 86 : union_buf->clear_in_mask = buf->clear_in_mask;
4709 : 86 : union_buf->base = NULL_TREE;
4710 : 86 : union_buf->alias_type = NULL_TREE;
4711 : 86 : union_buf->gsi = NULL;
4712 : 86 : union_buf->align = 0;
4713 : 86 : union_buf->off = 0;
4714 : 86 : union_buf->padding_bytes = 0;
4715 : 86 : union_buf->sz = sz;
4716 : 86 : union_buf->size = 0;
4717 : 86 : if (sz + buf->size <= clear_padding_buf_size)
4718 : 86 : union_buf->union_ptr = buf->buf + buf->size;
4719 : : else
4720 : 0 : union_buf->union_ptr = XNEWVEC (unsigned char, sz);
4721 : 86 : memset (union_buf->union_ptr, ~0, sz);
4722 : : }
4723 : :
4724 : 1193 : for (tree field = TYPE_FIELDS (type); field; field = DECL_CHAIN (field))
4725 : 1065 : if (TREE_CODE (field) == FIELD_DECL && !DECL_PADDING_P (field))
4726 : : {
4727 : 359 : if (DECL_SIZE_UNIT (field) == NULL_TREE)
4728 : : {
4729 : 8 : if (TREE_TYPE (field) == error_mark_node)
4730 : 0 : continue;
4731 : 8 : gcc_assert (TREE_CODE (TREE_TYPE (field)) == ARRAY_TYPE
4732 : : && !COMPLETE_TYPE_P (TREE_TYPE (field)));
4733 : 8 : if (!buf->clear_in_mask && !for_auto_init)
4734 : 8 : error_at (buf->loc, "flexible array member %qD does not have "
4735 : : "well defined padding bits for %qs",
4736 : : field, "__builtin_clear_padding");
4737 : 8 : continue;
4738 : : }
4739 : 351 : HOST_WIDE_INT fldsz = tree_to_shwi (DECL_SIZE_UNIT (field));
4740 : 351 : gcc_assert (union_buf->size == 0);
4741 : 351 : union_buf->off = start_off;
4742 : 351 : union_buf->size = start_size;
4743 : 351 : memset (union_buf->buf, ~0, start_size);
4744 : 351 : clear_padding_type (union_buf, TREE_TYPE (field), fldsz, for_auto_init);
4745 : 351 : clear_padding_add_padding (union_buf, sz - fldsz);
4746 : 351 : clear_padding_flush (union_buf, true);
4747 : : }
4748 : :
4749 : 128 : if (buf == union_buf)
4750 : : {
4751 : 42 : buf->off = next_off;
4752 : 42 : buf->size = next_off % UNITS_PER_WORD;
4753 : 42 : buf->off -= buf->size;
4754 : 42 : memset (buf->buf, ~0, buf->size);
4755 : : }
4756 : 86 : else if (sz + buf->size <= clear_padding_buf_size)
4757 : 86 : buf->size += sz;
4758 : : else
4759 : : {
4760 : 0 : unsigned char *union_ptr = union_buf->union_ptr;
4761 : 0 : while (sz)
4762 : : {
4763 : 0 : clear_padding_flush (buf, false);
4764 : 0 : HOST_WIDE_INT this_sz
4765 : 0 : = MIN ((unsigned HOST_WIDE_INT) sz,
4766 : : clear_padding_buf_size - buf->size);
4767 : 0 : memcpy (buf->buf + buf->size, union_ptr, this_sz);
4768 : 0 : buf->size += this_sz;
4769 : 0 : union_ptr += this_sz;
4770 : 0 : sz -= this_sz;
4771 : : }
4772 : 0 : XDELETE (union_buf->union_ptr);
4773 : : }
4774 : 128 : }
4775 : :
4776 : : /* The only known floating point formats with padding bits are the
4777 : : IEEE extended ones. */
4778 : :
4779 : : static bool
4780 : 32172 : clear_padding_real_needs_padding_p (tree type)
4781 : : {
4782 : 32172 : const struct real_format *fmt = REAL_MODE_FORMAT (TYPE_MODE (type));
4783 : 32172 : return (fmt->b == 2
4784 : 31853 : && fmt->signbit_ro == fmt->signbit_rw
4785 : 64025 : && (fmt->signbit_ro == 79 || fmt->signbit_ro == 95));
4786 : : }
4787 : :
4788 : : /* _BitInt has padding bits if it isn't extended in the ABI and has smaller
4789 : : precision than bits in limb or corresponding number of limbs. */
4790 : :
4791 : : static bool
4792 : 6 : clear_padding_bitint_needs_padding_p (tree type)
4793 : : {
4794 : 6 : struct bitint_info info;
4795 : 6 : bool ok = targetm.c.bitint_type_info (TYPE_PRECISION (type), &info);
4796 : 6 : gcc_assert (ok);
4797 : 6 : if (info.extended)
4798 : : return false;
4799 : 6 : scalar_int_mode limb_mode = as_a <scalar_int_mode> (info.abi_limb_mode);
4800 : 6 : if (TYPE_PRECISION (type) < GET_MODE_PRECISION (limb_mode))
4801 : : return true;
4802 : 4 : else if (TYPE_PRECISION (type) == GET_MODE_PRECISION (limb_mode))
4803 : : return false;
4804 : : else
4805 : 4 : return (((unsigned) TYPE_PRECISION (type))
4806 : 4 : % GET_MODE_PRECISION (limb_mode)) != 0;
4807 : : }
4808 : :
4809 : : /* Return true if TYPE might contain any padding bits. */
4810 : :
4811 : : bool
4812 : 876080 : clear_padding_type_may_have_padding_p (tree type)
4813 : : {
4814 : 1005279 : switch (TREE_CODE (type))
4815 : : {
4816 : : case RECORD_TYPE:
4817 : : case UNION_TYPE:
4818 : : return true;
4819 : 129199 : case ARRAY_TYPE:
4820 : 129199 : case COMPLEX_TYPE:
4821 : 129199 : case VECTOR_TYPE:
4822 : 129199 : return clear_padding_type_may_have_padding_p (TREE_TYPE (type));
4823 : 1655 : case REAL_TYPE:
4824 : 1655 : return clear_padding_real_needs_padding_p (type);
4825 : 6 : case BITINT_TYPE:
4826 : 6 : return clear_padding_bitint_needs_padding_p (type);
4827 : 35178 : default:
4828 : 35178 : return false;
4829 : : }
4830 : : }
4831 : :
4832 : : /* Return true if TYPE has padding bits aside from those in fields,
4833 : : elements, etc. */
4834 : :
4835 : : bool
4836 : 1112234 : type_has_padding_at_level_p (tree type)
4837 : : {
4838 : 1112234 : switch (TREE_CODE (type))
4839 : : {
4840 : 980807 : case RECORD_TYPE:
4841 : 980807 : {
4842 : 980807 : tree bitpos = size_zero_node;
4843 : : /* Expect fields to be sorted by bit position. */
4844 : 5790992 : for (tree f = TYPE_FIELDS (type); f; f = DECL_CHAIN (f))
4845 : 4813819 : if (TREE_CODE (f) == FIELD_DECL)
4846 : : {
4847 : 2241059 : if (DECL_PADDING_P (f))
4848 : : return true;
4849 : 2241056 : tree pos = bit_position (f);
4850 : 2241056 : if (simple_cst_equal (bitpos, pos) != 1)
4851 : : return true;
4852 : 2237445 : if (!DECL_SIZE (f))
4853 : : return true;
4854 : 2237425 : bitpos = int_const_binop (PLUS_EXPR, pos, DECL_SIZE (f));
4855 : : }
4856 : 977173 : if (simple_cst_equal (bitpos, TYPE_SIZE (type)) != 1)
4857 : : return true;
4858 : : return false;
4859 : : }
4860 : 3 : case UNION_TYPE:
4861 : 3 : case QUAL_UNION_TYPE:
4862 : 3 : bool any_fields;
4863 : 3 : any_fields = false;
4864 : : /* If any of the fields is smaller than the whole, there is padding. */
4865 : 6 : for (tree f = TYPE_FIELDS (type); f; f = DECL_CHAIN (f))
4866 : 3 : if (TREE_CODE (f) != FIELD_DECL || TREE_TYPE (f) == error_mark_node)
4867 : 3 : continue;
4868 : 0 : else if (simple_cst_equal (TYPE_SIZE (TREE_TYPE (f)),
4869 : 0 : TYPE_SIZE (type)) != 1)
4870 : : return true;
4871 : : else
4872 : : any_fields = true;
4873 : : /* If the union doesn't have any fields and still has non-zero size,
4874 : : all of it is padding. */
4875 : 3 : if (!any_fields && !integer_zerop (TYPE_SIZE (type)))
4876 : : return true;
4877 : : return false;
4878 : : case ARRAY_TYPE:
4879 : : case COMPLEX_TYPE:
4880 : : case VECTOR_TYPE:
4881 : : /* No recursing here, no padding at this level. */
4882 : : return false;
4883 : 0 : case REAL_TYPE:
4884 : 0 : return clear_padding_real_needs_padding_p (type);
4885 : 0 : case BITINT_TYPE:
4886 : 0 : return clear_padding_bitint_needs_padding_p (type);
4887 : : default:
4888 : : return false;
4889 : : }
4890 : : }
4891 : :
4892 : : /* Emit a runtime loop:
4893 : : for (; buf.base != end; buf.base += sz)
4894 : : __builtin_clear_padding (buf.base); */
4895 : :
4896 : : static void
4897 : 114 : clear_padding_emit_loop (clear_padding_struct *buf, tree type,
4898 : : tree end, bool for_auto_init)
4899 : : {
4900 : 114 : tree l1 = create_artificial_label (buf->loc);
4901 : 114 : tree l2 = create_artificial_label (buf->loc);
4902 : 114 : tree l3 = create_artificial_label (buf->loc);
4903 : 114 : gimple *g = gimple_build_goto (l2);
4904 : 114 : gimple_set_location (g, buf->loc);
4905 : 114 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4906 : 114 : g = gimple_build_label (l1);
4907 : 114 : gimple_set_location (g, buf->loc);
4908 : 114 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4909 : 114 : clear_padding_type (buf, type, buf->sz, for_auto_init);
4910 : 114 : clear_padding_flush (buf, true);
4911 : 114 : g = gimple_build_assign (buf->base, POINTER_PLUS_EXPR, buf->base,
4912 : 114 : size_int (buf->sz));
4913 : 114 : gimple_set_location (g, buf->loc);
4914 : 114 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4915 : 114 : g = gimple_build_label (l2);
4916 : 114 : gimple_set_location (g, buf->loc);
4917 : 114 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4918 : 114 : g = gimple_build_cond (NE_EXPR, buf->base, end, l1, l3);
4919 : 114 : gimple_set_location (g, buf->loc);
4920 : 114 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4921 : 114 : g = gimple_build_label (l3);
4922 : 114 : gimple_set_location (g, buf->loc);
4923 : 114 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
4924 : 114 : }
4925 : :
4926 : : /* Clear padding bits for TYPE. Called recursively from
4927 : : gimple_fold_builtin_clear_padding. If FOR_AUTO_INIT is true,
4928 : : the __builtin_clear_padding is not called by the end user,
4929 : : instead, it's inserted by the compiler to initialize the
4930 : : paddings of automatic variable. Therefore, we should not
4931 : : emit the error messages for flexible array members to confuse
4932 : : the end user. */
4933 : :
4934 : : static void
4935 : 35808 : clear_padding_type (clear_padding_struct *buf, tree type,
4936 : : HOST_WIDE_INT sz, bool for_auto_init)
4937 : : {
4938 : 35808 : switch (TREE_CODE (type))
4939 : : {
4940 : 1303 : case RECORD_TYPE:
4941 : 1303 : HOST_WIDE_INT cur_pos;
4942 : 1303 : cur_pos = 0;
4943 : 16907 : for (tree field = TYPE_FIELDS (type); field; field = DECL_CHAIN (field))
4944 : 15604 : if (TREE_CODE (field) == FIELD_DECL && !DECL_PADDING_P (field))
4945 : : {
4946 : 3796 : tree ftype = TREE_TYPE (field);
4947 : 3796 : if (DECL_BIT_FIELD (field))
4948 : : {
4949 : 256 : HOST_WIDE_INT fldsz = TYPE_PRECISION (ftype);
4950 : 256 : if (fldsz == 0)
4951 : 0 : continue;
4952 : 256 : HOST_WIDE_INT pos = int_byte_position (field);
4953 : 256 : if (pos >= sz)
4954 : 0 : continue;
4955 : 256 : HOST_WIDE_INT bpos
4956 : 256 : = tree_to_uhwi (DECL_FIELD_BIT_OFFSET (field));
4957 : 256 : bpos %= BITS_PER_UNIT;
4958 : 256 : HOST_WIDE_INT end
4959 : 256 : = ROUND_UP (bpos + fldsz, BITS_PER_UNIT) / BITS_PER_UNIT;
4960 : 256 : if (pos + end > cur_pos)
4961 : : {
4962 : 195 : clear_padding_add_padding (buf, pos + end - cur_pos);
4963 : 195 : cur_pos = pos + end;
4964 : : }
4965 : 256 : gcc_assert (cur_pos > pos
4966 : : && ((unsigned HOST_WIDE_INT) buf->size
4967 : : >= (unsigned HOST_WIDE_INT) cur_pos - pos));
4968 : 256 : unsigned char *p = buf->buf + buf->size - (cur_pos - pos);
4969 : 256 : if (BYTES_BIG_ENDIAN != WORDS_BIG_ENDIAN)
4970 : : sorry_at (buf->loc, "PDP11 bit-field handling unsupported"
4971 : : " in %qs", "__builtin_clear_padding");
4972 : 256 : else if (BYTES_BIG_ENDIAN)
4973 : : {
4974 : : /* Big endian. */
4975 : : if (bpos + fldsz <= BITS_PER_UNIT)
4976 : : *p &= ~(((1 << fldsz) - 1)
4977 : : << (BITS_PER_UNIT - bpos - fldsz));
4978 : : else
4979 : : {
4980 : : if (bpos)
4981 : : {
4982 : : *p &= ~(((1U << BITS_PER_UNIT) - 1) >> bpos);
4983 : : p++;
4984 : : fldsz -= BITS_PER_UNIT - bpos;
4985 : : }
4986 : : memset (p, 0, fldsz / BITS_PER_UNIT);
4987 : : p += fldsz / BITS_PER_UNIT;
4988 : : fldsz %= BITS_PER_UNIT;
4989 : : if (fldsz)
4990 : : *p &= ((1U << BITS_PER_UNIT) - 1) >> fldsz;
4991 : : }
4992 : : }
4993 : : else
4994 : : {
4995 : : /* Little endian. */
4996 : 256 : if (bpos + fldsz <= BITS_PER_UNIT)
4997 : 159 : *p &= ~(((1 << fldsz) - 1) << bpos);
4998 : : else
4999 : : {
5000 : 97 : if (bpos)
5001 : : {
5002 : 29 : *p &= ~(((1 << BITS_PER_UNIT) - 1) << bpos);
5003 : 29 : p++;
5004 : 29 : fldsz -= BITS_PER_UNIT - bpos;
5005 : : }
5006 : 97 : memset (p, 0, fldsz / BITS_PER_UNIT);
5007 : 97 : p += fldsz / BITS_PER_UNIT;
5008 : 97 : fldsz %= BITS_PER_UNIT;
5009 : 97 : if (fldsz)
5010 : 52 : *p &= ~((1 << fldsz) - 1);
5011 : : }
5012 : : }
5013 : : }
5014 : 3540 : else if (DECL_SIZE_UNIT (field) == NULL_TREE)
5015 : : {
5016 : 32 : if (ftype == error_mark_node)
5017 : 0 : continue;
5018 : 32 : gcc_assert (TREE_CODE (ftype) == ARRAY_TYPE
5019 : : && !COMPLETE_TYPE_P (ftype));
5020 : 32 : if (!buf->clear_in_mask && !for_auto_init)
5021 : 24 : error_at (buf->loc, "flexible array member %qD does not "
5022 : : "have well defined padding bits for %qs",
5023 : : field, "__builtin_clear_padding");
5024 : : }
5025 : 3508 : else if (is_empty_type (ftype))
5026 : 212 : continue;
5027 : : else
5028 : : {
5029 : 3296 : HOST_WIDE_INT pos = int_byte_position (field);
5030 : 3296 : if (pos >= sz)
5031 : 0 : continue;
5032 : 3296 : HOST_WIDE_INT fldsz = tree_to_shwi (DECL_SIZE_UNIT (field));
5033 : 3296 : gcc_assert (pos >= 0 && fldsz >= 0 && pos >= cur_pos);
5034 : 3296 : clear_padding_add_padding (buf, pos - cur_pos);
5035 : 3296 : cur_pos = pos;
5036 : 3296 : if (tree asbase = lang_hooks.types.classtype_as_base (field))
5037 : 188 : ftype = asbase;
5038 : 3296 : clear_padding_type (buf, ftype, fldsz, for_auto_init);
5039 : 3296 : cur_pos += fldsz;
5040 : : }
5041 : : }
5042 : 1303 : gcc_assert (sz >= cur_pos);
5043 : 1303 : clear_padding_add_padding (buf, sz - cur_pos);
5044 : 1303 : break;
5045 : 325 : case ARRAY_TYPE:
5046 : 325 : HOST_WIDE_INT nelts, fldsz;
5047 : 325 : fldsz = int_size_in_bytes (TREE_TYPE (type));
5048 : 325 : if (fldsz == 0)
5049 : : break;
5050 : 311 : nelts = sz / fldsz;
5051 : 311 : if (nelts > 1
5052 : 304 : && sz > 8 * UNITS_PER_WORD
5053 : 78 : && buf->union_ptr == NULL
5054 : 389 : && clear_padding_type_may_have_padding_p (TREE_TYPE (type)))
5055 : : {
5056 : : /* For sufficiently large array of more than one elements,
5057 : : emit a runtime loop to keep code size manageable. */
5058 : 66 : tree base = buf->base;
5059 : 66 : unsigned int prev_align = buf->align;
5060 : 66 : HOST_WIDE_INT off = buf->off + buf->size;
5061 : 66 : HOST_WIDE_INT prev_sz = buf->sz;
5062 : 66 : clear_padding_flush (buf, true);
5063 : 66 : tree elttype = TREE_TYPE (type);
5064 : 66 : buf->base = create_tmp_var (build_pointer_type (elttype));
5065 : 66 : tree end = make_ssa_name (TREE_TYPE (buf->base));
5066 : 66 : gimple *g = gimple_build_assign (buf->base, POINTER_PLUS_EXPR,
5067 : 66 : base, size_int (off));
5068 : 66 : gimple_set_location (g, buf->loc);
5069 : 66 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
5070 : 66 : g = gimple_build_assign (end, POINTER_PLUS_EXPR, buf->base,
5071 : 66 : size_int (sz));
5072 : 66 : gimple_set_location (g, buf->loc);
5073 : 66 : gsi_insert_before (buf->gsi, g, GSI_SAME_STMT);
5074 : 66 : buf->sz = fldsz;
5075 : 66 : buf->align = TYPE_ALIGN (elttype);
5076 : 66 : buf->off = 0;
5077 : 66 : buf->size = 0;
5078 : 66 : clear_padding_emit_loop (buf, elttype, end, for_auto_init);
5079 : 66 : off += sz;
5080 : 66 : buf->base = base;
5081 : 66 : buf->sz = prev_sz;
5082 : 66 : buf->align = prev_align;
5083 : 66 : buf->size = off % UNITS_PER_WORD;
5084 : 66 : buf->off = off - buf->size;
5085 : 66 : memset (buf->buf, 0, buf->size);
5086 : 66 : break;
5087 : : }
5088 : 1163 : for (HOST_WIDE_INT i = 0; i < nelts; i++)
5089 : 918 : clear_padding_type (buf, TREE_TYPE (type), fldsz, for_auto_init);
5090 : : break;
5091 : 128 : case UNION_TYPE:
5092 : 128 : clear_padding_union (buf, type, sz, for_auto_init);
5093 : 128 : break;
5094 : 30517 : case REAL_TYPE:
5095 : 30517 : gcc_assert ((size_t) sz <= clear_padding_unit);
5096 : 30517 : if ((unsigned HOST_WIDE_INT) sz + buf->size > clear_padding_buf_size)
5097 : 0 : clear_padding_flush (buf, false);
5098 : 30517 : if (clear_padding_real_needs_padding_p (type))
5099 : : {
5100 : : /* Use native_interpret_real + native_encode_expr to figure out
5101 : : which bits are padding. */
5102 : 1140 : memset (buf->buf + buf->size, ~0, sz);
5103 : 1140 : tree cst = native_interpret_real (type, buf->buf + buf->size, sz);
5104 : 1140 : gcc_assert (cst && TREE_CODE (cst) == REAL_CST);
5105 : 1140 : int len = native_encode_expr (cst, buf->buf + buf->size, sz);
5106 : 1140 : gcc_assert (len > 0 && (size_t) len == (size_t) sz);
5107 : 19380 : for (size_t i = 0; i < (size_t) sz; i++)
5108 : 18240 : buf->buf[buf->size + i] ^= ~0;
5109 : : }
5110 : : else
5111 : 29377 : memset (buf->buf + buf->size, 0, sz);
5112 : 30517 : buf->size += sz;
5113 : 30517 : break;
5114 : 0 : case COMPLEX_TYPE:
5115 : 0 : fldsz = int_size_in_bytes (TREE_TYPE (type));
5116 : 0 : clear_padding_type (buf, TREE_TYPE (type), fldsz, for_auto_init);
5117 : 0 : clear_padding_type (buf, TREE_TYPE (type), fldsz, for_auto_init);
5118 : 0 : break;
5119 : 0 : case VECTOR_TYPE:
5120 : 0 : nelts = TYPE_VECTOR_SUBPARTS (type).to_constant ();
5121 : 0 : fldsz = int_size_in_bytes (TREE_TYPE (type));
5122 : 0 : for (HOST_WIDE_INT i = 0; i < nelts; i++)
5123 : 0 : clear_padding_type (buf, TREE_TYPE (type), fldsz, for_auto_init);
5124 : : break;
5125 : 7 : case NULLPTR_TYPE:
5126 : 7 : gcc_assert ((size_t) sz <= clear_padding_unit);
5127 : 7 : if ((unsigned HOST_WIDE_INT) sz + buf->size > clear_padding_buf_size)
5128 : 0 : clear_padding_flush (buf, false);
5129 : 7 : memset (buf->buf + buf->size, ~0, sz);
5130 : 7 : buf->size += sz;
5131 : 7 : break;
5132 : 4 : case BITINT_TYPE:
5133 : 4 : {
5134 : 4 : struct bitint_info info;
5135 : 4 : bool ok = targetm.c.bitint_type_info (TYPE_PRECISION (type), &info);
5136 : 4 : gcc_assert (ok);
5137 : 4 : scalar_int_mode limb_mode
5138 : 4 : = as_a <scalar_int_mode> (info.abi_limb_mode);
5139 : 4 : if (TYPE_PRECISION (type) <= GET_MODE_PRECISION (limb_mode))
5140 : : {
5141 : 2 : gcc_assert ((size_t) sz <= clear_padding_unit);
5142 : 2 : if ((unsigned HOST_WIDE_INT) sz + buf->size
5143 : : > clear_padding_buf_size)
5144 : 0 : clear_padding_flush (buf, false);
5145 : 2 : if (!info.extended
5146 : 2 : && TYPE_PRECISION (type) < GET_MODE_PRECISION (limb_mode))
5147 : : {
5148 : 2 : int tprec = GET_MODE_PRECISION (limb_mode);
5149 : 2 : int prec = TYPE_PRECISION (type);
5150 : 2 : tree t = build_nonstandard_integer_type (tprec, 1);
5151 : 2 : tree cst = wide_int_to_tree (t, wi::mask (prec, true, tprec));
5152 : 2 : int len = native_encode_expr (cst, buf->buf + buf->size, sz);
5153 : 2 : gcc_assert (len > 0 && (size_t) len == (size_t) sz);
5154 : : }
5155 : : else
5156 : 0 : memset (buf->buf + buf->size, 0, sz);
5157 : 2 : buf->size += sz;
5158 : 2 : break;
5159 : : }
5160 : 2 : tree limbtype
5161 : 2 : = build_nonstandard_integer_type (GET_MODE_PRECISION (limb_mode), 1);
5162 : 2 : fldsz = int_size_in_bytes (limbtype);
5163 : 2 : nelts = int_size_in_bytes (type) / fldsz;
5164 : 13 : for (HOST_WIDE_INT i = 0; i < nelts; i++)
5165 : : {
5166 : 11 : if (!info.extended
5167 : 11 : && i == (info.big_endian ? 0 : nelts - 1)
5168 : 13 : && (((unsigned) TYPE_PRECISION (type))
5169 : 2 : % TYPE_PRECISION (limbtype)) != 0)
5170 : : {
5171 : 2 : int tprec = GET_MODE_PRECISION (limb_mode);
5172 : 2 : int prec = (((unsigned) TYPE_PRECISION (type)) % tprec);
5173 : 2 : tree cst = wide_int_to_tree (limbtype,
5174 : 2 : wi::mask (prec, true, tprec));
5175 : 2 : int len = native_encode_expr (cst, buf->buf + buf->size,
5176 : : fldsz);
5177 : 2 : gcc_assert (len > 0 && (size_t) len == (size_t) fldsz);
5178 : 2 : buf->size += fldsz;
5179 : : }
5180 : : else
5181 : 9 : clear_padding_type (buf, limbtype, fldsz, for_auto_init);
5182 : : }
5183 : : break;
5184 : : }
5185 : 3524 : default:
5186 : 3524 : gcc_assert ((size_t) sz <= clear_padding_unit);
5187 : 3524 : if ((unsigned HOST_WIDE_INT) sz + buf->size > clear_padding_buf_size)
5188 : 0 : clear_padding_flush (buf, false);
5189 : 3524 : memset (buf->buf + buf->size, 0, sz);
5190 : 3524 : buf->size += sz;
5191 : 3524 : break;
5192 : : }
5193 : 35808 : }
5194 : :
5195 : : /* Clear padding bits of TYPE in MASK. */
5196 : :
5197 : : void
5198 : 30586 : clear_type_padding_in_mask (tree type, unsigned char *mask)
5199 : : {
5200 : 30586 : clear_padding_struct buf;
5201 : 30586 : buf.loc = UNKNOWN_LOCATION;
5202 : 30586 : buf.clear_in_mask = true;
5203 : 30586 : buf.base = NULL_TREE;
5204 : 30586 : buf.alias_type = NULL_TREE;
5205 : 30586 : buf.gsi = NULL;
5206 : 30586 : buf.align = 0;
5207 : 30586 : buf.off = 0;
5208 : 30586 : buf.padding_bytes = 0;
5209 : 30586 : buf.sz = int_size_in_bytes (type);
5210 : 30586 : buf.size = 0;
5211 : 30586 : buf.union_ptr = mask;
5212 : 30586 : clear_padding_type (&buf, type, buf.sz, false);
5213 : 30586 : clear_padding_flush (&buf, true);
5214 : 30586 : }
5215 : :
5216 : : /* Fold __builtin_clear_padding builtin. */
5217 : :
5218 : : static bool
5219 : 620 : gimple_fold_builtin_clear_padding (gimple_stmt_iterator *gsi)
5220 : : {
5221 : 620 : gimple *stmt = gsi_stmt (*gsi);
5222 : 620 : gcc_assert (gimple_call_num_args (stmt) == 2);
5223 : 620 : tree ptr = gimple_call_arg (stmt, 0);
5224 : 620 : tree typearg = gimple_call_arg (stmt, 1);
5225 : : /* The 2nd argument of __builtin_clear_padding's value is used to
5226 : : distinguish whether this call is made by the user or by the compiler
5227 : : for automatic variable initialization. */
5228 : 620 : bool for_auto_init = (bool) TREE_INT_CST_LOW (typearg);
5229 : 620 : tree type = TREE_TYPE (TREE_TYPE (typearg));
5230 : 620 : location_t loc = gimple_location (stmt);
5231 : 620 : clear_padding_struct buf;
5232 : 620 : gimple_stmt_iterator gsiprev = *gsi;
5233 : : /* This should be folded during the lower pass. */
5234 : 1240 : gcc_assert (!gimple_in_ssa_p (cfun) && cfun->cfg == NULL);
5235 : 620 : gcc_assert (COMPLETE_TYPE_P (type));
5236 : 620 : gsi_prev (&gsiprev);
5237 : :
5238 : 620 : buf.loc = loc;
5239 : 620 : buf.clear_in_mask = false;
5240 : 620 : buf.base = ptr;
5241 : 620 : buf.alias_type = NULL_TREE;
5242 : 620 : buf.gsi = gsi;
5243 : 620 : buf.align = get_pointer_alignment (ptr);
5244 : 620 : unsigned int talign = min_align_of_type (type) * BITS_PER_UNIT;
5245 : 620 : buf.align = MAX (buf.align, talign);
5246 : 620 : buf.off = 0;
5247 : 620 : buf.padding_bytes = 0;
5248 : 620 : buf.size = 0;
5249 : 620 : buf.sz = int_size_in_bytes (type);
5250 : 620 : buf.union_ptr = NULL;
5251 : 620 : if (buf.sz < 0 && int_size_in_bytes (strip_array_types (type)) < 0)
5252 : 1 : sorry_at (loc, "%s not supported for variable length aggregates",
5253 : : "__builtin_clear_padding");
5254 : : /* The implementation currently assumes 8-bit host and target
5255 : : chars which is the case for all currently supported targets
5256 : : and hosts and is required e.g. for native_{encode,interpret}* APIs. */
5257 : 619 : else if (CHAR_BIT != 8 || BITS_PER_UNIT != 8)
5258 : : sorry_at (loc, "%s not supported on this target",
5259 : : "__builtin_clear_padding");
5260 : 619 : else if (!clear_padding_type_may_have_padding_p (type))
5261 : : ;
5262 : 582 : else if (TREE_CODE (type) == ARRAY_TYPE && buf.sz < 0)
5263 : : {
5264 : 48 : tree sz = TYPE_SIZE_UNIT (type);
5265 : 48 : tree elttype = type;
5266 : : /* Only supports C/C++ VLAs and flattens all the VLA levels. */
5267 : 48 : while (TREE_CODE (elttype) == ARRAY_TYPE
5268 : 144 : && int_size_in_bytes (elttype) < 0)
5269 : 96 : elttype = TREE_TYPE (elttype);
5270 : 48 : HOST_WIDE_INT eltsz = int_size_in_bytes (elttype);
5271 : 48 : gcc_assert (eltsz >= 0);
5272 : 48 : if (eltsz)
5273 : : {
5274 : 48 : buf.base = create_tmp_var (build_pointer_type (elttype));
5275 : 48 : tree end = make_ssa_name (TREE_TYPE (buf.base));
5276 : 48 : gimple *g = gimple_build_assign (buf.base, ptr);
5277 : 48 : gimple_set_location (g, loc);
5278 : 48 : gsi_insert_before (gsi, g, GSI_SAME_STMT);
5279 : 48 : g = gimple_build_assign (end, POINTER_PLUS_EXPR, buf.base, sz);
5280 : 48 : gimple_set_location (g, loc);
5281 : 48 : gsi_insert_before (gsi, g, GSI_SAME_STMT);
5282 : 48 : buf.sz = eltsz;
5283 : 48 : buf.align = TYPE_ALIGN (elttype);
5284 : 48 : buf.alias_type = build_pointer_type (elttype);
5285 : 48 : clear_padding_emit_loop (&buf, elttype, end, for_auto_init);
5286 : : }
5287 : : }
5288 : : else
5289 : : {
5290 : 534 : if (!is_gimple_mem_ref_addr (buf.base))
5291 : : {
5292 : 28 : buf.base = make_ssa_name (TREE_TYPE (ptr));
5293 : 28 : gimple *g = gimple_build_assign (buf.base, ptr);
5294 : 28 : gimple_set_location (g, loc);
5295 : 28 : gsi_insert_before (gsi, g, GSI_SAME_STMT);
5296 : : }
5297 : 534 : buf.alias_type = build_pointer_type (type);
5298 : 534 : clear_padding_type (&buf, type, buf.sz, for_auto_init);
5299 : 534 : clear_padding_flush (&buf, true);
5300 : : }
5301 : :
5302 : 620 : gimple_stmt_iterator gsiprev2 = *gsi;
5303 : 620 : gsi_prev (&gsiprev2);
5304 : 620 : if (gsi_stmt (gsiprev) == gsi_stmt (gsiprev2))
5305 : 122 : gsi_replace (gsi, gimple_build_nop (), true);
5306 : : else
5307 : : {
5308 : 498 : gsi_remove (gsi, true);
5309 : 498 : *gsi = gsiprev2;
5310 : : }
5311 : 620 : return true;
5312 : : }
5313 : :
5314 : : /* Fold the non-target builtin at *GSI and return whether any simplification
5315 : : was made. */
5316 : :
5317 : : static bool
5318 : 12634550 : gimple_fold_builtin (gimple_stmt_iterator *gsi)
5319 : : {
5320 : 12634550 : gcall *stmt = as_a <gcall *>(gsi_stmt (*gsi));
5321 : 12634550 : tree callee = gimple_call_fndecl (stmt);
5322 : :
5323 : : /* Give up for always_inline inline builtins until they are
5324 : : inlined. */
5325 : 12634550 : if (avoid_folding_inline_builtin (callee))
5326 : : return false;
5327 : :
5328 : 12633374 : unsigned n = gimple_call_num_args (stmt);
5329 : 12633374 : enum built_in_function fcode = DECL_FUNCTION_CODE (callee);
5330 : 12633374 : switch (fcode)
5331 : : {
5332 : 142 : case BUILT_IN_BCMP:
5333 : 142 : return gimple_fold_builtin_bcmp (gsi);
5334 : 357 : case BUILT_IN_BCOPY:
5335 : 357 : return gimple_fold_builtin_bcopy (gsi);
5336 : 245 : case BUILT_IN_BZERO:
5337 : 245 : return gimple_fold_builtin_bzero (gsi);
5338 : :
5339 : 320472 : case BUILT_IN_MEMSET:
5340 : 320472 : return gimple_fold_builtin_memset (gsi,
5341 : : gimple_call_arg (stmt, 1),
5342 : 320472 : gimple_call_arg (stmt, 2));
5343 : 887010 : case BUILT_IN_MEMCPY:
5344 : 887010 : case BUILT_IN_MEMPCPY:
5345 : 887010 : case BUILT_IN_MEMMOVE:
5346 : 887010 : return gimple_fold_builtin_memory_op (gsi, gimple_call_arg (stmt, 0),
5347 : 887010 : gimple_call_arg (stmt, 1), fcode);
5348 : 5105 : case BUILT_IN_SPRINTF_CHK:
5349 : 5105 : case BUILT_IN_VSPRINTF_CHK:
5350 : 5105 : return gimple_fold_builtin_sprintf_chk (gsi, fcode);
5351 : 1854 : case BUILT_IN_STRCAT_CHK:
5352 : 1854 : return gimple_fold_builtin_strcat_chk (gsi);
5353 : 1225 : case BUILT_IN_STRNCAT_CHK:
5354 : 1225 : return gimple_fold_builtin_strncat_chk (gsi);
5355 : 150219 : case BUILT_IN_STRLEN:
5356 : 150219 : return gimple_fold_builtin_strlen (gsi);
5357 : 27539 : case BUILT_IN_STRCPY:
5358 : 27539 : return gimple_fold_builtin_strcpy (gsi,
5359 : : gimple_call_arg (stmt, 0),
5360 : 27539 : gimple_call_arg (stmt, 1));
5361 : 17631 : case BUILT_IN_STRNCPY:
5362 : 17631 : return gimple_fold_builtin_strncpy (gsi,
5363 : : gimple_call_arg (stmt, 0),
5364 : : gimple_call_arg (stmt, 1),
5365 : 17631 : gimple_call_arg (stmt, 2));
5366 : 7766 : case BUILT_IN_STRCAT:
5367 : 7766 : return gimple_fold_builtin_strcat (gsi, gimple_call_arg (stmt, 0),
5368 : 7766 : gimple_call_arg (stmt, 1));
5369 : 5763 : case BUILT_IN_STRNCAT:
5370 : 5763 : return gimple_fold_builtin_strncat (gsi);
5371 : 5617 : case BUILT_IN_INDEX:
5372 : 5617 : case BUILT_IN_STRCHR:
5373 : 5617 : return gimple_fold_builtin_strchr (gsi, false);
5374 : 790 : case BUILT_IN_RINDEX:
5375 : 790 : case BUILT_IN_STRRCHR:
5376 : 790 : return gimple_fold_builtin_strchr (gsi, true);
5377 : 4837 : case BUILT_IN_STRSTR:
5378 : 4837 : return gimple_fold_builtin_strstr (gsi);
5379 : 1371514 : case BUILT_IN_STRCMP:
5380 : 1371514 : case BUILT_IN_STRCMP_EQ:
5381 : 1371514 : case BUILT_IN_STRCASECMP:
5382 : 1371514 : case BUILT_IN_STRNCMP:
5383 : 1371514 : case BUILT_IN_STRNCMP_EQ:
5384 : 1371514 : case BUILT_IN_STRNCASECMP:
5385 : 1371514 : return gimple_fold_builtin_string_compare (gsi);
5386 : 24125 : case BUILT_IN_MEMCHR:
5387 : 24125 : return gimple_fold_builtin_memchr (gsi);
5388 : 21942 : case BUILT_IN_FPUTS:
5389 : 21942 : return gimple_fold_builtin_fputs (gsi, gimple_call_arg (stmt, 0),
5390 : 21942 : gimple_call_arg (stmt, 1), false);
5391 : 44 : case BUILT_IN_FPUTS_UNLOCKED:
5392 : 44 : return gimple_fold_builtin_fputs (gsi, gimple_call_arg (stmt, 0),
5393 : 44 : gimple_call_arg (stmt, 1), true);
5394 : 26052 : case BUILT_IN_MEMCPY_CHK:
5395 : 26052 : case BUILT_IN_MEMPCPY_CHK:
5396 : 26052 : case BUILT_IN_MEMMOVE_CHK:
5397 : 26052 : case BUILT_IN_MEMSET_CHK:
5398 : 26052 : return gimple_fold_builtin_memory_chk (gsi,
5399 : : gimple_call_arg (stmt, 0),
5400 : : gimple_call_arg (stmt, 1),
5401 : : gimple_call_arg (stmt, 2),
5402 : : gimple_call_arg (stmt, 3),
5403 : 26052 : fcode);
5404 : 4348 : case BUILT_IN_STPCPY:
5405 : 4348 : return gimple_fold_builtin_stpcpy (gsi);
5406 : 2803 : case BUILT_IN_STRCPY_CHK:
5407 : 2803 : case BUILT_IN_STPCPY_CHK:
5408 : 2803 : return gimple_fold_builtin_stxcpy_chk (gsi,
5409 : : gimple_call_arg (stmt, 0),
5410 : : gimple_call_arg (stmt, 1),
5411 : : gimple_call_arg (stmt, 2),
5412 : 2803 : fcode);
5413 : 3047 : case BUILT_IN_STRNCPY_CHK:
5414 : 3047 : case BUILT_IN_STPNCPY_CHK:
5415 : 3047 : return gimple_fold_builtin_stxncpy_chk (gsi,
5416 : : gimple_call_arg (stmt, 0),
5417 : : gimple_call_arg (stmt, 1),
5418 : : gimple_call_arg (stmt, 2),
5419 : : gimple_call_arg (stmt, 3),
5420 : 3047 : fcode);
5421 : 2917 : case BUILT_IN_SNPRINTF_CHK:
5422 : 2917 : case BUILT_IN_VSNPRINTF_CHK:
5423 : 2917 : return gimple_fold_builtin_snprintf_chk (gsi, fcode);
5424 : :
5425 : 725579 : case BUILT_IN_FPRINTF:
5426 : 725579 : case BUILT_IN_FPRINTF_UNLOCKED:
5427 : 725579 : case BUILT_IN_VFPRINTF:
5428 : 725579 : if (n == 2 || n == 3)
5429 : 104223 : return gimple_fold_builtin_fprintf (gsi,
5430 : : gimple_call_arg (stmt, 0),
5431 : : gimple_call_arg (stmt, 1),
5432 : : n == 3
5433 : 47204 : ? gimple_call_arg (stmt, 2)
5434 : : : NULL_TREE,
5435 : 57019 : fcode);
5436 : : break;
5437 : 2514 : case BUILT_IN_FPRINTF_CHK:
5438 : 2514 : case BUILT_IN_VFPRINTF_CHK:
5439 : 2514 : if (n == 3 || n == 4)
5440 : 4303 : return gimple_fold_builtin_fprintf (gsi,
5441 : : gimple_call_arg (stmt, 0),
5442 : : gimple_call_arg (stmt, 2),
5443 : : n == 4
5444 : 1971 : ? gimple_call_arg (stmt, 3)
5445 : : : NULL_TREE,
5446 : 2332 : fcode);
5447 : : break;
5448 : 195027 : case BUILT_IN_PRINTF:
5449 : 195027 : case BUILT_IN_PRINTF_UNLOCKED:
5450 : 195027 : case BUILT_IN_VPRINTF:
5451 : 195027 : if (n == 1 || n == 2)
5452 : 216603 : return gimple_fold_builtin_printf (gsi, gimple_call_arg (stmt, 0),
5453 : : n == 2
5454 : 103633 : ? gimple_call_arg (stmt, 1)
5455 : 112970 : : NULL_TREE, fcode);
5456 : : break;
5457 : 2571 : case BUILT_IN_PRINTF_CHK:
5458 : 2571 : case BUILT_IN_VPRINTF_CHK:
5459 : 2571 : if (n == 2 || n == 3)
5460 : 4401 : return gimple_fold_builtin_printf (gsi, gimple_call_arg (stmt, 1),
5461 : : n == 3
5462 : 2003 : ? gimple_call_arg (stmt, 2)
5463 : 2398 : : NULL_TREE, fcode);
5464 : : break;
5465 : 2858 : case BUILT_IN_ACC_ON_DEVICE:
5466 : 2858 : return gimple_fold_builtin_acc_on_device (gsi,
5467 : 2858 : gimple_call_arg (stmt, 0));
5468 : 106 : case BUILT_IN_OMP_IS_INITIAL_DEVICE:
5469 : 106 : return gimple_fold_builtin_omp_is_initial_device (gsi);
5470 : :
5471 : 43279 : case BUILT_IN_REALLOC:
5472 : 43279 : return gimple_fold_builtin_realloc (gsi);
5473 : :
5474 : 620 : case BUILT_IN_CLEAR_PADDING:
5475 : 620 : return gimple_fold_builtin_clear_padding (gsi);
5476 : :
5477 : 9518428 : default:;
5478 : : }
5479 : :
5480 : : /* Try the generic builtin folder. */
5481 : 9518428 : bool ignore = (gimple_call_lhs (stmt) == NULL);
5482 : 9518428 : tree result = fold_call_stmt (stmt, ignore);
5483 : 9518428 : if (result)
5484 : : {
5485 : 5554 : if (ignore)
5486 : 1150 : STRIP_NOPS (result);
5487 : : else
5488 : 4404 : result = fold_convert (gimple_call_return_type (stmt), result);
5489 : 5554 : gimplify_and_update_call_from_tree (gsi, result);
5490 : 5554 : return true;
5491 : : }
5492 : :
5493 : : return false;
5494 : : }
5495 : :
5496 : : /* Transform IFN_GOACC_DIM_SIZE and IFN_GOACC_DIM_POS internal
5497 : : function calls to constants, where possible. */
5498 : :
5499 : : static tree
5500 : 18801 : fold_internal_goacc_dim (const gimple *call)
5501 : : {
5502 : 18801 : int axis = oacc_get_ifn_dim_arg (call);
5503 : 18801 : int size = oacc_get_fn_dim_size (current_function_decl, axis);
5504 : 18801 : tree result = NULL_TREE;
5505 : 18801 : tree type = TREE_TYPE (gimple_call_lhs (call));
5506 : :
5507 : 18801 : switch (gimple_call_internal_fn (call))
5508 : : {
5509 : 8146 : case IFN_GOACC_DIM_POS:
5510 : : /* If the size is 1, we know the answer. */
5511 : 8146 : if (size == 1)
5512 : 8146 : result = build_int_cst (type, 0);
5513 : : break;
5514 : 10655 : case IFN_GOACC_DIM_SIZE:
5515 : : /* If the size is not dynamic, we know the answer. */
5516 : 10655 : if (size)
5517 : 10655 : result = build_int_cst (type, size);
5518 : : break;
5519 : : default:
5520 : : break;
5521 : : }
5522 : :
5523 : 18801 : return result;
5524 : : }
5525 : :
5526 : : /* Return true if stmt is __atomic_compare_exchange_N call which is suitable
5527 : : for conversion into ATOMIC_COMPARE_EXCHANGE if the second argument is
5528 : : &var where var is only addressable because of such calls. */
5529 : :
5530 : : bool
5531 : 54432622 : optimize_atomic_compare_exchange_p (gimple *stmt)
5532 : : {
5533 : 54432622 : if (gimple_call_num_args (stmt) != 6
5534 : 1380020 : || !flag_inline_atomics
5535 : 1380020 : || !optimize
5536 : 1380020 : || sanitize_flags_p (SANITIZE_THREAD | SANITIZE_ADDRESS)
5537 : 1379961 : || !gimple_call_builtin_p (stmt, BUILT_IN_NORMAL)
5538 : 855260 : || !gimple_vdef (stmt)
5539 : 55199365 : || !gimple_vuse (stmt))
5540 : 53665879 : return false;
5541 : :
5542 : 766743 : tree fndecl = gimple_call_fndecl (stmt);
5543 : 766743 : switch (DECL_FUNCTION_CODE (fndecl))
5544 : : {
5545 : 52604 : case BUILT_IN_ATOMIC_COMPARE_EXCHANGE_1:
5546 : 52604 : case BUILT_IN_ATOMIC_COMPARE_EXCHANGE_2:
5547 : 52604 : case BUILT_IN_ATOMIC_COMPARE_EXCHANGE_4:
5548 : 52604 : case BUILT_IN_ATOMIC_COMPARE_EXCHANGE_8:
5549 : 52604 : case BUILT_IN_ATOMIC_COMPARE_EXCHANGE_16:
5550 : 52604 : break;
5551 : : default:
5552 : : return false;
5553 : : }
5554 : :
5555 : 52604 : tree expected = gimple_call_arg (stmt, 1);
5556 : 52604 : if (TREE_CODE (expected) != ADDR_EXPR
5557 : 52604 : || !SSA_VAR_P (TREE_OPERAND (expected, 0)))
5558 : : return false;
5559 : :
5560 : 50346 : tree etype = TREE_TYPE (TREE_OPERAND (expected, 0));
5561 : 50346 : if (!is_gimple_reg_type (etype)
5562 : 49960 : || !auto_var_in_fn_p (TREE_OPERAND (expected, 0), current_function_decl)
5563 : 47562 : || TREE_THIS_VOLATILE (etype)
5564 : 47562 : || VECTOR_TYPE_P (etype)
5565 : : || TREE_CODE (etype) == COMPLEX_TYPE
5566 : : /* Don't optimize floating point expected vars, VIEW_CONVERT_EXPRs
5567 : : might not preserve all the bits. See PR71716. */
5568 : : || SCALAR_FLOAT_TYPE_P (etype)
5569 : 68432 : || maybe_ne (TYPE_PRECISION (etype),
5570 : 36172 : GET_MODE_BITSIZE (TYPE_MODE (etype))))
5571 : 38616 : return false;
5572 : :
5573 : 11730 : tree weak = gimple_call_arg (stmt, 3);
5574 : 11730 : if (!integer_zerop (weak) && !integer_onep (weak))
5575 : : return false;
5576 : :
5577 : 11730 : tree parmt = TYPE_ARG_TYPES (TREE_TYPE (fndecl));
5578 : 11730 : tree itype = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (parmt)));
5579 : 11730 : machine_mode mode = TYPE_MODE (itype);
5580 : :
5581 : 11730 : if (direct_optab_handler (atomic_compare_and_swap_optab, mode)
5582 : : == CODE_FOR_nothing
5583 : 11730 : && optab_handler (sync_compare_and_swap_optab, mode) == CODE_FOR_nothing)
5584 : : return false;
5585 : :
5586 : 23460 : if (maybe_ne (int_size_in_bytes (etype), GET_MODE_SIZE (mode)))
5587 : : return false;
5588 : :
5589 : : return true;
5590 : : }
5591 : :
5592 : : /* Fold
5593 : : r = __atomic_compare_exchange_N (p, &e, d, w, s, f);
5594 : : into
5595 : : _Complex uintN_t t = ATOMIC_COMPARE_EXCHANGE (p, e, d, w * 256 + N, s, f);
5596 : : i = IMAGPART_EXPR <t>;
5597 : : r = (_Bool) i;
5598 : : e = REALPART_EXPR <t>; */
5599 : :
5600 : : void
5601 : 5758 : fold_builtin_atomic_compare_exchange (gimple_stmt_iterator *gsi)
5602 : : {
5603 : 5758 : gimple *stmt = gsi_stmt (*gsi);
5604 : 5758 : tree fndecl = gimple_call_fndecl (stmt);
5605 : 5758 : tree parmt = TYPE_ARG_TYPES (TREE_TYPE (fndecl));
5606 : 5758 : tree itype = TREE_VALUE (TREE_CHAIN (TREE_CHAIN (parmt)));
5607 : 5758 : tree ctype = build_complex_type (itype);
5608 : 5758 : tree expected = TREE_OPERAND (gimple_call_arg (stmt, 1), 0);
5609 : 5758 : bool throws = false;
5610 : 5758 : edge e = NULL;
5611 : 5758 : gimple *g = gimple_build_assign (make_ssa_name (TREE_TYPE (expected)),
5612 : : expected);
5613 : 5758 : gsi_insert_before (gsi, g, GSI_SAME_STMT);
5614 : 5758 : gimple_stmt_iterator gsiret = gsi_for_stmt (g);
5615 : 5758 : if (!useless_type_conversion_p (itype, TREE_TYPE (expected)))
5616 : : {
5617 : 2585 : g = gimple_build_assign (make_ssa_name (itype), VIEW_CONVERT_EXPR,
5618 : : build1 (VIEW_CONVERT_EXPR, itype,
5619 : : gimple_assign_lhs (g)));
5620 : 2585 : gsi_insert_before (gsi, g, GSI_SAME_STMT);
5621 : : }
5622 : 5758 : int flag = (integer_onep (gimple_call_arg (stmt, 3)) ? 256 : 0)
5623 : 11054 : + int_size_in_bytes (itype);
5624 : 5758 : g = gimple_build_call_internal (IFN_ATOMIC_COMPARE_EXCHANGE, 6,
5625 : : gimple_call_arg (stmt, 0),
5626 : : gimple_assign_lhs (g),
5627 : : gimple_call_arg (stmt, 2),
5628 : 5758 : build_int_cst (integer_type_node, flag),
5629 : : gimple_call_arg (stmt, 4),
5630 : : gimple_call_arg (stmt, 5));
5631 : 5758 : tree lhs = make_ssa_name (ctype);
5632 : 5758 : gimple_call_set_lhs (g, lhs);
5633 : 5758 : gimple_move_vops (g, stmt);
5634 : 5758 : tree oldlhs = gimple_call_lhs (stmt);
5635 : 5758 : if (stmt_can_throw_internal (cfun, stmt))
5636 : : {
5637 : 203 : throws = true;
5638 : 203 : e = find_fallthru_edge (gsi_bb (*gsi)->succs);
5639 : : }
5640 : 5758 : gimple_call_set_nothrow (as_a <gcall *> (g),
5641 : 5758 : gimple_call_nothrow_p (as_a <gcall *> (stmt)));
5642 : 5758 : gimple_call_set_lhs (stmt, NULL_TREE);
5643 : 5758 : gsi_replace (gsi, g, true);
5644 : 5758 : if (oldlhs)
5645 : : {
5646 : 5705 : g = gimple_build_assign (make_ssa_name (itype), IMAGPART_EXPR,
5647 : : build1 (IMAGPART_EXPR, itype, lhs));
5648 : 5705 : if (throws)
5649 : : {
5650 : 197 : gsi_insert_on_edge_immediate (e, g);
5651 : 197 : *gsi = gsi_for_stmt (g);
5652 : : }
5653 : : else
5654 : 5508 : gsi_insert_after (gsi, g, GSI_NEW_STMT);
5655 : 5705 : g = gimple_build_assign (oldlhs, NOP_EXPR, gimple_assign_lhs (g));
5656 : 5705 : gsi_insert_after (gsi, g, GSI_NEW_STMT);
5657 : : }
5658 : 5758 : g = gimple_build_assign (make_ssa_name (itype), REALPART_EXPR,
5659 : : build1 (REALPART_EXPR, itype, lhs));
5660 : 5758 : if (throws && oldlhs == NULL_TREE)
5661 : : {
5662 : 6 : gsi_insert_on_edge_immediate (e, g);
5663 : 6 : *gsi = gsi_for_stmt (g);
5664 : : }
5665 : : else
5666 : 5752 : gsi_insert_after (gsi, g, GSI_NEW_STMT);
5667 : 5758 : if (!useless_type_conversion_p (TREE_TYPE (expected), itype))
5668 : : {
5669 : 5170 : g = gimple_build_assign (make_ssa_name (TREE_TYPE (expected)),
5670 : : VIEW_CONVERT_EXPR,
5671 : 2585 : build1 (VIEW_CONVERT_EXPR, TREE_TYPE (expected),
5672 : : gimple_assign_lhs (g)));
5673 : 2585 : gsi_insert_after (gsi, g, GSI_NEW_STMT);
5674 : : }
5675 : 5758 : g = gimple_build_assign (expected, SSA_NAME, gimple_assign_lhs (g));
5676 : 5758 : gsi_insert_after (gsi, g, GSI_NEW_STMT);
5677 : 5758 : *gsi = gsiret;
5678 : 5758 : }
5679 : :
5680 : : /* Return true if ARG0 CODE ARG1 in infinite signed precision operation
5681 : : doesn't fit into TYPE. The test for overflow should be regardless of
5682 : : -fwrapv, and even for unsigned types. */
5683 : :
5684 : : bool
5685 : 365953 : arith_overflowed_p (enum tree_code code, const_tree type,
5686 : : const_tree arg0, const_tree arg1)
5687 : : {
5688 : 365953 : widest2_int warg0 = widest2_int_cst (arg0);
5689 : 365953 : widest2_int warg1 = widest2_int_cst (arg1);
5690 : 365953 : widest2_int wres;
5691 : 365953 : switch (code)
5692 : : {
5693 : 95158 : case PLUS_EXPR: wres = wi::add (warg0, warg1); break;
5694 : 114870 : case MINUS_EXPR: wres = wi::sub (warg0, warg1); break;
5695 : 157102 : case MULT_EXPR: wres = wi::mul (warg0, warg1); break;
5696 : 0 : default: gcc_unreachable ();
5697 : : }
5698 : 365953 : signop sign = TYPE_SIGN (type);
5699 : 365953 : if (sign == UNSIGNED && wi::neg_p (wres))
5700 : : return true;
5701 : 294242 : return wi::min_precision (wres, sign) > TYPE_PRECISION (type);
5702 : 365965 : }
5703 : :
5704 : : /* If IFN_{MASK,LEN,MASK_LEN}_LOAD/STORE call CALL is unconditional,
5705 : : return a MEM_REF for the memory it references, otherwise return null.
5706 : : VECTYPE is the type of the memory vector. MASK_P indicates it's for
5707 : : MASK if true, otherwise it's for LEN. */
5708 : :
5709 : : static tree
5710 : 3106 : gimple_fold_partial_load_store_mem_ref (gcall *call, tree vectype, bool mask_p)
5711 : : {
5712 : 3106 : tree ptr = gimple_call_arg (call, 0);
5713 : 3106 : tree alias_align = gimple_call_arg (call, 1);
5714 : 3106 : if (!tree_fits_uhwi_p (alias_align))
5715 : : return NULL_TREE;
5716 : :
5717 : 3106 : if (mask_p)
5718 : : {
5719 : 3106 : tree mask = gimple_call_arg (call, 2);
5720 : 3106 : if (!integer_all_onesp (mask))
5721 : : return NULL_TREE;
5722 : : }
5723 : : else
5724 : : {
5725 : 0 : internal_fn ifn = gimple_call_internal_fn (call);
5726 : 0 : int len_index = internal_fn_len_index (ifn);
5727 : 0 : tree basic_len = gimple_call_arg (call, len_index);
5728 : 0 : if (!poly_int_tree_p (basic_len))
5729 : : return NULL_TREE;
5730 : 0 : tree bias = gimple_call_arg (call, len_index + 1);
5731 : 0 : gcc_assert (TREE_CODE (bias) == INTEGER_CST);
5732 : : /* For LEN_LOAD/LEN_STORE/MASK_LEN_LOAD/MASK_LEN_STORE,
5733 : : we don't fold when (bias + len) != VF. */
5734 : 0 : if (maybe_ne (wi::to_poly_widest (basic_len) + wi::to_widest (bias),
5735 : 0 : GET_MODE_NUNITS (TYPE_MODE (vectype))))
5736 : : return NULL_TREE;
5737 : :
5738 : : /* For MASK_LEN_{LOAD,STORE}, we should also check whether
5739 : : the mask is all ones mask. */
5740 : 0 : if (ifn == IFN_MASK_LEN_LOAD || ifn == IFN_MASK_LEN_STORE)
5741 : : {
5742 : 0 : tree mask = gimple_call_arg (call, internal_fn_mask_index (ifn));
5743 : 0 : if (!integer_all_onesp (mask))
5744 : : return NULL_TREE;
5745 : : }
5746 : : }
5747 : :
5748 : 25 : unsigned HOST_WIDE_INT align = tree_to_uhwi (alias_align);
5749 : 25 : if (TYPE_ALIGN (vectype) != align)
5750 : 14 : vectype = build_aligned_type (vectype, align);
5751 : 25 : tree offset = build_zero_cst (TREE_TYPE (alias_align));
5752 : 25 : return fold_build2 (MEM_REF, vectype, ptr, offset);
5753 : : }
5754 : :
5755 : : /* Try to fold IFN_{MASK,LEN}_LOAD call CALL. Return true on success.
5756 : : MASK_P indicates it's for MASK if true, otherwise it's for LEN. */
5757 : :
5758 : : static bool
5759 : 1558 : gimple_fold_partial_load (gimple_stmt_iterator *gsi, gcall *call, bool mask_p)
5760 : : {
5761 : 1558 : tree lhs = gimple_call_lhs (call);
5762 : 1558 : if (!lhs)
5763 : : return false;
5764 : :
5765 : 3116 : if (tree rhs
5766 : 1558 : = gimple_fold_partial_load_store_mem_ref (call, TREE_TYPE (lhs), mask_p))
5767 : : {
5768 : 11 : gassign *new_stmt = gimple_build_assign (lhs, rhs);
5769 : 11 : gimple_set_location (new_stmt, gimple_location (call));
5770 : 11 : gimple_move_vops (new_stmt, call);
5771 : 11 : gsi_replace (gsi, new_stmt, false);
5772 : 11 : return true;
5773 : : }
5774 : : return false;
5775 : : }
5776 : :
5777 : : /* Try to fold IFN_{MASK,LEN}_STORE call CALL. Return true on success.
5778 : : MASK_P indicates it's for MASK if true, otherwise it's for LEN. */
5779 : :
5780 : : static bool
5781 : 1548 : gimple_fold_partial_store (gimple_stmt_iterator *gsi, gcall *call,
5782 : : bool mask_p)
5783 : : {
5784 : 1548 : internal_fn ifn = gimple_call_internal_fn (call);
5785 : 1548 : tree rhs = gimple_call_arg (call, internal_fn_stored_value_index (ifn));
5786 : 3096 : if (tree lhs
5787 : 1548 : = gimple_fold_partial_load_store_mem_ref (call, TREE_TYPE (rhs), mask_p))
5788 : : {
5789 : 14 : gassign *new_stmt = gimple_build_assign (lhs, rhs);
5790 : 14 : gimple_set_location (new_stmt, gimple_location (call));
5791 : 14 : gimple_move_vops (new_stmt, call);
5792 : 14 : gsi_replace (gsi, new_stmt, false);
5793 : 14 : return true;
5794 : : }
5795 : : return false;
5796 : : }
5797 : :
5798 : : /* Attempt to fold a call statement referenced by the statement iterator GSI.
5799 : : The statement may be replaced by another statement, e.g., if the call
5800 : : simplifies to a constant value. Return true if any changes were made.
5801 : : It is assumed that the operands have been previously folded. */
5802 : :
5803 : : static bool
5804 : 52287677 : gimple_fold_call (gimple_stmt_iterator *gsi, bool inplace)
5805 : : {
5806 : 52287677 : gcall *stmt = as_a <gcall *> (gsi_stmt (*gsi));
5807 : 52287677 : tree callee;
5808 : 52287677 : bool changed = false;
5809 : :
5810 : : /* Check for virtual calls that became direct calls. */
5811 : 52287677 : callee = gimple_call_fn (stmt);
5812 : 52287677 : if (callee && TREE_CODE (callee) == OBJ_TYPE_REF)
5813 : : {
5814 : 437180 : if (gimple_call_addr_fndecl (OBJ_TYPE_REF_EXPR (callee)) != NULL_TREE)
5815 : : {
5816 : 6 : if (dump_file && virtual_method_call_p (callee)
5817 : 270 : && !possible_polymorphic_call_target_p
5818 : 6 : (callee, stmt, cgraph_node::get (gimple_call_addr_fndecl
5819 : 6 : (OBJ_TYPE_REF_EXPR (callee)))))
5820 : : {
5821 : 0 : fprintf (dump_file,
5822 : : "Type inheritance inconsistent devirtualization of ");
5823 : 0 : print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
5824 : 0 : fprintf (dump_file, " to ");
5825 : 0 : print_generic_expr (dump_file, callee, TDF_SLIM);
5826 : 0 : fprintf (dump_file, "\n");
5827 : : }
5828 : :
5829 : 264 : gimple_call_set_fn (stmt, OBJ_TYPE_REF_EXPR (callee));
5830 : 264 : changed = true;
5831 : : }
5832 : 436916 : else if (flag_devirtualize && !inplace && virtual_method_call_p (callee))
5833 : : {
5834 : 432414 : bool final;
5835 : 432414 : vec <cgraph_node *>targets
5836 : 432414 : = possible_polymorphic_call_targets (callee, stmt, &final);
5837 : 434978 : if (final && targets.length () <= 1 && dbg_cnt (devirt))
5838 : : {
5839 : 2011 : tree lhs = gimple_call_lhs (stmt);
5840 : 2011 : if (dump_enabled_p ())
5841 : : {
5842 : 34 : dump_printf_loc (MSG_OPTIMIZED_LOCATIONS, stmt,
5843 : : "folding virtual function call to %s\n",
5844 : 34 : targets.length () == 1
5845 : 17 : ? targets[0]->name ()
5846 : : : "__builtin_unreachable");
5847 : : }
5848 : 2011 : if (targets.length () == 1)
5849 : : {
5850 : 1968 : tree fndecl = targets[0]->decl;
5851 : 1968 : gimple_call_set_fndecl (stmt, fndecl);
5852 : 1968 : changed = true;
5853 : : /* If changing the call to __cxa_pure_virtual
5854 : : or similar noreturn function, adjust gimple_call_fntype
5855 : : too. */
5856 : 1968 : if (gimple_call_noreturn_p (stmt)
5857 : 19 : && VOID_TYPE_P (TREE_TYPE (TREE_TYPE (fndecl)))
5858 : 13 : && TYPE_ARG_TYPES (TREE_TYPE (fndecl))
5859 : 1981 : && (TREE_VALUE (TYPE_ARG_TYPES (TREE_TYPE (fndecl)))
5860 : 13 : == void_type_node))
5861 : 13 : gimple_call_set_fntype (stmt, TREE_TYPE (fndecl));
5862 : : /* If the call becomes noreturn, remove the lhs. */
5863 : 1968 : if (lhs
5864 : 1673 : && gimple_call_noreturn_p (stmt)
5865 : 1983 : && (VOID_TYPE_P (TREE_TYPE (gimple_call_fntype (stmt)))
5866 : 6 : || should_remove_lhs_p (lhs)))
5867 : : {
5868 : 12 : if (TREE_CODE (lhs) == SSA_NAME)
5869 : : {
5870 : 0 : tree var = create_tmp_var (TREE_TYPE (lhs));
5871 : 0 : tree def = get_or_create_ssa_default_def (cfun, var);
5872 : 0 : gimple *new_stmt = gimple_build_assign (lhs, def);
5873 : 0 : gsi_insert_before (gsi, new_stmt, GSI_SAME_STMT);
5874 : : }
5875 : 12 : gimple_call_set_lhs (stmt, NULL_TREE);
5876 : : }
5877 : 1968 : maybe_remove_unused_call_args (cfun, stmt);
5878 : : }
5879 : : else
5880 : : {
5881 : 43 : location_t loc = gimple_location (stmt);
5882 : 43 : gimple *new_stmt = gimple_build_builtin_unreachable (loc);
5883 : 43 : gimple_call_set_ctrl_altering (new_stmt, false);
5884 : : /* If the call had a SSA name as lhs morph that into
5885 : : an uninitialized value. */
5886 : 43 : if (lhs && TREE_CODE (lhs) == SSA_NAME)
5887 : : {
5888 : 13 : tree var = create_tmp_var (TREE_TYPE (lhs));
5889 : 13 : SET_SSA_NAME_VAR_OR_IDENTIFIER (lhs, var);
5890 : 13 : SSA_NAME_DEF_STMT (lhs) = gimple_build_nop ();
5891 : 13 : set_ssa_default_def (cfun, var, lhs);
5892 : : }
5893 : 43 : gimple_move_vops (new_stmt, stmt);
5894 : 43 : gsi_replace (gsi, new_stmt, false);
5895 : 43 : return true;
5896 : : }
5897 : : }
5898 : : }
5899 : : }
5900 : :
5901 : : /* Check for indirect calls that became direct calls, and then
5902 : : no longer require a static chain. */
5903 : 52287634 : if (gimple_call_chain (stmt))
5904 : : {
5905 : 245187 : tree fn = gimple_call_fndecl (stmt);
5906 : 293611 : if (fn && !DECL_STATIC_CHAIN (fn))
5907 : : {
5908 : 2024 : gimple_call_set_chain (stmt, NULL);
5909 : 2024 : changed = true;
5910 : : }
5911 : : }
5912 : :
5913 : 52287634 : if (inplace)
5914 : : return changed;
5915 : :
5916 : : /* Check for builtins that CCP can handle using information not
5917 : : available in the generic fold routines. */
5918 : 52285406 : if (gimple_call_builtin_p (stmt, BUILT_IN_NORMAL))
5919 : : {
5920 : 12634550 : if (gimple_fold_builtin (gsi))
5921 : 190727 : changed = true;
5922 : : }
5923 : 39650856 : else if (gimple_call_builtin_p (stmt, BUILT_IN_MD))
5924 : : {
5925 : 1100877 : changed |= targetm.gimple_fold_builtin (gsi);
5926 : : }
5927 : 38549979 : else if (gimple_call_internal_p (stmt))
5928 : : {
5929 : 1332199 : enum tree_code subcode = ERROR_MARK;
5930 : 1332199 : tree result = NULL_TREE;
5931 : 1332199 : bool cplx_result = false;
5932 : 1332199 : bool uaddc_usubc = false;
5933 : 1332199 : tree overflow = NULL_TREE;
5934 : 1332199 : switch (gimple_call_internal_fn (stmt))
5935 : : {
5936 : 142196 : case IFN_BUILTIN_EXPECT:
5937 : 142196 : result = fold_builtin_expect (gimple_location (stmt),
5938 : : gimple_call_arg (stmt, 0),
5939 : : gimple_call_arg (stmt, 1),
5940 : : gimple_call_arg (stmt, 2),
5941 : : NULL_TREE);
5942 : 142196 : break;
5943 : 8368 : case IFN_UBSAN_OBJECT_SIZE:
5944 : 8368 : {
5945 : 8368 : tree offset = gimple_call_arg (stmt, 1);
5946 : 8368 : tree objsize = gimple_call_arg (stmt, 2);
5947 : 8368 : if (integer_all_onesp (objsize)
5948 : 8368 : || (TREE_CODE (offset) == INTEGER_CST
5949 : 4578 : && TREE_CODE (objsize) == INTEGER_CST
5950 : 1142 : && tree_int_cst_le (offset, objsize)))
5951 : : {
5952 : 1483 : replace_call_with_value (gsi, NULL_TREE);
5953 : 1483 : return true;
5954 : : }
5955 : : }
5956 : : break;
5957 : 11117 : case IFN_UBSAN_PTR:
5958 : 11117 : if (integer_zerop (gimple_call_arg (stmt, 1)))
5959 : : {
5960 : 31 : replace_call_with_value (gsi, NULL_TREE);
5961 : 31 : return true;
5962 : : }
5963 : : break;
5964 : 6770 : case IFN_UBSAN_BOUNDS:
5965 : 6770 : {
5966 : 6770 : tree index = gimple_call_arg (stmt, 1);
5967 : 6770 : tree bound = gimple_call_arg (stmt, 2);
5968 : 6770 : if (TREE_CODE (index) == INTEGER_CST
5969 : 4225 : && TREE_CODE (bound) == INTEGER_CST)
5970 : : {
5971 : 4053 : index = fold_convert (TREE_TYPE (bound), index);
5972 : 4053 : if (TREE_CODE (index) == INTEGER_CST
5973 : 4053 : && tree_int_cst_lt (index, bound))
5974 : : {
5975 : 283 : replace_call_with_value (gsi, NULL_TREE);
5976 : 283 : return true;
5977 : : }
5978 : : }
5979 : : }
5980 : : break;
5981 : 18801 : case IFN_GOACC_DIM_SIZE:
5982 : 18801 : case IFN_GOACC_DIM_POS:
5983 : 18801 : result = fold_internal_goacc_dim (stmt);
5984 : 18801 : break;
5985 : : case IFN_UBSAN_CHECK_ADD:
5986 : : subcode = PLUS_EXPR;
5987 : : break;
5988 : : case IFN_UBSAN_CHECK_SUB:
5989 : : subcode = MINUS_EXPR;
5990 : : break;
5991 : : case IFN_UBSAN_CHECK_MUL:
5992 : : subcode = MULT_EXPR;
5993 : : break;
5994 : : case IFN_ADD_OVERFLOW:
5995 : : subcode = PLUS_EXPR;
5996 : : cplx_result = true;
5997 : : break;
5998 : : case IFN_SUB_OVERFLOW:
5999 : : subcode = MINUS_EXPR;
6000 : : cplx_result = true;
6001 : : break;
6002 : : case IFN_MUL_OVERFLOW:
6003 : : subcode = MULT_EXPR;
6004 : : cplx_result = true;
6005 : : break;
6006 : : case IFN_UADDC:
6007 : : subcode = PLUS_EXPR;
6008 : : cplx_result = true;
6009 : : uaddc_usubc = true;
6010 : : break;
6011 : : case IFN_USUBC:
6012 : : subcode = MINUS_EXPR;
6013 : : cplx_result = true;
6014 : : uaddc_usubc = true;
6015 : : break;
6016 : 1558 : case IFN_MASK_LOAD:
6017 : 1558 : changed |= gimple_fold_partial_load (gsi, stmt, true);
6018 : 1558 : break;
6019 : 1548 : case IFN_MASK_STORE:
6020 : 1548 : changed |= gimple_fold_partial_store (gsi, stmt, true);
6021 : 1548 : break;
6022 : 0 : case IFN_LEN_LOAD:
6023 : 0 : case IFN_MASK_LEN_LOAD:
6024 : 0 : changed |= gimple_fold_partial_load (gsi, stmt, false);
6025 : 0 : break;
6026 : 0 : case IFN_LEN_STORE:
6027 : 0 : case IFN_MASK_LEN_STORE:
6028 : 0 : changed |= gimple_fold_partial_store (gsi, stmt, false);
6029 : 0 : break;
6030 : : default:
6031 : : break;
6032 : : }
6033 : 164103 : if (subcode != ERROR_MARK)
6034 : : {
6035 : 480627 : tree arg0 = gimple_call_arg (stmt, 0);
6036 : 480627 : tree arg1 = gimple_call_arg (stmt, 1);
6037 : 480627 : tree arg2 = NULL_TREE;
6038 : 480627 : tree type = TREE_TYPE (arg0);
6039 : 480627 : if (cplx_result)
6040 : : {
6041 : 461616 : tree lhs = gimple_call_lhs (stmt);
6042 : 461616 : if (lhs == NULL_TREE)
6043 : : type = NULL_TREE;
6044 : : else
6045 : 461616 : type = TREE_TYPE (TREE_TYPE (lhs));
6046 : 461616 : if (uaddc_usubc)
6047 : 30643 : arg2 = gimple_call_arg (stmt, 2);
6048 : : }
6049 : 480627 : if (type == NULL_TREE)
6050 : : ;
6051 : 480627 : else if (uaddc_usubc)
6052 : : {
6053 : 30643 : if (!integer_zerop (arg2))
6054 : : ;
6055 : : /* x = y + 0 + 0; x = y - 0 - 0; */
6056 : 4777 : else if (integer_zerop (arg1))
6057 : : result = arg0;
6058 : : /* x = 0 + y + 0; */
6059 : 4161 : else if (subcode != MINUS_EXPR && integer_zerop (arg0))
6060 : : result = arg1;
6061 : : /* x = y - y - 0; */
6062 : 4161 : else if (subcode == MINUS_EXPR
6063 : 4161 : && operand_equal_p (arg0, arg1, 0))
6064 : 0 : result = integer_zero_node;
6065 : : }
6066 : : /* x = y + 0; x = y - 0; x = y * 0; */
6067 : 449984 : else if (integer_zerop (arg1))
6068 : 10086 : result = subcode == MULT_EXPR ? integer_zero_node : arg0;
6069 : : /* x = 0 + y; x = 0 * y; */
6070 : 439898 : else if (subcode != MINUS_EXPR && integer_zerop (arg0))
6071 : 0 : result = subcode == MULT_EXPR ? integer_zero_node : arg1;
6072 : : /* x = y - y; */
6073 : 439898 : else if (subcode == MINUS_EXPR && operand_equal_p (arg0, arg1, 0))
6074 : 6 : result = integer_zero_node;
6075 : : /* x = y * 1; x = 1 * y; */
6076 : 439892 : else if (subcode == MULT_EXPR && integer_onep (arg1))
6077 : : result = arg0;
6078 : 436628 : else if (subcode == MULT_EXPR && integer_onep (arg0))
6079 : : result = arg1;
6080 : 480627 : if (result)
6081 : : {
6082 : 13972 : if (result == integer_zero_node)
6083 : 2139 : result = build_zero_cst (type);
6084 : 11833 : else if (cplx_result && TREE_TYPE (result) != type)
6085 : : {
6086 : 9600 : if (TREE_CODE (result) == INTEGER_CST)
6087 : : {
6088 : 0 : if (arith_overflowed_p (PLUS_EXPR, type, result,
6089 : : integer_zero_node))
6090 : 0 : overflow = build_one_cst (type);
6091 : : }
6092 : 9600 : else if ((!TYPE_UNSIGNED (TREE_TYPE (result))
6093 : 6919 : && TYPE_UNSIGNED (type))
6094 : 9745 : || (TYPE_PRECISION (type)
6095 : 2826 : < (TYPE_PRECISION (TREE_TYPE (result))
6096 : 2826 : + (TYPE_UNSIGNED (TREE_TYPE (result))
6097 : 3145 : && !TYPE_UNSIGNED (type)))))
6098 : : result = NULL_TREE;
6099 : 58 : if (result)
6100 : 58 : result = fold_convert (type, result);
6101 : : }
6102 : : }
6103 : : }
6104 : :
6105 : 854205 : if (result)
6106 : : {
6107 : 25029 : if (TREE_CODE (result) == INTEGER_CST && TREE_OVERFLOW (result))
6108 : 0 : result = drop_tree_overflow (result);
6109 : 25029 : if (cplx_result)
6110 : : {
6111 : 4415 : if (overflow == NULL_TREE)
6112 : 4415 : overflow = build_zero_cst (TREE_TYPE (result));
6113 : 4415 : tree ctype = build_complex_type (TREE_TYPE (result));
6114 : 4415 : if (TREE_CODE (result) == INTEGER_CST
6115 : 2139 : && TREE_CODE (overflow) == INTEGER_CST)
6116 : 2139 : result = build_complex (ctype, result, overflow);
6117 : : else
6118 : 2276 : result = build2_loc (gimple_location (stmt), COMPLEX_EXPR,
6119 : : ctype, result, overflow);
6120 : : }
6121 : 25029 : gimplify_and_update_call_from_tree (gsi, result);
6122 : 25029 : changed = true;
6123 : : }
6124 : : }
6125 : :
6126 : : return changed;
6127 : : }
6128 : :
6129 : :
6130 : : /* Return true whether NAME has a use on STMT. Note this can return
6131 : : false even though there's a use on STMT if SSA operands are not
6132 : : up-to-date. */
6133 : :
6134 : : static bool
6135 : 1570 : has_use_on_stmt (tree name, gimple *stmt)
6136 : : {
6137 : 1570 : ssa_op_iter iter;
6138 : 1570 : tree op;
6139 : 3175 : FOR_EACH_SSA_TREE_OPERAND (op, stmt, iter, SSA_OP_USE)
6140 : 1651 : if (op == name)
6141 : : return true;
6142 : : return false;
6143 : : }
6144 : :
6145 : : /* Add the lhs of each statement of SEQ to DCE_WORKLIST. */
6146 : :
6147 : : static void
6148 : 8141776 : mark_lhs_in_seq_for_dce (bitmap dce_worklist, gimple_seq seq)
6149 : : {
6150 : 8141776 : if (!dce_worklist)
6151 : : return;
6152 : :
6153 : 3020676 : for (gimple_stmt_iterator i = gsi_start (seq);
6154 : 3205186 : !gsi_end_p (i); gsi_next (&i))
6155 : : {
6156 : 184510 : gimple *stmt = gsi_stmt (i);
6157 : 184510 : tree name = gimple_get_lhs (stmt);
6158 : 184510 : if (name && TREE_CODE (name) == SSA_NAME)
6159 : 184510 : bitmap_set_bit (dce_worklist, SSA_NAME_VERSION (name));
6160 : : }
6161 : : }
6162 : :
6163 : : /* Worker for fold_stmt_1 dispatch to pattern based folding with
6164 : : gimple_simplify.
6165 : :
6166 : : Replaces *GSI with the simplification result in RCODE and OPS
6167 : : and the associated statements in *SEQ. Does the replacement
6168 : : according to INPLACE and returns true if the operation succeeded. */
6169 : :
6170 : : static bool
6171 : 8144127 : replace_stmt_with_simplification (gimple_stmt_iterator *gsi,
6172 : : gimple_match_op *res_op,
6173 : : gimple_seq *seq, bool inplace,
6174 : : bitmap dce_worklist)
6175 : : {
6176 : 8144127 : gimple *stmt = gsi_stmt (*gsi);
6177 : 8144127 : tree *ops = res_op->ops;
6178 : 8144127 : unsigned int num_ops = res_op->num_ops;
6179 : :
6180 : : /* Play safe and do not allow abnormals to be mentioned in
6181 : : newly created statements. See also maybe_push_res_to_seq.
6182 : : As an exception allow such uses if there was a use of the
6183 : : same SSA name on the old stmt. */
6184 : 17937563 : for (unsigned int i = 0; i < num_ops; ++i)
6185 : 9794960 : if (TREE_CODE (ops[i]) == SSA_NAME
6186 : 6084276 : && SSA_NAME_OCCURS_IN_ABNORMAL_PHI (ops[i])
6187 : 9796530 : && !has_use_on_stmt (ops[i], stmt))
6188 : : return false;
6189 : :
6190 : 8142603 : if (num_ops > 0 && COMPARISON_CLASS_P (ops[0]))
6191 : 0 : for (unsigned int i = 0; i < 2; ++i)
6192 : 0 : if (TREE_CODE (TREE_OPERAND (ops[0], i)) == SSA_NAME
6193 : 0 : && SSA_NAME_OCCURS_IN_ABNORMAL_PHI (TREE_OPERAND (ops[0], i))
6194 : 0 : && !has_use_on_stmt (TREE_OPERAND (ops[0], i), stmt))
6195 : : return false;
6196 : :
6197 : : /* Don't insert new statements when INPLACE is true, even if we could
6198 : : reuse STMT for the final statement. */
6199 : 8142603 : if (inplace && !gimple_seq_empty_p (*seq))
6200 : : return false;
6201 : :
6202 : 8142603 : if (gcond *cond_stmt = dyn_cast <gcond *> (stmt))
6203 : : {
6204 : 6207099 : gcc_assert (res_op->code.is_tree_code ());
6205 : 6207099 : auto code = tree_code (res_op->code);
6206 : 6207099 : if (TREE_CODE_CLASS (code) == tcc_comparison
6207 : : /* GIMPLE_CONDs condition may not throw. */
6208 : 6207099 : && (!flag_exceptions
6209 : 683251 : || !cfun->can_throw_non_call_exceptions
6210 : 286434 : || !operation_could_trap_p (code,
6211 : 286434 : FLOAT_TYPE_P (TREE_TYPE (ops[0])),
6212 : : false, NULL_TREE)))
6213 : 1005641 : gimple_cond_set_condition (cond_stmt, code, ops[0], ops[1]);
6214 : 5201458 : else if (code == SSA_NAME)
6215 : 3680890 : gimple_cond_set_condition (cond_stmt, NE_EXPR, ops[0],
6216 : 3680890 : build_zero_cst (TREE_TYPE (ops[0])));
6217 : 1520568 : else if (code == INTEGER_CST)
6218 : : {
6219 : 985428 : if (integer_zerop (ops[0]))
6220 : 693028 : gimple_cond_make_false (cond_stmt);
6221 : : else
6222 : 292400 : gimple_cond_make_true (cond_stmt);
6223 : : }
6224 : 535140 : else if (!inplace)
6225 : : {
6226 : 535140 : tree res = maybe_push_res_to_seq (res_op, seq);
6227 : 535140 : if (!res)
6228 : : return false;
6229 : 535140 : gimple_cond_set_condition (cond_stmt, NE_EXPR, res,
6230 : 535140 : build_zero_cst (TREE_TYPE (res)));
6231 : : }
6232 : : else
6233 : : return false;
6234 : 6207099 : if (dump_file && (dump_flags & TDF_DETAILS))
6235 : : {
6236 : 884 : fprintf (dump_file, "gimple_simplified to ");
6237 : 884 : if (!gimple_seq_empty_p (*seq))
6238 : 0 : print_gimple_seq (dump_file, *seq, 0, TDF_SLIM);
6239 : 884 : print_gimple_stmt (dump_file, gsi_stmt (*gsi),
6240 : : 0, TDF_SLIM);
6241 : : }
6242 : : // Mark the lhs of the new statements maybe for dce
6243 : 6207099 : mark_lhs_in_seq_for_dce (dce_worklist, *seq);
6244 : 6207099 : gsi_insert_seq_before (gsi, *seq, GSI_SAME_STMT);
6245 : 6207099 : return true;
6246 : : }
6247 : 1935504 : else if (is_gimple_assign (stmt)
6248 : 1935504 : && res_op->code.is_tree_code ())
6249 : : {
6250 : 1863494 : auto code = tree_code (res_op->code);
6251 : 1863494 : if (!inplace
6252 : 1863494 : || gimple_num_ops (stmt) > get_gimple_rhs_num_ops (code))
6253 : : {
6254 : 1863494 : maybe_build_generic_op (res_op);
6255 : 4319252 : gimple_assign_set_rhs_with_ops (gsi, code,
6256 : : res_op->op_or_null (0),
6257 : : res_op->op_or_null (1),
6258 : : res_op->op_or_null (2));
6259 : 1863494 : if (dump_file && (dump_flags & TDF_DETAILS))
6260 : : {
6261 : 10700 : fprintf (dump_file, "gimple_simplified to ");
6262 : 10700 : if (!gimple_seq_empty_p (*seq))
6263 : 58 : print_gimple_seq (dump_file, *seq, 0, TDF_SLIM);
6264 : 10700 : print_gimple_stmt (dump_file, gsi_stmt (*gsi),
6265 : : 0, TDF_SLIM);
6266 : : }
6267 : : // Mark the lhs of the new statements maybe for dce
6268 : 1863494 : mark_lhs_in_seq_for_dce (dce_worklist, *seq);
6269 : 1863494 : gsi_insert_seq_before (gsi, *seq, GSI_SAME_STMT);
6270 : 1863494 : return true;
6271 : : }
6272 : : }
6273 : 72010 : else if (res_op->code.is_fn_code ()
6274 : 72010 : && gimple_call_combined_fn (stmt) == combined_fn (res_op->code))
6275 : : {
6276 : 7758 : gcc_assert (num_ops == gimple_call_num_args (stmt));
6277 : 23082 : for (unsigned int i = 0; i < num_ops; ++i)
6278 : 15324 : gimple_call_set_arg (stmt, i, ops[i]);
6279 : 7758 : if (dump_file && (dump_flags & TDF_DETAILS))
6280 : : {
6281 : 0 : fprintf (dump_file, "gimple_simplified to ");
6282 : 0 : if (!gimple_seq_empty_p (*seq))
6283 : 0 : print_gimple_seq (dump_file, *seq, 0, TDF_SLIM);
6284 : 0 : print_gimple_stmt (dump_file, gsi_stmt (*gsi), 0, TDF_SLIM);
6285 : : }
6286 : : // Mark the lhs of the new statements maybe for dce
6287 : 7758 : mark_lhs_in_seq_for_dce (dce_worklist, *seq);
6288 : 7758 : gsi_insert_seq_before (gsi, *seq, GSI_SAME_STMT);
6289 : 7758 : return true;
6290 : : }
6291 : 64252 : else if (!inplace)
6292 : : {
6293 : 126894 : if (gimple_has_lhs (stmt))
6294 : : {
6295 : 64252 : tree lhs = gimple_get_lhs (stmt);
6296 : 64252 : if (!maybe_push_res_to_seq (res_op, seq, lhs))
6297 : : return false;
6298 : 63425 : if (dump_file && (dump_flags & TDF_DETAILS))
6299 : : {
6300 : 10 : fprintf (dump_file, "gimple_simplified to ");
6301 : 10 : print_gimple_seq (dump_file, *seq, 0, TDF_SLIM);
6302 : : }
6303 : : // Mark the lhs of the new statements maybe for dce
6304 : 63425 : mark_lhs_in_seq_for_dce (dce_worklist, *seq);
6305 : 63425 : gsi_replace_with_seq_vops (gsi, *seq);
6306 : 63425 : return true;
6307 : : }
6308 : : else
6309 : 0 : gcc_unreachable ();
6310 : : }
6311 : :
6312 : : return false;
6313 : : }
6314 : :
6315 : : /* Canonicalize MEM_REFs invariant address operand after propagation. */
6316 : :
6317 : : static bool
6318 : 169544048 : maybe_canonicalize_mem_ref_addr (tree *t, bool is_debug = false)
6319 : : {
6320 : 169544048 : bool res = false;
6321 : 169544048 : tree *orig_t = t;
6322 : :
6323 : 169544048 : if (TREE_CODE (*t) == ADDR_EXPR)
6324 : 51128287 : t = &TREE_OPERAND (*t, 0);
6325 : :
6326 : : /* The C and C++ frontends use an ARRAY_REF for indexing with their
6327 : : generic vector extension. The actual vector referenced is
6328 : : view-converted to an array type for this purpose. If the index
6329 : : is constant the canonical representation in the middle-end is a
6330 : : BIT_FIELD_REF so re-write the former to the latter here. */
6331 : 169544048 : if (TREE_CODE (*t) == ARRAY_REF
6332 : 9901961 : && TREE_CODE (TREE_OPERAND (*t, 0)) == VIEW_CONVERT_EXPR
6333 : 141834 : && TREE_CODE (TREE_OPERAND (*t, 1)) == INTEGER_CST
6334 : 169586682 : && VECTOR_TYPE_P (TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*t, 0), 0))))
6335 : : {
6336 : 15493 : tree vtype = TREE_TYPE (TREE_OPERAND (TREE_OPERAND (*t, 0), 0));
6337 : 15493 : if (VECTOR_TYPE_P (vtype))
6338 : : {
6339 : 15493 : tree low = array_ref_low_bound (*t);
6340 : 15493 : if (TREE_CODE (low) == INTEGER_CST)
6341 : : {
6342 : 15493 : if (tree_int_cst_le (low, TREE_OPERAND (*t, 1)))
6343 : : {
6344 : 30942 : widest_int idx = wi::sub (wi::to_widest (TREE_OPERAND (*t, 1)),
6345 : 30942 : wi::to_widest (low));
6346 : 15471 : idx = wi::mul (idx, wi::to_widest
6347 : 30942 : (TYPE_SIZE (TREE_TYPE (*t))));
6348 : 15471 : widest_int ext
6349 : 15471 : = wi::add (idx, wi::to_widest (TYPE_SIZE (TREE_TYPE (*t))));
6350 : 15471 : if (maybe_le (ext, wi::to_poly_widest (TYPE_SIZE (vtype))))
6351 : : {
6352 : 30346 : *t = build3_loc (EXPR_LOCATION (*t), BIT_FIELD_REF,
6353 : 15173 : TREE_TYPE (*t),
6354 : 15173 : TREE_OPERAND (TREE_OPERAND (*t, 0), 0),
6355 : 15173 : TYPE_SIZE (TREE_TYPE (*t)),
6356 : 15173 : wide_int_to_tree (bitsizetype, idx));
6357 : 15173 : res = true;
6358 : : }
6359 : 15471 : }
6360 : : }
6361 : : }
6362 : : }
6363 : :
6364 : 325422341 : while (handled_component_p (*t))
6365 : 155878293 : t = &TREE_OPERAND (*t, 0);
6366 : :
6367 : : /* Canonicalize MEM [&foo.bar, 0] which appears after propagating
6368 : : of invariant addresses into a SSA name MEM_REF address. */
6369 : 169544048 : if (TREE_CODE (*t) == MEM_REF
6370 : 169544048 : || TREE_CODE (*t) == TARGET_MEM_REF)
6371 : : {
6372 : 87568313 : tree addr = TREE_OPERAND (*t, 0);
6373 : 87568313 : if (TREE_CODE (addr) == ADDR_EXPR
6374 : 87568313 : && (TREE_CODE (TREE_OPERAND (addr, 0)) == MEM_REF
6375 : 25249277 : || handled_component_p (TREE_OPERAND (addr, 0))))
6376 : : {
6377 : 468056 : tree base;
6378 : 468056 : poly_int64 coffset;
6379 : 468056 : base = get_addr_base_and_unit_offset (TREE_OPERAND (addr, 0),
6380 : : &coffset);
6381 : 468056 : if (!base)
6382 : : {
6383 : 18 : if (is_debug)
6384 : 18 : return false;
6385 : 0 : gcc_unreachable ();
6386 : : }
6387 : :
6388 : 468038 : TREE_OPERAND (*t, 0) = build_fold_addr_expr (base);
6389 : 468038 : TREE_OPERAND (*t, 1) = int_const_binop (PLUS_EXPR,
6390 : 468038 : TREE_OPERAND (*t, 1),
6391 : 468038 : size_int (coffset));
6392 : 468038 : res = true;
6393 : : }
6394 : 87568295 : gcc_checking_assert (TREE_CODE (TREE_OPERAND (*t, 0)) == DEBUG_EXPR_DECL
6395 : : || is_gimple_mem_ref_addr (TREE_OPERAND (*t, 0)));
6396 : : }
6397 : :
6398 : : /* Canonicalize back MEM_REFs to plain reference trees if the object
6399 : : accessed is a decl that has the same access semantics as the MEM_REF. */
6400 : 169544030 : if (TREE_CODE (*t) == MEM_REF
6401 : 85806528 : && TREE_CODE (TREE_OPERAND (*t, 0)) == ADDR_EXPR
6402 : 24948401 : && integer_zerop (TREE_OPERAND (*t, 1))
6403 : 183991280 : && MR_DEPENDENCE_CLIQUE (*t) == 0)
6404 : : {
6405 : 8995524 : tree decl = TREE_OPERAND (TREE_OPERAND (*t, 0), 0);
6406 : 8995524 : tree alias_type = TREE_TYPE (TREE_OPERAND (*t, 1));
6407 : 8995524 : if (/* Same volatile qualification. */
6408 : 8995524 : TREE_THIS_VOLATILE (*t) == TREE_THIS_VOLATILE (decl)
6409 : : /* Same TBAA behavior with -fstrict-aliasing. */
6410 : 8992715 : && !TYPE_REF_CAN_ALIAS_ALL (alias_type)
6411 : 8768060 : && (TYPE_MAIN_VARIANT (TREE_TYPE (decl))
6412 : 8768060 : == TYPE_MAIN_VARIANT (TREE_TYPE (alias_type)))
6413 : : /* Same alignment. */
6414 : 3325652 : && TYPE_ALIGN (TREE_TYPE (decl)) == TYPE_ALIGN (TREE_TYPE (*t))
6415 : : /* We have to look out here to not drop a required conversion
6416 : : from the rhs to the lhs if *t appears on the lhs or vice-versa
6417 : : if it appears on the rhs. Thus require strict type
6418 : : compatibility. */
6419 : 12077989 : && types_compatible_p (TREE_TYPE (*t), TREE_TYPE (decl)))
6420 : : {
6421 : 2065079 : *t = TREE_OPERAND (TREE_OPERAND (*t, 0), 0);
6422 : 2065079 : res = true;
6423 : : }
6424 : : }
6425 : :
6426 : 160548506 : else if (TREE_CODE (*orig_t) == ADDR_EXPR
6427 : 49175203 : && TREE_CODE (*t) == MEM_REF
6428 : 178049694 : && TREE_CODE (TREE_OPERAND (*t, 0)) == INTEGER_CST)
6429 : : {
6430 : 742 : tree base;
6431 : 742 : poly_int64 coffset;
6432 : 742 : base = get_addr_base_and_unit_offset (TREE_OPERAND (*orig_t, 0),
6433 : : &coffset);
6434 : 742 : if (base)
6435 : : {
6436 : 675 : gcc_assert (TREE_CODE (base) == MEM_REF);
6437 : 675 : poly_int64 moffset;
6438 : 675 : if (mem_ref_offset (base).to_shwi (&moffset))
6439 : : {
6440 : 675 : coffset += moffset;
6441 : 675 : if (wi::to_poly_wide (TREE_OPERAND (base, 0)).to_shwi (&moffset))
6442 : : {
6443 : 675 : coffset += moffset;
6444 : 675 : *orig_t = build_int_cst (TREE_TYPE (*orig_t), coffset);
6445 : 675 : return true;
6446 : : }
6447 : : }
6448 : : }
6449 : : }
6450 : :
6451 : : /* Canonicalize TARGET_MEM_REF in particular with respect to
6452 : : the indexes becoming constant. */
6453 : 160547764 : else if (TREE_CODE (*t) == TARGET_MEM_REF)
6454 : : {
6455 : 1761767 : tree tem = maybe_fold_tmr (*t);
6456 : 1761767 : if (tem)
6457 : : {
6458 : 1450 : *t = tem;
6459 : 1450 : if (TREE_CODE (*orig_t) == ADDR_EXPR)
6460 : 0 : recompute_tree_invariant_for_addr_expr (*orig_t);
6461 : : res = true;
6462 : : }
6463 : : }
6464 : :
6465 : : return res;
6466 : : }
6467 : :
6468 : : /* Worker for both fold_stmt and fold_stmt_inplace. The INPLACE argument
6469 : : distinguishes both cases. */
6470 : :
6471 : : static bool
6472 : 652870545 : fold_stmt_1 (gimple_stmt_iterator *gsi, bool inplace, tree (*valueize) (tree),
6473 : : bitmap dce_worklist = nullptr)
6474 : : {
6475 : 652870545 : bool changed = false;
6476 : 652870545 : gimple *stmt = gsi_stmt (*gsi);
6477 : 652870545 : bool nowarning = warning_suppressed_p (stmt, OPT_Wstrict_overflow);
6478 : 652870545 : unsigned i;
6479 : 652870545 : fold_defer_overflow_warnings ();
6480 : :
6481 : : /* First do required canonicalization of [TARGET_]MEM_REF addresses
6482 : : after propagation.
6483 : : ??? This shouldn't be done in generic folding but in the
6484 : : propagation helpers which also know whether an address was
6485 : : propagated.
6486 : : Also canonicalize operand order. */
6487 : 652870545 : switch (gimple_code (stmt))
6488 : : {
6489 : 235649455 : case GIMPLE_ASSIGN:
6490 : 235649455 : if (gimple_assign_rhs_class (stmt) == GIMPLE_SINGLE_RHS)
6491 : : {
6492 : 155444103 : tree *rhs = gimple_assign_rhs1_ptr (stmt);
6493 : 155444103 : if ((REFERENCE_CLASS_P (*rhs)
6494 : 98603320 : || TREE_CODE (*rhs) == ADDR_EXPR)
6495 : 169024044 : && maybe_canonicalize_mem_ref_addr (rhs))
6496 : : changed = true;
6497 : 155444103 : tree *lhs = gimple_assign_lhs_ptr (stmt);
6498 : 155444103 : if (REFERENCE_CLASS_P (*lhs)
6499 : 155444103 : && maybe_canonicalize_mem_ref_addr (lhs))
6500 : : changed = true;
6501 : : /* Canonicalize &MEM[ssa_n, CST] to ssa_n p+ CST.
6502 : : This cannot be done in maybe_canonicalize_mem_ref_addr
6503 : : as the gimple now has two operands rather than one.
6504 : : The same reason why this can't be done in
6505 : : maybe_canonicalize_mem_ref_addr is the same reason why
6506 : : this can't be done inplace. */
6507 : 155444103 : if (!inplace && TREE_CODE (*rhs) == ADDR_EXPR)
6508 : : {
6509 : 13397232 : tree inner = TREE_OPERAND (*rhs, 0);
6510 : 13397232 : if (TREE_CODE (inner) == MEM_REF
6511 : 858676 : && TREE_CODE (TREE_OPERAND (inner, 0)) == SSA_NAME
6512 : 13445405 : && TREE_CODE (TREE_OPERAND (inner, 1)) == INTEGER_CST)
6513 : : {
6514 : 48173 : tree ptr = TREE_OPERAND (inner, 0);
6515 : 48173 : tree addon = TREE_OPERAND (inner, 1);
6516 : 48173 : addon = fold_convert (sizetype, addon);
6517 : 48173 : gimple_assign_set_rhs_with_ops (gsi, POINTER_PLUS_EXPR,
6518 : : ptr, addon);
6519 : 48173 : changed = true;
6520 : 48173 : stmt = gsi_stmt (*gsi);
6521 : : }
6522 : : }
6523 : : }
6524 : : else
6525 : : {
6526 : : /* Canonicalize operand order. */
6527 : 80205352 : enum tree_code code = gimple_assign_rhs_code (stmt);
6528 : 80205352 : if (TREE_CODE_CLASS (code) == tcc_comparison
6529 : 74830438 : || commutative_tree_code (code)
6530 : 120820022 : || commutative_ternary_tree_code (code))
6531 : : {
6532 : 39591229 : tree rhs1 = gimple_assign_rhs1 (stmt);
6533 : 39591229 : tree rhs2 = gimple_assign_rhs2 (stmt);
6534 : 39591229 : if (tree_swap_operands_p (rhs1, rhs2))
6535 : : {
6536 : 3054270 : gimple_assign_set_rhs1 (stmt, rhs2);
6537 : 3054270 : gimple_assign_set_rhs2 (stmt, rhs1);
6538 : 3054270 : if (TREE_CODE_CLASS (code) == tcc_comparison)
6539 : 269380 : gimple_assign_set_rhs_code (stmt,
6540 : : swap_tree_comparison (code));
6541 : : changed = true;
6542 : : }
6543 : : }
6544 : : }
6545 : : break;
6546 : 52338613 : case GIMPLE_CALL:
6547 : 52338613 : {
6548 : 52338613 : gcall *call = as_a<gcall *> (stmt);
6549 : 157714872 : for (i = 0; i < gimple_call_num_args (call); ++i)
6550 : : {
6551 : 105376259 : tree *arg = gimple_call_arg_ptr (call, i);
6552 : 105376259 : if (REFERENCE_CLASS_P (*arg)
6553 : 105376259 : && maybe_canonicalize_mem_ref_addr (arg))
6554 : : changed = true;
6555 : : }
6556 : 52338613 : tree *lhs = gimple_call_lhs_ptr (call);
6557 : 52338613 : if (*lhs
6558 : 21138100 : && REFERENCE_CLASS_P (*lhs)
6559 : 52457499 : && maybe_canonicalize_mem_ref_addr (lhs))
6560 : : changed = true;
6561 : 52338613 : if (*lhs)
6562 : : {
6563 : 21138100 : combined_fn cfn = gimple_call_combined_fn (call);
6564 : 21138100 : internal_fn ifn = associated_internal_fn (cfn, TREE_TYPE (*lhs));
6565 : 21138100 : int opno = first_commutative_argument (ifn);
6566 : 21138100 : if (opno >= 0)
6567 : : {
6568 : 343397 : tree arg1 = gimple_call_arg (call, opno);
6569 : 343397 : tree arg2 = gimple_call_arg (call, opno + 1);
6570 : 343397 : if (tree_swap_operands_p (arg1, arg2))
6571 : : {
6572 : 22869 : gimple_call_set_arg (call, opno, arg2);
6573 : 22869 : gimple_call_set_arg (call, opno + 1, arg1);
6574 : 22869 : changed = true;
6575 : : }
6576 : : }
6577 : : }
6578 : : break;
6579 : : }
6580 : 553050 : case GIMPLE_ASM:
6581 : 553050 : {
6582 : 553050 : gasm *asm_stmt = as_a <gasm *> (stmt);
6583 : 1145564 : for (i = 0; i < gimple_asm_noutputs (asm_stmt); ++i)
6584 : : {
6585 : 592514 : tree link = gimple_asm_output_op (asm_stmt, i);
6586 : 592514 : tree op = TREE_VALUE (link);
6587 : 592514 : if (REFERENCE_CLASS_P (op)
6588 : 592514 : && maybe_canonicalize_mem_ref_addr (&TREE_VALUE (link)))
6589 : : changed = true;
6590 : : }
6591 : 917425 : for (i = 0; i < gimple_asm_ninputs (asm_stmt); ++i)
6592 : : {
6593 : 364375 : tree link = gimple_asm_input_op (asm_stmt, i);
6594 : 364375 : tree op = TREE_VALUE (link);
6595 : 364375 : if ((REFERENCE_CLASS_P (op)
6596 : 358772 : || TREE_CODE (op) == ADDR_EXPR)
6597 : 395022 : && maybe_canonicalize_mem_ref_addr (&TREE_VALUE (link)))
6598 : : changed = true;
6599 : : }
6600 : : }
6601 : : break;
6602 : 306108741 : case GIMPLE_DEBUG:
6603 : 306108741 : if (gimple_debug_bind_p (stmt))
6604 : : {
6605 : 230113469 : tree *val = gimple_debug_bind_get_value_ptr (stmt);
6606 : 230113469 : if (*val
6607 : 133337830 : && (REFERENCE_CLASS_P (*val)
6608 : 131537103 : || TREE_CODE (*val) == ADDR_EXPR)
6609 : 269431895 : && maybe_canonicalize_mem_ref_addr (val, true))
6610 : : changed = true;
6611 : : }
6612 : : break;
6613 : 39411426 : case GIMPLE_COND:
6614 : 39411426 : {
6615 : : /* Canonicalize operand order. */
6616 : 39411426 : tree lhs = gimple_cond_lhs (stmt);
6617 : 39411426 : tree rhs = gimple_cond_rhs (stmt);
6618 : 39411426 : if (tree_swap_operands_p (lhs, rhs))
6619 : : {
6620 : 1284032 : gcond *gc = as_a <gcond *> (stmt);
6621 : 1284032 : gimple_cond_set_lhs (gc, rhs);
6622 : 1284032 : gimple_cond_set_rhs (gc, lhs);
6623 : 1284032 : gimple_cond_set_code (gc,
6624 : : swap_tree_comparison (gimple_cond_code (gc)));
6625 : 1284032 : changed = true;
6626 : : }
6627 : : }
6628 : 651511171 : default:;
6629 : : }
6630 : :
6631 : : /* Dispatch to pattern-based folding. */
6632 : 651511171 : if (!inplace
6633 : 2872557 : || is_gimple_assign (stmt)
6634 : 652287774 : || gimple_code (stmt) == GIMPLE_COND)
6635 : : {
6636 : 652093942 : gimple_seq seq = NULL;
6637 : 652093942 : gimple_match_op res_op;
6638 : 1302091930 : if (gimple_simplify (stmt, &res_op, inplace ? NULL : &seq,
6639 : : valueize, valueize))
6640 : : {
6641 : 8144127 : if (replace_stmt_with_simplification (gsi, &res_op, &seq, inplace,
6642 : : dce_worklist))
6643 : : changed = true;
6644 : : else
6645 : 2351 : gimple_seq_discard (seq);
6646 : : }
6647 : : }
6648 : :
6649 : 652870545 : stmt = gsi_stmt (*gsi);
6650 : :
6651 : : /* Fold the main computation performed by the statement. */
6652 : 652870545 : switch (gimple_code (stmt))
6653 : : {
6654 : 235700391 : case GIMPLE_ASSIGN:
6655 : 235700391 : {
6656 : 235700391 : if (gimple_assign_load_p (stmt) && gimple_store_p (stmt))
6657 : : {
6658 : 8505554 : if (optimize_memcpy_to_memset (gsi, gimple_assign_lhs (stmt),
6659 : : gimple_assign_rhs1 (stmt),
6660 : : /* len = */NULL_TREE))
6661 : : {
6662 : : changed = true;
6663 : : break;
6664 : : }
6665 : : }
6666 : : /* Try to canonicalize for boolean-typed X the comparisons
6667 : : X == 0, X == 1, X != 0, and X != 1. */
6668 : 235694298 : if (gimple_assign_rhs_code (stmt) == EQ_EXPR
6669 : 235694298 : || gimple_assign_rhs_code (stmt) == NE_EXPR)
6670 : : {
6671 : 2892781 : tree lhs = gimple_assign_lhs (stmt);
6672 : 2892781 : tree op1 = gimple_assign_rhs1 (stmt);
6673 : 2892781 : tree op2 = gimple_assign_rhs2 (stmt);
6674 : 2892781 : tree type = TREE_TYPE (op1);
6675 : :
6676 : : /* Check whether the comparison operands are of the same boolean
6677 : : type as the result type is.
6678 : : Check that second operand is an integer-constant with value
6679 : : one or zero. */
6680 : 2892781 : if (TREE_CODE (op2) == INTEGER_CST
6681 : 1997158 : && (integer_zerop (op2) || integer_onep (op2))
6682 : 4368543 : && useless_type_conversion_p (TREE_TYPE (lhs), type))
6683 : : {
6684 : 4765 : enum tree_code cmp_code = gimple_assign_rhs_code (stmt);
6685 : 4765 : bool is_logical_not = false;
6686 : :
6687 : : /* X == 0 and X != 1 is a logical-not.of X
6688 : : X == 1 and X != 0 is X */
6689 : 3960 : if ((cmp_code == EQ_EXPR && integer_zerop (op2))
6690 : 4765 : || (cmp_code == NE_EXPR && integer_onep (op2)))
6691 : 4723 : is_logical_not = true;
6692 : :
6693 : 4765 : if (is_logical_not == false)
6694 : 42 : gimple_assign_set_rhs_with_ops (gsi, TREE_CODE (op1), op1);
6695 : : /* Only for one-bit precision typed X the transformation
6696 : : !X -> ~X is valied. */
6697 : 4723 : else if (TYPE_PRECISION (type) == 1)
6698 : 4723 : gimple_assign_set_rhs_with_ops (gsi, BIT_NOT_EXPR, op1);
6699 : : /* Otherwise we use !X -> X ^ 1. */
6700 : : else
6701 : 0 : gimple_assign_set_rhs_with_ops (gsi, BIT_XOR_EXPR, op1,
6702 : 0 : build_int_cst (type, 1));
6703 : : changed = true;
6704 : : break;
6705 : : }
6706 : : }
6707 : :
6708 : 235689533 : unsigned old_num_ops = gimple_num_ops (stmt);
6709 : 235689533 : tree lhs = gimple_assign_lhs (stmt);
6710 : 235689533 : tree new_rhs = fold_gimple_assign (gsi);
6711 : 235689533 : if (new_rhs
6712 : 235797699 : && !useless_type_conversion_p (TREE_TYPE (lhs),
6713 : 108166 : TREE_TYPE (new_rhs)))
6714 : 0 : new_rhs = fold_convert (TREE_TYPE (lhs), new_rhs);
6715 : 235689533 : if (new_rhs
6716 : 235689533 : && (!inplace
6717 : 676 : || get_gimple_rhs_num_ops (TREE_CODE (new_rhs)) < old_num_ops))
6718 : : {
6719 : 108166 : gimple_assign_set_rhs_from_tree (gsi, new_rhs);
6720 : 108166 : changed = true;
6721 : : }
6722 : : break;
6723 : : }
6724 : :
6725 : 52287677 : case GIMPLE_CALL:
6726 : 52287677 : changed |= gimple_fold_call (gsi, inplace);
6727 : 52287677 : break;
6728 : :
6729 : 306108741 : case GIMPLE_DEBUG:
6730 : 306108741 : if (gimple_debug_bind_p (stmt))
6731 : : {
6732 : 230113469 : tree val = gimple_debug_bind_get_value (stmt);
6733 : 230113469 : if (val && REFERENCE_CLASS_P (val))
6734 : : {
6735 : 1799149 : tree tem = maybe_fold_reference (val);
6736 : 1799149 : if (tem)
6737 : : {
6738 : 283 : gimple_debug_bind_set_value (stmt, tem);
6739 : 283 : changed = true;
6740 : : }
6741 : : }
6742 : : }
6743 : : break;
6744 : :
6745 : 9912069 : case GIMPLE_RETURN:
6746 : 9912069 : {
6747 : 9912069 : greturn *ret_stmt = as_a<greturn *> (stmt);
6748 : 9912069 : tree ret = gimple_return_retval(ret_stmt);
6749 : :
6750 : 9912069 : if (ret && TREE_CODE (ret) == SSA_NAME && valueize)
6751 : : {
6752 : 4178685 : tree val = valueize (ret);
6753 : 4178685 : if (val && val != ret
6754 : 4178685 : && may_propagate_copy (ret, val))
6755 : : {
6756 : 0 : gimple_return_set_retval (ret_stmt, val);
6757 : 0 : changed = true;
6758 : : }
6759 : : }
6760 : : }
6761 : : break;
6762 : :
6763 : 652870545 : default:;
6764 : : }
6765 : :
6766 : 652870545 : stmt = gsi_stmt (*gsi);
6767 : :
6768 : 652870545 : fold_undefer_overflow_warnings (changed && !nowarning, stmt, 0);
6769 : 652870545 : return changed;
6770 : : }
6771 : :
6772 : : /* Valueziation callback that ends up not following SSA edges. */
6773 : :
6774 : : tree
6775 : 4039572717 : no_follow_ssa_edges (tree)
6776 : : {
6777 : 4039572717 : return NULL_TREE;
6778 : : }
6779 : :
6780 : : /* Valueization callback that ends up following single-use SSA edges only. */
6781 : :
6782 : : tree
6783 : 663886286 : follow_single_use_edges (tree val)
6784 : : {
6785 : 663886286 : if (TREE_CODE (val) == SSA_NAME
6786 : 663886286 : && !has_single_use (val))
6787 : 336161039 : return NULL_TREE;
6788 : : return val;
6789 : : }
6790 : :
6791 : : /* Valueization callback that follows all SSA edges. */
6792 : :
6793 : : tree
6794 : 153568067 : follow_all_ssa_edges (tree val)
6795 : : {
6796 : 153568067 : return val;
6797 : : }
6798 : :
6799 : : /* Fold the statement pointed to by GSI. In some cases, this function may
6800 : : replace the whole statement with a new one. Returns true iff folding
6801 : : makes any changes.
6802 : : The statement pointed to by GSI should be in valid gimple form but may
6803 : : be in unfolded state as resulting from for example constant propagation
6804 : : which can produce *&x = 0. */
6805 : :
6806 : : bool
6807 : 127740335 : fold_stmt (gimple_stmt_iterator *gsi, bitmap dce_bitmap)
6808 : : {
6809 : 127740335 : return fold_stmt_1 (gsi, false, no_follow_ssa_edges, dce_bitmap);
6810 : : }
6811 : :
6812 : : bool
6813 : 522257653 : fold_stmt (gimple_stmt_iterator *gsi, tree (*valueize) (tree), bitmap dce_bitmap)
6814 : : {
6815 : 522257653 : return fold_stmt_1 (gsi, false, valueize, dce_bitmap);
6816 : : }
6817 : :
6818 : : /* Perform the minimal folding on statement *GSI. Only operations like
6819 : : *&x created by constant propagation are handled. The statement cannot
6820 : : be replaced with a new one. Return true if the statement was
6821 : : changed, false otherwise.
6822 : : The statement *GSI should be in valid gimple form but may
6823 : : be in unfolded state as resulting from for example constant propagation
6824 : : which can produce *&x = 0. */
6825 : :
6826 : : bool
6827 : 2872557 : fold_stmt_inplace (gimple_stmt_iterator *gsi)
6828 : : {
6829 : 2872557 : gimple *stmt = gsi_stmt (*gsi);
6830 : 2872557 : bool changed = fold_stmt_1 (gsi, true, no_follow_ssa_edges);
6831 : 2872557 : gcc_assert (gsi_stmt (*gsi) == stmt);
6832 : 2872557 : return changed;
6833 : : }
6834 : :
6835 : : /* Canonicalize and possibly invert the boolean EXPR; return NULL_TREE
6836 : : if EXPR is null or we don't know how.
6837 : : If non-null, the result always has boolean type. */
6838 : :
6839 : : static tree
6840 : 275034 : canonicalize_bool (tree expr, bool invert)
6841 : : {
6842 : 275034 : if (!expr)
6843 : : return NULL_TREE;
6844 : 58 : else if (invert)
6845 : : {
6846 : 42 : if (integer_nonzerop (expr))
6847 : 0 : return boolean_false_node;
6848 : 42 : else if (integer_zerop (expr))
6849 : 0 : return boolean_true_node;
6850 : 42 : else if (TREE_CODE (expr) == SSA_NAME)
6851 : 0 : return fold_build2 (EQ_EXPR, boolean_type_node, expr,
6852 : : build_int_cst (TREE_TYPE (expr), 0));
6853 : 42 : else if (COMPARISON_CLASS_P (expr))
6854 : 42 : return fold_build2 (invert_tree_comparison (TREE_CODE (expr), false),
6855 : : boolean_type_node,
6856 : : TREE_OPERAND (expr, 0),
6857 : : TREE_OPERAND (expr, 1));
6858 : : else
6859 : : return NULL_TREE;
6860 : : }
6861 : : else
6862 : : {
6863 : 16 : if (TREE_CODE (TREE_TYPE (expr)) == BOOLEAN_TYPE)
6864 : : return expr;
6865 : 0 : if (integer_nonzerop (expr))
6866 : 0 : return boolean_true_node;
6867 : 0 : else if (integer_zerop (expr))
6868 : 0 : return boolean_false_node;
6869 : 0 : else if (TREE_CODE (expr) == SSA_NAME)
6870 : 0 : return fold_build2 (NE_EXPR, boolean_type_node, expr,
6871 : : build_int_cst (TREE_TYPE (expr), 0));
6872 : 0 : else if (COMPARISON_CLASS_P (expr))
6873 : 0 : return fold_build2 (TREE_CODE (expr),
6874 : : boolean_type_node,
6875 : : TREE_OPERAND (expr, 0),
6876 : : TREE_OPERAND (expr, 1));
6877 : : else
6878 : : return NULL_TREE;
6879 : : }
6880 : : }
6881 : :
6882 : : /* Check to see if a boolean expression EXPR is logically equivalent to the
6883 : : comparison (OP1 CODE OP2). Check for various identities involving
6884 : : SSA_NAMEs. */
6885 : :
6886 : : static bool
6887 : 1848 : same_bool_comparison_p (const_tree expr, enum tree_code code,
6888 : : const_tree op1, const_tree op2)
6889 : : {
6890 : 1848 : gimple *s;
6891 : :
6892 : : /* The obvious case. */
6893 : 1848 : if (TREE_CODE (expr) == code
6894 : 48 : && operand_equal_p (TREE_OPERAND (expr, 0), op1, 0)
6895 : 1896 : && operand_equal_p (TREE_OPERAND (expr, 1), op2, 0))
6896 : : return true;
6897 : :
6898 : : /* Check for comparing (name, name != 0) and the case where expr
6899 : : is an SSA_NAME with a definition matching the comparison. */
6900 : 1832 : if (TREE_CODE (expr) == SSA_NAME
6901 : 1832 : && TREE_CODE (TREE_TYPE (expr)) == BOOLEAN_TYPE)
6902 : : {
6903 : 0 : if (operand_equal_p (expr, op1, 0))
6904 : 0 : return ((code == NE_EXPR && integer_zerop (op2))
6905 : 0 : || (code == EQ_EXPR && integer_nonzerop (op2)));
6906 : 0 : s = SSA_NAME_DEF_STMT (expr);
6907 : 0 : if (is_gimple_assign (s)
6908 : 0 : && gimple_assign_rhs_code (s) == code
6909 : 0 : && operand_equal_p (gimple_assign_rhs1 (s), op1, 0)
6910 : 0 : && operand_equal_p (gimple_assign_rhs2 (s), op2, 0))
6911 : : return true;
6912 : : }
6913 : :
6914 : : /* If op1 is of the form (name != 0) or (name == 0), and the definition
6915 : : of name is a comparison, recurse. */
6916 : 1832 : if (TREE_CODE (op1) == SSA_NAME
6917 : 1832 : && TREE_CODE (TREE_TYPE (op1)) == BOOLEAN_TYPE)
6918 : : {
6919 : 455 : s = SSA_NAME_DEF_STMT (op1);
6920 : 455 : if (is_gimple_assign (s)
6921 : 455 : && TREE_CODE_CLASS (gimple_assign_rhs_code (s)) == tcc_comparison)
6922 : : {
6923 : 0 : enum tree_code c = gimple_assign_rhs_code (s);
6924 : 0 : if ((c == NE_EXPR && integer_zerop (op2))
6925 : 0 : || (c == EQ_EXPR && integer_nonzerop (op2)))
6926 : 0 : return same_bool_comparison_p (expr, c,
6927 : 0 : gimple_assign_rhs1 (s),
6928 : 0 : gimple_assign_rhs2 (s));
6929 : 0 : if ((c == EQ_EXPR && integer_zerop (op2))
6930 : 0 : || (c == NE_EXPR && integer_nonzerop (op2)))
6931 : 0 : return same_bool_comparison_p (expr,
6932 : : invert_tree_comparison (c, false),
6933 : 0 : gimple_assign_rhs1 (s),
6934 : 0 : gimple_assign_rhs2 (s));
6935 : : }
6936 : : }
6937 : : return false;
6938 : : }
6939 : :
6940 : : /* Check to see if two boolean expressions OP1 and OP2 are logically
6941 : : equivalent. */
6942 : :
6943 : : static bool
6944 : 25 : same_bool_result_p (const_tree op1, const_tree op2)
6945 : : {
6946 : : /* Simple cases first. */
6947 : 25 : if (operand_equal_p (op1, op2, 0))
6948 : : return true;
6949 : :
6950 : : /* Check the cases where at least one of the operands is a comparison.
6951 : : These are a bit smarter than operand_equal_p in that they apply some
6952 : : identifies on SSA_NAMEs. */
6953 : 17 : if (COMPARISON_CLASS_P (op2)
6954 : 34 : && same_bool_comparison_p (op1, TREE_CODE (op2),
6955 : 17 : TREE_OPERAND (op2, 0),
6956 : 17 : TREE_OPERAND (op2, 1)))
6957 : : return true;
6958 : 17 : if (COMPARISON_CLASS_P (op1)
6959 : 34 : && same_bool_comparison_p (op2, TREE_CODE (op1),
6960 : 17 : TREE_OPERAND (op1, 0),
6961 : 17 : TREE_OPERAND (op1, 1)))
6962 : : return true;
6963 : :
6964 : : /* Default case. */
6965 : : return false;
6966 : : }
6967 : :
6968 : : /* Forward declarations for some mutually recursive functions. */
6969 : :
6970 : : static tree
6971 : : and_comparisons_1 (tree type, enum tree_code code1, tree op1a, tree op1b,
6972 : : enum tree_code code2, tree op2a, tree op2b, basic_block);
6973 : : static tree
6974 : : and_var_with_comparison (tree type, tree var, bool invert,
6975 : : enum tree_code code2, tree op2a, tree op2b,
6976 : : basic_block);
6977 : : static tree
6978 : : and_var_with_comparison_1 (tree type, gimple *stmt,
6979 : : enum tree_code code2, tree op2a, tree op2b,
6980 : : basic_block);
6981 : : static tree
6982 : : or_comparisons_1 (tree, enum tree_code code1, tree op1a, tree op1b,
6983 : : enum tree_code code2, tree op2a, tree op2b,
6984 : : basic_block);
6985 : : static tree
6986 : : or_var_with_comparison (tree, tree var, bool invert,
6987 : : enum tree_code code2, tree op2a, tree op2b,
6988 : : basic_block);
6989 : : static tree
6990 : : or_var_with_comparison_1 (tree, gimple *stmt,
6991 : : enum tree_code code2, tree op2a, tree op2b,
6992 : : basic_block);
6993 : :
6994 : : /* Helper function for and_comparisons_1: try to simplify the AND of the
6995 : : ssa variable VAR with the comparison specified by (OP2A CODE2 OP2B).
6996 : : If INVERT is true, invert the value of the VAR before doing the AND.
6997 : : Return NULL_EXPR if we can't simplify this to a single expression. */
6998 : :
6999 : : static tree
7000 : 235446 : and_var_with_comparison (tree type, tree var, bool invert,
7001 : : enum tree_code code2, tree op2a, tree op2b,
7002 : : basic_block outer_cond_bb)
7003 : : {
7004 : 235446 : tree t;
7005 : 235446 : gimple *stmt = SSA_NAME_DEF_STMT (var);
7006 : :
7007 : : /* We can only deal with variables whose definitions are assignments. */
7008 : 235446 : if (!is_gimple_assign (stmt))
7009 : : return NULL_TREE;
7010 : :
7011 : : /* If we have an inverted comparison, apply DeMorgan's law and rewrite
7012 : : !var AND (op2a code2 op2b) => !(var OR !(op2a code2 op2b))
7013 : : Then we only have to consider the simpler non-inverted cases. */
7014 : 234796 : if (invert)
7015 : 143398 : t = or_var_with_comparison_1 (type, stmt,
7016 : : invert_tree_comparison (code2, false),
7017 : : op2a, op2b, outer_cond_bb);
7018 : : else
7019 : 91398 : t = and_var_with_comparison_1 (type, stmt, code2, op2a, op2b,
7020 : : outer_cond_bb);
7021 : 234796 : return canonicalize_bool (t, invert);
7022 : : }
7023 : :
7024 : : /* Try to simplify the AND of the ssa variable defined by the assignment
7025 : : STMT with the comparison specified by (OP2A CODE2 OP2B).
7026 : : Return NULL_EXPR if we can't simplify this to a single expression. */
7027 : :
7028 : : static tree
7029 : 112688 : and_var_with_comparison_1 (tree type, gimple *stmt,
7030 : : enum tree_code code2, tree op2a, tree op2b,
7031 : : basic_block outer_cond_bb)
7032 : : {
7033 : 112688 : tree var = gimple_assign_lhs (stmt);
7034 : 112688 : tree true_test_var = NULL_TREE;
7035 : 112688 : tree false_test_var = NULL_TREE;
7036 : 112688 : enum tree_code innercode = gimple_assign_rhs_code (stmt);
7037 : :
7038 : : /* Check for identities like (var AND (var == 0)) => false. */
7039 : 112688 : if (TREE_CODE (op2a) == SSA_NAME
7040 : 112688 : && TREE_CODE (TREE_TYPE (var)) == BOOLEAN_TYPE)
7041 : : {
7042 : 8357 : if ((code2 == NE_EXPR && integer_zerop (op2b))
7043 : 25182 : || (code2 == EQ_EXPR && integer_nonzerop (op2b)))
7044 : : {
7045 : 7318 : true_test_var = op2a;
7046 : 7318 : if (var == true_test_var)
7047 : : return var;
7048 : : }
7049 : 6216 : else if ((code2 == EQ_EXPR && integer_zerop (op2b))
7050 : 20245 : || (code2 == NE_EXPR && integer_nonzerop (op2b)))
7051 : : {
7052 : 3378 : false_test_var = op2a;
7053 : 3378 : if (var == false_test_var)
7054 : 0 : return boolean_false_node;
7055 : : }
7056 : : }
7057 : :
7058 : : /* If the definition is a comparison, recurse on it. */
7059 : 112688 : if (TREE_CODE_CLASS (innercode) == tcc_comparison)
7060 : : {
7061 : 4374 : tree t = and_comparisons_1 (type, innercode,
7062 : : gimple_assign_rhs1 (stmt),
7063 : : gimple_assign_rhs2 (stmt),
7064 : : code2,
7065 : : op2a,
7066 : : op2b, outer_cond_bb);
7067 : 4374 : if (t)
7068 : : return t;
7069 : : }
7070 : :
7071 : : /* If the definition is an AND or OR expression, we may be able to
7072 : : simplify by reassociating. */
7073 : 112682 : if (TREE_CODE (TREE_TYPE (var)) == BOOLEAN_TYPE
7074 : 112682 : && (innercode == BIT_AND_EXPR || innercode == BIT_IOR_EXPR))
7075 : : {
7076 : 14325 : tree inner1 = gimple_assign_rhs1 (stmt);
7077 : 14325 : tree inner2 = gimple_assign_rhs2 (stmt);
7078 : 14325 : gimple *s;
7079 : 14325 : tree t;
7080 : 14325 : tree partial = NULL_TREE;
7081 : 14325 : bool is_and = (innercode == BIT_AND_EXPR);
7082 : :
7083 : : /* Check for boolean identities that don't require recursive examination
7084 : : of inner1/inner2:
7085 : : inner1 AND (inner1 AND inner2) => inner1 AND inner2 => var
7086 : : inner1 AND (inner1 OR inner2) => inner1
7087 : : !inner1 AND (inner1 AND inner2) => false
7088 : : !inner1 AND (inner1 OR inner2) => !inner1 AND inner2
7089 : : Likewise for similar cases involving inner2. */
7090 : 14325 : if (inner1 == true_test_var)
7091 : 0 : return (is_and ? var : inner1);
7092 : 14325 : else if (inner2 == true_test_var)
7093 : 0 : return (is_and ? var : inner2);
7094 : 14325 : else if (inner1 == false_test_var)
7095 : 0 : return (is_and
7096 : 0 : ? boolean_false_node
7097 : 0 : : and_var_with_comparison (type, inner2, false, code2, op2a,
7098 : : op2b, outer_cond_bb));
7099 : 14325 : else if (inner2 == false_test_var)
7100 : 0 : return (is_and
7101 : 0 : ? boolean_false_node
7102 : 0 : : and_var_with_comparison (type, inner1, false, code2, op2a,
7103 : : op2b, outer_cond_bb));
7104 : :
7105 : : /* Next, redistribute/reassociate the AND across the inner tests.
7106 : : Compute the first partial result, (inner1 AND (op2a code op2b)) */
7107 : 14325 : if (TREE_CODE (inner1) == SSA_NAME
7108 : 14325 : && is_gimple_assign (s = SSA_NAME_DEF_STMT (inner1))
7109 : 13542 : && TREE_CODE_CLASS (gimple_assign_rhs_code (s)) == tcc_comparison
7110 : 27149 : && (t = maybe_fold_and_comparisons (type, gimple_assign_rhs_code (s),
7111 : : gimple_assign_rhs1 (s),
7112 : : gimple_assign_rhs2 (s),
7113 : : code2, op2a, op2b,
7114 : : outer_cond_bb)))
7115 : : {
7116 : : /* Handle the AND case, where we are reassociating:
7117 : : (inner1 AND inner2) AND (op2a code2 op2b)
7118 : : => (t AND inner2)
7119 : : If the partial result t is a constant, we win. Otherwise
7120 : : continue on to try reassociating with the other inner test. */
7121 : 66 : if (is_and)
7122 : : {
7123 : 7 : if (integer_onep (t))
7124 : : return inner2;
7125 : 7 : else if (integer_zerop (t))
7126 : 0 : return boolean_false_node;
7127 : : }
7128 : :
7129 : : /* Handle the OR case, where we are redistributing:
7130 : : (inner1 OR inner2) AND (op2a code2 op2b)
7131 : : => (t OR (inner2 AND (op2a code2 op2b))) */
7132 : 59 : else if (integer_onep (t))
7133 : 0 : return boolean_true_node;
7134 : :
7135 : : /* Save partial result for later. */
7136 : : partial = t;
7137 : : }
7138 : :
7139 : : /* Compute the second partial result, (inner2 AND (op2a code op2b)) */
7140 : 14325 : if (TREE_CODE (inner2) == SSA_NAME
7141 : 14325 : && is_gimple_assign (s = SSA_NAME_DEF_STMT (inner2))
7142 : 14045 : && TREE_CODE_CLASS (gimple_assign_rhs_code (s)) == tcc_comparison
7143 : 27291 : && (t = maybe_fold_and_comparisons (type, gimple_assign_rhs_code (s),
7144 : : gimple_assign_rhs1 (s),
7145 : : gimple_assign_rhs2 (s),
7146 : : code2, op2a, op2b,
7147 : : outer_cond_bb)))
7148 : : {
7149 : : /* Handle the AND case, where we are reassociating:
7150 : : (inner1 AND inner2) AND (op2a code2 op2b)
7151 : : => (inner1 AND t) */
7152 : 55 : if (is_and)
7153 : : {
7154 : 16 : if (integer_onep (t))
7155 : : return inner1;
7156 : 16 : else if (integer_zerop (t))
7157 : 1 : return boolean_false_node;
7158 : : /* If both are the same, we can apply the identity
7159 : : (x AND x) == x. */
7160 : 15 : else if (partial && same_bool_result_p (t, partial))
7161 : : return t;
7162 : : }
7163 : :
7164 : : /* Handle the OR case. where we are redistributing:
7165 : : (inner1 OR inner2) AND (op2a code2 op2b)
7166 : : => (t OR (inner1 AND (op2a code2 op2b)))
7167 : : => (t OR partial) */
7168 : : else
7169 : : {
7170 : 39 : if (integer_onep (t))
7171 : 0 : return boolean_true_node;
7172 : 39 : else if (partial)
7173 : : {
7174 : : /* We already got a simplification for the other
7175 : : operand to the redistributed OR expression. The
7176 : : interesting case is when at least one is false.
7177 : : Or, if both are the same, we can apply the identity
7178 : : (x OR x) == x. */
7179 : 16 : if (integer_zerop (partial))
7180 : : return t;
7181 : 15 : else if (integer_zerop (t))
7182 : : return partial;
7183 : 13 : else if (same_bool_result_p (t, partial))
7184 : : return t;
7185 : : }
7186 : : }
7187 : : }
7188 : : }
7189 : : return NULL_TREE;
7190 : : }
7191 : :
7192 : : /* Try to simplify the AND of two comparisons defined by
7193 : : (OP1A CODE1 OP1B) and (OP2A CODE2 OP2B), respectively.
7194 : : If this can be done without constructing an intermediate value,
7195 : : return the resulting tree; otherwise NULL_TREE is returned.
7196 : : This function is deliberately asymmetric as it recurses on SSA_DEFs
7197 : : in the first comparison but not the second. */
7198 : :
7199 : : static tree
7200 : 855455 : and_comparisons_1 (tree type, enum tree_code code1, tree op1a, tree op1b,
7201 : : enum tree_code code2, tree op2a, tree op2b,
7202 : : basic_block outer_cond_bb)
7203 : : {
7204 : 855455 : tree truth_type = truth_type_for (TREE_TYPE (op1a));
7205 : :
7206 : : /* First check for ((x CODE1 y) AND (x CODE2 y)). */
7207 : 855455 : if (operand_equal_p (op1a, op2a, 0)
7208 : 855455 : && operand_equal_p (op1b, op2b, 0))
7209 : : {
7210 : : /* Result will be either NULL_TREE, or a combined comparison. */
7211 : 3680 : tree t = combine_comparisons (UNKNOWN_LOCATION,
7212 : : TRUTH_ANDIF_EXPR, code1, code2,
7213 : : truth_type, op1a, op1b);
7214 : 3680 : if (t)
7215 : : return t;
7216 : : }
7217 : :
7218 : : /* Likewise the swapped case of the above. */
7219 : 854591 : if (operand_equal_p (op1a, op2b, 0)
7220 : 854591 : && operand_equal_p (op1b, op2a, 0))
7221 : : {
7222 : : /* Result will be either NULL_TREE, or a combined comparison. */
7223 : 0 : tree t = combine_comparisons (UNKNOWN_LOCATION,
7224 : : TRUTH_ANDIF_EXPR, code1,
7225 : : swap_tree_comparison (code2),
7226 : : truth_type, op1a, op1b);
7227 : 0 : if (t)
7228 : : return t;
7229 : : }
7230 : :
7231 : : /* Perhaps the first comparison is (NAME != 0) or (NAME == 1) where
7232 : : NAME's definition is a truth value. See if there are any simplifications
7233 : : that can be done against the NAME's definition. */
7234 : 854591 : if (TREE_CODE (op1a) == SSA_NAME
7235 : 846694 : && (code1 == NE_EXPR || code1 == EQ_EXPR)
7236 : 1473738 : && (integer_zerop (op1b) || integer_onep (op1b)))
7237 : : {
7238 : 178365 : bool invert = ((code1 == EQ_EXPR && integer_zerop (op1b))
7239 : 312103 : || (code1 == NE_EXPR && integer_onep (op1b)));
7240 : 287343 : gimple *stmt = SSA_NAME_DEF_STMT (op1a);
7241 : 287343 : switch (gimple_code (stmt))
7242 : : {
7243 : 230239 : case GIMPLE_ASSIGN:
7244 : : /* Try to simplify by copy-propagating the definition. */
7245 : 230239 : return and_var_with_comparison (type, op1a, invert, code2, op2a,
7246 : 230239 : op2b, outer_cond_bb);
7247 : :
7248 : 29355 : case GIMPLE_PHI:
7249 : : /* If every argument to the PHI produces the same result when
7250 : : ANDed with the second comparison, we win.
7251 : : Do not do this unless the type is bool since we need a bool
7252 : : result here anyway. */
7253 : 29355 : if (TREE_CODE (TREE_TYPE (op1a)) == BOOLEAN_TYPE)
7254 : : {
7255 : : tree result = NULL_TREE;
7256 : : unsigned i;
7257 : 14177 : for (i = 0; i < gimple_phi_num_args (stmt); i++)
7258 : : {
7259 : 14177 : tree arg = gimple_phi_arg_def (stmt, i);
7260 : :
7261 : : /* If this PHI has itself as an argument, ignore it.
7262 : : If all the other args produce the same result,
7263 : : we're still OK. */
7264 : 14177 : if (arg == gimple_phi_result (stmt))
7265 : 0 : continue;
7266 : 14177 : else if (TREE_CODE (arg) == INTEGER_CST)
7267 : : {
7268 : 8210 : if (invert ? integer_nonzerop (arg) : integer_zerop (arg))
7269 : : {
7270 : 4710 : if (!result)
7271 : 2139 : result = boolean_false_node;
7272 : 2571 : else if (!integer_zerop (result))
7273 : : return NULL_TREE;
7274 : : }
7275 : 3500 : else if (!result)
7276 : 1902 : result = fold_build2 (code2, boolean_type_node,
7277 : : op2a, op2b);
7278 : 1598 : else if (!same_bool_comparison_p (result,
7279 : : code2, op2a, op2b))
7280 : : return NULL_TREE;
7281 : : }
7282 : 5967 : else if (TREE_CODE (arg) == SSA_NAME
7283 : 5967 : && !SSA_NAME_IS_DEFAULT_DEF (arg))
7284 : : {
7285 : 5964 : tree temp;
7286 : 5964 : gimple *def_stmt = SSA_NAME_DEF_STMT (arg);
7287 : : /* In simple cases we can look through PHI nodes,
7288 : : but we have to be careful with loops.
7289 : : See PR49073. */
7290 : 5964 : if (! dom_info_available_p (CDI_DOMINATORS)
7291 : 5964 : || gimple_bb (def_stmt) == gimple_bb (stmt)
7292 : 11928 : || dominated_by_p (CDI_DOMINATORS,
7293 : 5964 : gimple_bb (def_stmt),
7294 : 5964 : gimple_bb (stmt)))
7295 : 757 : return NULL_TREE;
7296 : 5207 : temp = and_var_with_comparison (type, arg, invert, code2,
7297 : : op2a, op2b,
7298 : : outer_cond_bb);
7299 : 5207 : if (!temp)
7300 : : return NULL_TREE;
7301 : 0 : else if (!result)
7302 : : result = temp;
7303 : 0 : else if (!same_bool_result_p (result, temp))
7304 : : return NULL_TREE;
7305 : : }
7306 : : else
7307 : : return NULL_TREE;
7308 : : }
7309 : : return result;
7310 : : }
7311 : :
7312 : : default:
7313 : : break;
7314 : : }
7315 : : }
7316 : : return NULL_TREE;
7317 : : }
7318 : :
7319 : : static basic_block fosa_bb;
7320 : : static vec<std::pair<tree, flow_sensitive_info_storage> > *fosa_unwind;
7321 : : static tree
7322 : 30081147 : follow_outer_ssa_edges (tree val)
7323 : : {
7324 : 30081147 : if (TREE_CODE (val) == SSA_NAME
7325 : 30081147 : && !SSA_NAME_IS_DEFAULT_DEF (val))
7326 : : {
7327 : 29686239 : basic_block def_bb = gimple_bb (SSA_NAME_DEF_STMT (val));
7328 : 29686239 : if (!def_bb
7329 : 9666812 : || def_bb == fosa_bb
7330 : 34906746 : || (dom_info_available_p (CDI_DOMINATORS)
7331 : 5220507 : && (def_bb == fosa_bb
7332 : 5220507 : || dominated_by_p (CDI_DOMINATORS, fosa_bb, def_bb))))
7333 : 26683303 : return val;
7334 : : /* We cannot temporarily rewrite stmts with undefined overflow
7335 : : behavior, so avoid expanding them. */
7336 : 5995775 : if ((ANY_INTEGRAL_TYPE_P (TREE_TYPE (val))
7337 : 239853 : || POINTER_TYPE_P (TREE_TYPE (val)))
7338 : 5906569 : && !TYPE_OVERFLOW_WRAPS (TREE_TYPE (val)))
7339 : : return NULL_TREE;
7340 : 1998770 : flow_sensitive_info_storage storage;
7341 : 1998770 : storage.save_and_clear (val);
7342 : : /* If the definition does not dominate fosa_bb temporarily reset
7343 : : flow-sensitive info. */
7344 : 1998770 : fosa_unwind->safe_push (std::make_pair (val, storage));
7345 : 1998770 : return val;
7346 : : }
7347 : : return val;
7348 : : }
7349 : :
7350 : : /* Helper function for maybe_fold_and_comparisons and maybe_fold_or_comparisons
7351 : : : try to simplify the AND/OR of the ssa variable VAR with the comparison
7352 : : specified by (OP2A CODE2 OP2B) from match.pd. Return NULL_EXPR if we can't
7353 : : simplify this to a single expression. As we are going to lower the cost
7354 : : of building SSA names / gimple stmts significantly, we need to allocate
7355 : : them ont the stack. This will cause the code to be a bit ugly. */
7356 : :
7357 : : static tree
7358 : 908800 : maybe_fold_comparisons_from_match_pd (tree type, enum tree_code code,
7359 : : enum tree_code code1,
7360 : : tree op1a, tree op1b,
7361 : : enum tree_code code2, tree op2a,
7362 : : tree op2b,
7363 : : basic_block outer_cond_bb)
7364 : : {
7365 : : /* Allocate gimple stmt1 on the stack. */
7366 : 908800 : gassign *stmt1
7367 : 908800 : = (gassign *) XALLOCAVEC (char, gimple_size (GIMPLE_ASSIGN, 3));
7368 : 908800 : gimple_init (stmt1, GIMPLE_ASSIGN, 3);
7369 : 908800 : gimple_assign_set_rhs_code (stmt1, code1);
7370 : 908800 : gimple_assign_set_rhs1 (stmt1, op1a);
7371 : 908800 : gimple_assign_set_rhs2 (stmt1, op1b);
7372 : 908800 : gimple_set_bb (stmt1, NULL);
7373 : :
7374 : : /* Allocate gimple stmt2 on the stack. */
7375 : 908800 : gassign *stmt2
7376 : 908800 : = (gassign *) XALLOCAVEC (char, gimple_size (GIMPLE_ASSIGN, 3));
7377 : 908800 : gimple_init (stmt2, GIMPLE_ASSIGN, 3);
7378 : 908800 : gimple_assign_set_rhs_code (stmt2, code2);
7379 : 908800 : gimple_assign_set_rhs1 (stmt2, op2a);
7380 : 908800 : gimple_assign_set_rhs2 (stmt2, op2b);
7381 : 908800 : gimple_set_bb (stmt2, NULL);
7382 : :
7383 : : /* Allocate SSA names(lhs1) on the stack. */
7384 : 908800 : alignas (tree_node) unsigned char lhs1buf[sizeof (tree_ssa_name)];
7385 : 908800 : tree lhs1 = (tree) &lhs1buf[0];
7386 : 908800 : memset (lhs1, 0, sizeof (tree_ssa_name));
7387 : 908800 : TREE_SET_CODE (lhs1, SSA_NAME);
7388 : 908800 : TREE_TYPE (lhs1) = type;
7389 : 908800 : init_ssa_name_imm_use (lhs1);
7390 : :
7391 : : /* Allocate SSA names(lhs2) on the stack. */
7392 : 908800 : alignas (tree_node) unsigned char lhs2buf[sizeof (tree_ssa_name)];
7393 : 908800 : tree lhs2 = (tree) &lhs2buf[0];
7394 : 908800 : memset (lhs2, 0, sizeof (tree_ssa_name));
7395 : 908800 : TREE_SET_CODE (lhs2, SSA_NAME);
7396 : 908800 : TREE_TYPE (lhs2) = type;
7397 : 908800 : init_ssa_name_imm_use (lhs2);
7398 : :
7399 : 908800 : gimple_assign_set_lhs (stmt1, lhs1);
7400 : 908800 : gimple_assign_set_lhs (stmt2, lhs2);
7401 : :
7402 : 908800 : gimple_match_op op (gimple_match_cond::UNCOND, code,
7403 : : type, gimple_assign_lhs (stmt1),
7404 : 908800 : gimple_assign_lhs (stmt2));
7405 : 908800 : fosa_bb = outer_cond_bb;
7406 : 908800 : auto_vec<std::pair<tree, flow_sensitive_info_storage>, 8> unwind_stack;
7407 : 908800 : fosa_unwind = &unwind_stack;
7408 : 1263784 : if (op.resimplify (NULL, (!outer_cond_bb
7409 : : ? follow_all_ssa_edges : follow_outer_ssa_edges)))
7410 : : {
7411 : 1926 : fosa_unwind = NULL;
7412 : 7048 : for (auto p : unwind_stack)
7413 : 1270 : p.second.restore (p.first);
7414 : 1926 : if (gimple_simplified_result_is_gimple_val (&op))
7415 : : {
7416 : 1335 : tree res = op.ops[0];
7417 : 1335 : if (res == lhs1)
7418 : 975 : return build2 (code1, type, op1a, op1b);
7419 : 360 : else if (res == lhs2)
7420 : 331 : return build2 (code2, type, op2a, op2b);
7421 : : else
7422 : : return res;
7423 : : }
7424 : 591 : else if (op.code.is_tree_code ()
7425 : 591 : && TREE_CODE_CLASS ((tree_code)op.code) == tcc_comparison)
7426 : : {
7427 : 591 : tree op0 = op.ops[0];
7428 : 591 : tree op1 = op.ops[1];
7429 : 591 : if (op0 == lhs1 || op0 == lhs2 || op1 == lhs1 || op1 == lhs2)
7430 : : return NULL_TREE; /* not simple */
7431 : :
7432 : 591 : return build2 ((enum tree_code)op.code, op.type, op0, op1);
7433 : : }
7434 : : }
7435 : 906874 : fosa_unwind = NULL;
7436 : 4718122 : for (auto p : unwind_stack)
7437 : 1997500 : p.second.restore (p.first);
7438 : :
7439 : 906874 : return NULL_TREE;
7440 : 908800 : }
7441 : :
7442 : : /* Return TRUE and set op[0] if T, following all SSA edges, is a type
7443 : : conversion. Reject loads if LOAD is NULL, otherwise set *LOAD if a
7444 : : converting load is found. */
7445 : :
7446 : : static bool
7447 : 2232814 : gimple_convert_def_p (tree t, tree op[1], gimple **load = NULL)
7448 : : {
7449 : 2232814 : bool ret = false;
7450 : :
7451 : 2232814 : if (TREE_CODE (t) == SSA_NAME
7452 : 2232814 : && !SSA_NAME_IS_DEFAULT_DEF (t))
7453 : 1214179 : if (gassign *def = dyn_cast <gassign *> (SSA_NAME_DEF_STMT (t)))
7454 : : {
7455 : 1125726 : bool load_p = gimple_assign_load_p (def);
7456 : 1125726 : if (load_p && !load)
7457 : : return false;
7458 : 829952 : switch (gimple_assign_rhs_code (def))
7459 : : {
7460 : 14861 : CASE_CONVERT:
7461 : 14861 : op[0] = gimple_assign_rhs1 (def);
7462 : 14861 : ret = true;
7463 : 14861 : break;
7464 : :
7465 : 2281 : case VIEW_CONVERT_EXPR:
7466 : 2281 : op[0] = TREE_OPERAND (gimple_assign_rhs1 (def), 0);
7467 : 2281 : ret = true;
7468 : 2281 : break;
7469 : :
7470 : : default:
7471 : : break;
7472 : : }
7473 : :
7474 : 17142 : if (ret && load_p)
7475 : 0 : *load = def;
7476 : : }
7477 : :
7478 : : return ret;
7479 : : }
7480 : :
7481 : : /* Return TRUE and set op[*] if T, following all SSA edges, resolves to a
7482 : : binary expression with code CODE. */
7483 : :
7484 : : static bool
7485 : 2266836 : gimple_binop_def_p (enum tree_code code, tree t, tree op[2])
7486 : : {
7487 : 2266836 : if (TREE_CODE (t) == SSA_NAME
7488 : 2266836 : && !SSA_NAME_IS_DEFAULT_DEF (t))
7489 : 1247035 : if (gimple *def = dyn_cast <gassign *> (SSA_NAME_DEF_STMT (t)))
7490 : 1153835 : if (gimple_assign_rhs_code (def) == code)
7491 : : {
7492 : 36426 : op[0] = gimple_assign_rhs1 (def);
7493 : 36426 : op[1] = gimple_assign_rhs2 (def);
7494 : 36426 : return true;
7495 : : }
7496 : : return false;
7497 : : }
7498 : : /* Subroutine for fold_truth_andor_1: decode a field reference.
7499 : :
7500 : : If *PEXP is a comparison reference, we return the innermost reference.
7501 : :
7502 : : *PBITSIZE is set to the number of bits in the reference, *PBITPOS is
7503 : : set to the starting bit number.
7504 : :
7505 : : *PVOLATILEP is set to 1 if the any expression encountered is volatile;
7506 : : otherwise it is not changed.
7507 : :
7508 : : *PUNSIGNEDP is set to the signedness of the field.
7509 : :
7510 : : *PREVERSEP is set to the storage order of the field.
7511 : :
7512 : : *PAND_MASK is set to the mask found in a BIT_AND_EXPR, if any. If
7513 : : PAND_MASK *is NULL, BIT_AND_EXPR is not recognized. If *PAND_MASK
7514 : : is initially set to a mask with nonzero precision, that mask is
7515 : : combined with the found mask, or adjusted in precision to match.
7516 : :
7517 : : *PSIGNBIT is set to TRUE if, before clipping to *PBITSIZE, the mask
7518 : : encompassed bits that corresponded to extensions of the sign bit.
7519 : :
7520 : : *XOR_P is to be FALSE if EXP might be a XOR used in a compare, in which
7521 : : case, if XOR_CMP_OP is a zero constant, it will be overridden with *PEXP,
7522 : : *XOR_P will be set to TRUE, and the left-hand operand of the XOR will be
7523 : : decoded. If *XOR_P is TRUE, XOR_CMP_OP is supposed to be NULL, and then the
7524 : : right-hand operand of the XOR will be decoded.
7525 : :
7526 : : *LOAD is set to the load stmt of the innermost reference, if any,
7527 : : *and NULL otherwise.
7528 : :
7529 : : LOC[0..3] are filled in as conversion, masking, shifting and loading
7530 : : operations are located.
7531 : :
7532 : : Return 0 if this is not a component reference or is one that we can't
7533 : : do anything with. */
7534 : :
7535 : : static tree
7536 : 880004 : decode_field_reference (tree *pexp, HOST_WIDE_INT *pbitsize,
7537 : : HOST_WIDE_INT *pbitpos,
7538 : : bool *punsignedp, bool *preversep, bool *pvolatilep,
7539 : : wide_int *pand_mask, bool *psignbit,
7540 : : bool *xor_p, tree *xor_cmp_op,
7541 : : gimple **load, location_t loc[4])
7542 : : {
7543 : 880004 : tree exp = *pexp;
7544 : 880004 : tree outer_type = 0;
7545 : 880004 : wide_int and_mask;
7546 : 880004 : tree inner, offset;
7547 : 880004 : int shiftrt = 0;
7548 : 880004 : tree res_ops[2];
7549 : 880004 : machine_mode mode;
7550 : :
7551 : 880004 : *load = NULL;
7552 : 880004 : *psignbit = false;
7553 : :
7554 : : /* All the optimizations using this function assume integer fields.
7555 : : There are problems with FP fields since the type_for_size call
7556 : : below can fail for, e.g., XFmode. */
7557 : 880004 : if (! INTEGRAL_TYPE_P (TREE_TYPE (exp)))
7558 : : return NULL_TREE;
7559 : :
7560 : : /* Drop casts, saving only the outermost type, effectively used in
7561 : : the compare. We can deal with at most one conversion, and it may
7562 : : appear at various points in the chain of recognized preparation
7563 : : statements. Earlier optimizers will often have already dropped
7564 : : unneeded extensions, but they may survive, as in PR118046. ???
7565 : : Can we do better and allow multiple conversions, perhaps taking
7566 : : note of the narrowest intermediate type, sign extensions and
7567 : : whatnot? */
7568 : 755612 : if (!outer_type && gimple_convert_def_p (exp, res_ops))
7569 : : {
7570 : 16892 : outer_type = TREE_TYPE (exp);
7571 : 16892 : loc[0] = gimple_location (SSA_NAME_DEF_STMT (exp));
7572 : 16892 : exp = res_ops[0];
7573 : : }
7574 : :
7575 : : /* Recognize and save a masking operation. Combine it with an
7576 : : incoming mask. */
7577 : 755612 : if (pand_mask && gimple_binop_def_p (BIT_AND_EXPR, exp, res_ops)
7578 : 785870 : && uniform_integer_cst_p (res_ops[1]))
7579 : : {
7580 : 22244 : loc[1] = gimple_location (SSA_NAME_DEF_STMT (exp));
7581 : 22244 : exp = res_ops[0];
7582 : 22244 : and_mask = wi::to_wide (res_ops[1]);
7583 : 22244 : unsigned prec_in = pand_mask->get_precision ();
7584 : 22244 : if (prec_in)
7585 : : {
7586 : 52 : unsigned prec_op = and_mask.get_precision ();
7587 : 52 : if (prec_in >= prec_op)
7588 : : {
7589 : 52 : if (prec_in > prec_op)
7590 : 0 : and_mask = wide_int::from (and_mask, prec_in, UNSIGNED);
7591 : 52 : and_mask &= *pand_mask;
7592 : : }
7593 : : else
7594 : 0 : and_mask &= wide_int::from (*pand_mask, prec_op, UNSIGNED);
7595 : : }
7596 : : }
7597 : 733368 : else if (pand_mask)
7598 : 733368 : and_mask = *pand_mask;
7599 : :
7600 : : /* Turn (a ^ b) [!]= 0 into a [!]= b. */
7601 : 755612 : if (xor_p && gimple_binop_def_p (BIT_XOR_EXPR, exp, res_ops)
7602 : 761236 : && uniform_integer_cst_p (res_ops[1]))
7603 : : {
7604 : : /* No location recorded for this one, it's entirely subsumed by the
7605 : : compare. */
7606 : 71 : if (*xor_p)
7607 : : {
7608 : 11 : exp = res_ops[1];
7609 : 11 : gcc_checking_assert (!xor_cmp_op);
7610 : : }
7611 : 60 : else if (!xor_cmp_op)
7612 : : /* Not much we can do when xor appears in the right-hand compare
7613 : : operand. */
7614 : : return NULL_TREE;
7615 : 60 : else if (integer_zerop (*xor_cmp_op))
7616 : : {
7617 : 11 : *xor_p = true;
7618 : 11 : exp = res_ops[0];
7619 : 11 : *xor_cmp_op = *pexp;
7620 : : }
7621 : : }
7622 : :
7623 : : /* Another chance to drop conversions. */
7624 : 755612 : if (!outer_type && gimple_convert_def_p (exp, res_ops))
7625 : : {
7626 : 238 : outer_type = TREE_TYPE (exp);
7627 : 238 : loc[0] = gimple_location (SSA_NAME_DEF_STMT (exp));
7628 : 238 : exp = res_ops[0];
7629 : : }
7630 : :
7631 : : /* Take note of shifts. */
7632 : 755612 : if (gimple_binop_def_p (RSHIFT_EXPR, exp, res_ops)
7633 : 755612 : && uniform_integer_cst_p (res_ops[1]))
7634 : : {
7635 : 347 : loc[2] = gimple_location (SSA_NAME_DEF_STMT (exp));
7636 : 347 : exp = res_ops[0];
7637 : 347 : if (!tree_fits_shwi_p (res_ops[1]))
7638 : : return NULL_TREE;
7639 : 347 : shiftrt = tree_to_shwi (res_ops[1]);
7640 : 347 : if (shiftrt <= 0)
7641 : : return NULL_TREE;
7642 : : }
7643 : :
7644 : : /* Yet another chance to drop conversions. This one is allowed to
7645 : : match a converting load, subsuming the load identification block
7646 : : below. */
7647 : 755612 : if (!outer_type && gimple_convert_def_p (exp, res_ops, load))
7648 : : {
7649 : 12 : outer_type = TREE_TYPE (exp);
7650 : 12 : loc[0] = gimple_location (SSA_NAME_DEF_STMT (exp));
7651 : 12 : if (*load)
7652 : 0 : loc[3] = gimple_location (*load);
7653 : 12 : exp = res_ops[0];
7654 : : }
7655 : :
7656 : : /* Identify the load, if there is one. */
7657 : 755612 : if (!(*load) && TREE_CODE (exp) == SSA_NAME
7658 : 1177531 : && !SSA_NAME_IS_DEFAULT_DEF (exp))
7659 : : {
7660 : 415229 : gimple *def = SSA_NAME_DEF_STMT (exp);
7661 : 415229 : if (gimple_assign_load_p (def))
7662 : : {
7663 : 325060 : loc[3] = gimple_location (def);
7664 : 325060 : *load = def;
7665 : 325060 : exp = gimple_assign_rhs1 (def);
7666 : : }
7667 : : }
7668 : :
7669 : : /* Identify the relevant bits. */
7670 : 755612 : poly_int64 poly_bitsize, poly_bitpos;
7671 : 755612 : int unsignedp, reversep = *preversep, volatilep = *pvolatilep;
7672 : 755612 : inner = get_inner_reference (exp, &poly_bitsize, &poly_bitpos, &offset,
7673 : : &mode, &unsignedp, &reversep, &volatilep);
7674 : :
7675 : 755612 : HOST_WIDE_INT bs, bp;
7676 : 755612 : if (!poly_bitsize.is_constant (&bs)
7677 : 755612 : || !poly_bitpos.is_constant (&bp)
7678 : 755612 : || bs <= shiftrt
7679 : 755612 : || offset != 0
7680 : 749160 : || TREE_CODE (inner) == PLACEHOLDER_EXPR
7681 : : /* Reject out-of-bound accesses (PR79731). */
7682 : 749160 : || (! AGGREGATE_TYPE_P (TREE_TYPE (inner))
7683 : 460716 : && compare_tree_int (TYPE_SIZE (TREE_TYPE (inner)),
7684 : 460716 : bp + bs) < 0)
7685 : 749154 : || (INTEGRAL_TYPE_P (TREE_TYPE (inner))
7686 : 460158 : && !type_has_mode_precision_p (TREE_TYPE (inner))))
7687 : 83269 : return NULL_TREE;
7688 : :
7689 : 672343 : *pbitsize = bs;
7690 : 672343 : *pbitpos = bp;
7691 : 672343 : *punsignedp = unsignedp;
7692 : 672343 : *preversep = reversep;
7693 : 672343 : *pvolatilep = volatilep;
7694 : :
7695 : : /* Adjust shifts... */
7696 : 672343 : if (shiftrt)
7697 : : {
7698 : 335 : if (!*preversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
7699 : 335 : *pbitpos += shiftrt;
7700 : 335 : *pbitsize -= shiftrt;
7701 : : }
7702 : :
7703 : : /* ... and bit position. */
7704 : 672343 : if (outer_type && *pbitsize > TYPE_PRECISION (outer_type))
7705 : : {
7706 : 8344 : HOST_WIDE_INT excess = *pbitsize - TYPE_PRECISION (outer_type);
7707 : 8344 : if (*preversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
7708 : 0 : *pbitpos += excess;
7709 : 8344 : *pbitsize -= excess;
7710 : : }
7711 : :
7712 : 672343 : *pexp = exp;
7713 : :
7714 : : /* If the number of bits in the reference is the same as the bitsize of
7715 : : the outer type, then the outer type gives the signedness. Otherwise
7716 : : (in case of a small bitfield) the signedness is unchanged. */
7717 : 672343 : if (outer_type && *pbitsize == TYPE_PRECISION (outer_type))
7718 : 13030 : *punsignedp = TYPE_UNSIGNED (outer_type);
7719 : :
7720 : 672343 : if (pand_mask)
7721 : : {
7722 : : /* Make the mask the expected width. */
7723 : 672343 : if (and_mask.get_precision () != 0)
7724 : : {
7725 : : /* If the AND_MASK encompasses bits that would be extensions of
7726 : : the sign bit, set *PSIGNBIT. */
7727 : 55324 : if (!unsignedp
7728 : 2096 : && and_mask.get_precision () > *pbitsize
7729 : 27662 : && (and_mask
7730 : 27912 : & wi::mask (*pbitsize, true, and_mask.get_precision ())) != 0)
7731 : 113 : *psignbit = true;
7732 : 27662 : and_mask = wide_int::from (and_mask, *pbitsize, UNSIGNED);
7733 : : }
7734 : :
7735 : 672343 : *pand_mask = and_mask;
7736 : : }
7737 : :
7738 : : return inner;
7739 : 880004 : }
7740 : :
7741 : : /* Return the one bitpos within bit extents L or R that is at an
7742 : : ALIGN-bit alignment boundary, or -1 if there is more than one such
7743 : : boundary, if there isn't any, or if there is any such boundary
7744 : : between the extents. L and R are given by bitpos and bitsize. If
7745 : : it doesn't return -1, there are two consecutive ALIGN-bit words
7746 : : that contain both extents, and at least one of the extents
7747 : : straddles across the returned alignment boundary. */
7748 : :
7749 : : static inline HOST_WIDE_INT
7750 : 65910 : compute_split_boundary_from_align (HOST_WIDE_INT align,
7751 : : HOST_WIDE_INT l_bitpos,
7752 : : HOST_WIDE_INT l_bitsize,
7753 : : HOST_WIDE_INT r_bitpos,
7754 : : HOST_WIDE_INT r_bitsize)
7755 : : {
7756 : 65910 : HOST_WIDE_INT amask = ~(align - 1);
7757 : :
7758 : 65910 : HOST_WIDE_INT first_bit = MIN (l_bitpos, r_bitpos);
7759 : 65910 : HOST_WIDE_INT end_bit = MAX (l_bitpos + l_bitsize, r_bitpos + r_bitsize);
7760 : :
7761 : 65910 : HOST_WIDE_INT boundary = (end_bit - 1) & amask;
7762 : :
7763 : : /* Make sure we're crossing no more than one alignment boundary.
7764 : :
7765 : : ??? We don't have logic to recombine loads of two adjacent
7766 : : fields that each crosses a different alignment boundary, so
7767 : : as to load the middle word only once, if other words can't be
7768 : : otherwise recombined. */
7769 : 65910 : if (boundary - first_bit > align)
7770 : : return -1;
7771 : :
7772 : 12846 : HOST_WIDE_INT l_start_word = l_bitpos & amask;
7773 : 12846 : HOST_WIDE_INT l_end_word = (l_bitpos + l_bitsize - 1) & amask;
7774 : :
7775 : 12846 : HOST_WIDE_INT r_start_word = r_bitpos & amask;
7776 : 12846 : HOST_WIDE_INT r_end_word = (r_bitpos + r_bitsize - 1) & amask;
7777 : :
7778 : : /* If neither field straddles across an alignment boundary, it's no
7779 : : use to even try to merge them. */
7780 : 12846 : if (l_start_word == l_end_word && r_start_word == r_end_word)
7781 : 12838 : return -1;
7782 : :
7783 : : return boundary;
7784 : : }
7785 : :
7786 : : /* Make a bit_field_ref. If POINT is NULL, return the BIT_FIELD_REF.
7787 : : Otherwise, build and insert a load stmt before POINT, and return
7788 : : the SSA_NAME. ??? Rewrite LOAD in terms of the bitfield? */
7789 : :
7790 : : static tree
7791 : 2206 : make_bit_field_load (location_t loc, tree inner, tree orig_inner, tree type,
7792 : : HOST_WIDE_INT bitsize, poly_int64 bitpos,
7793 : : bool unsignedp, bool reversep, gimple *point)
7794 : : {
7795 : 2206 : if (point && loc == UNKNOWN_LOCATION)
7796 : 14 : loc = gimple_location (point);
7797 : :
7798 : 2206 : tree ref = make_bit_field_ref (loc, unshare_expr (inner),
7799 : : unshare_expr (orig_inner),
7800 : : type, bitsize, bitpos,
7801 : : unsignedp, reversep);
7802 : 2206 : if (!point)
7803 : : return ref;
7804 : :
7805 : : /* If we're remaking the same load, reuse the SSA NAME it is already loaded
7806 : : into. */
7807 : 2065 : if (gimple_assign_load_p (point)
7808 : 2065 : && operand_equal_p (ref, gimple_assign_rhs1 (point)))
7809 : : {
7810 : 384 : gcc_checking_assert (TREE_CODE (gimple_assign_lhs (point)) == SSA_NAME);
7811 : : return gimple_assign_lhs (point);
7812 : : }
7813 : :
7814 : 1681 : gimple_seq stmts = NULL;
7815 : 1681 : tree ret = force_gimple_operand (ref, &stmts, true, NULL_TREE);
7816 : :
7817 : : /* We know the vuse is supposed to end up being the same as that at the
7818 : : original load at the insertion point, but if we don't set it, it will be a
7819 : : generic placeholder that only the global SSA update at the end of the pass
7820 : : would make equal, too late for us to use in further combinations. So go
7821 : : ahead and copy the vuse. */
7822 : :
7823 : 1681 : tree reaching_vuse = gimple_vuse (point);
7824 : 1681 : for (gimple_stmt_iterator i = gsi_start (stmts);
7825 : 3766 : !gsi_end_p (i); gsi_next (&i))
7826 : : {
7827 : 2085 : gimple *new_stmt = gsi_stmt (i);
7828 : 4170 : if (gimple_has_mem_ops (new_stmt))
7829 : 2085 : gimple_set_vuse (new_stmt, reaching_vuse);
7830 : : }
7831 : :
7832 : 1681 : gimple_stmt_iterator gsi = gsi_for_stmt (point);
7833 : 1681 : gsi_insert_seq_before (&gsi, stmts, GSI_SAME_STMT);
7834 : 1681 : return ret;
7835 : : }
7836 : :
7837 : : /* Initialize ln_arg[0] and ln_arg[1] to a pair of newly-created (at
7838 : : LOC) loads from INNER (from ORIG_INNER), of modes MODE and MODE2,
7839 : : respectively, starting at BIT_POS, using reversed endianness if
7840 : : REVERSEP. Also initialize BITPOS (the starting position of each
7841 : : part into INNER), BITSIZ (the bit count starting at BITPOS),
7842 : : TOSHIFT[1] (the amount by which the part and its mask are to be
7843 : : shifted right to bring its least-significant bit to bit zero) and
7844 : : SHIFTED (the amount by which the part, by separate loading, has
7845 : : already been shifted right, but that the mask needs shifting to
7846 : : match). */
7847 : :
7848 : : static inline void
7849 : 8 : build_split_load (tree /* out */ ln_arg[2],
7850 : : HOST_WIDE_INT /* out */ bitpos[2],
7851 : : HOST_WIDE_INT /* out */ bitsiz[2],
7852 : : HOST_WIDE_INT /* in[0] out[0..1] */ toshift[2],
7853 : : HOST_WIDE_INT /* out */ shifted[2],
7854 : : location_t loc, tree inner, tree orig_inner,
7855 : : scalar_int_mode mode, scalar_int_mode mode2,
7856 : : HOST_WIDE_INT bit_pos, bool reversep,
7857 : : gimple *point[2])
7858 : : {
7859 : 8 : scalar_int_mode modes[2] = { mode, mode2 };
7860 : 8 : bitsiz[0] = GET_MODE_BITSIZE (mode);
7861 : 8 : bitsiz[1] = GET_MODE_BITSIZE (mode2);
7862 : :
7863 : 24 : for (int i = 0; i < 2; i++)
7864 : : {
7865 : 16 : tree type = lang_hooks.types.type_for_mode (modes[i], 1);
7866 : 16 : if (!type)
7867 : : {
7868 : 0 : type = build_nonstandard_integer_type (bitsiz[0], 1);
7869 : 0 : gcc_assert (type);
7870 : : }
7871 : 16 : bitpos[i] = bit_pos;
7872 : 32 : ln_arg[i] = make_bit_field_load (loc, inner, orig_inner,
7873 : 16 : type, bitsiz[i],
7874 : 16 : bit_pos, 1, reversep, point[i]);
7875 : 16 : bit_pos += bitsiz[i];
7876 : : }
7877 : :
7878 : 8 : toshift[1] = toshift[0];
7879 : 8 : if (reversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
7880 : : {
7881 : 3 : shifted[0] = bitsiz[1];
7882 : 3 : shifted[1] = 0;
7883 : 3 : toshift[0] = 0;
7884 : : }
7885 : : else
7886 : : {
7887 : 5 : shifted[1] = bitsiz[0];
7888 : 5 : shifted[0] = 0;
7889 : 5 : toshift[1] = 0;
7890 : : }
7891 : 8 : }
7892 : :
7893 : : /* Make arrangements to split at bit BOUNDARY a single loaded word
7894 : : (with REVERSEP bit order) LN_ARG[0], to be shifted right by
7895 : : TOSHIFT[0] to bring the field of interest to the least-significant
7896 : : bit. The expectation is that the same loaded word will be
7897 : : propagated from part 0 to part 1, with just different shifting and
7898 : : masking to extract both parts. MASK is not expected to do more
7899 : : than masking out the bits that belong to the other part. See
7900 : : build_split_load for more information on the other fields. */
7901 : :
7902 : : static inline void
7903 : 8 : reuse_split_load (tree /* in[0] out[1] */ ln_arg[2],
7904 : : HOST_WIDE_INT /* in[0] out[1] */ bitpos[2],
7905 : : HOST_WIDE_INT /* in[0] out[1] */ bitsiz[2],
7906 : : HOST_WIDE_INT /* in[0] out[0..1] */ toshift[2],
7907 : : HOST_WIDE_INT /* out */ shifted[2],
7908 : : wide_int /* out */ mask[2],
7909 : : HOST_WIDE_INT boundary, bool reversep)
7910 : : {
7911 : 8 : unsigned prec = TYPE_PRECISION (TREE_TYPE (ln_arg[0]));
7912 : :
7913 : 8 : ln_arg[1] = ln_arg[0];
7914 : 8 : bitpos[1] = bitpos[0];
7915 : 8 : bitsiz[1] = bitsiz[0];
7916 : 8 : shifted[1] = shifted[0] = 0;
7917 : :
7918 : 8 : if (reversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
7919 : : {
7920 : 3 : toshift[1] = toshift[0];
7921 : 3 : toshift[0] = bitpos[0] + bitsiz[0] - boundary;
7922 : 3 : mask[0] = wi::mask (toshift[0], true, prec);
7923 : 3 : mask[1] = wi::mask (toshift[0], false, prec);
7924 : : }
7925 : : else
7926 : : {
7927 : 5 : toshift[1] = boundary - bitpos[1];
7928 : 5 : mask[1] = wi::mask (toshift[1], true, prec);
7929 : 5 : mask[0] = wi::mask (toshift[1], false, prec);
7930 : : }
7931 : 8 : }
7932 : :
7933 : : /* Find ways of folding logical expressions of LHS and RHS:
7934 : :
7935 : : Try to merge two comparisons to nearby fields.
7936 : :
7937 : : For example, if we have p->a == 2 && p->b == 4 and we can load both A and B
7938 : : at once, we can do this with a comparison against the object ANDed with the
7939 : : a mask.
7940 : :
7941 : : If we have p->a == q->a && p->b == q->b, we may be able to use bit masking
7942 : : operations to do this with one comparison, loading both fields from P at
7943 : : once, and likewise from Q.
7944 : :
7945 : : Herein, loading at once means loading from within the same alignment
7946 : : boundary for the enclosing object. If (packed) fields cross such alignment
7947 : : boundaries, we may still recombine the compares, so that loads do not cross
7948 : : the boundaries.
7949 : :
7950 : : CODE is the logical operation being done. It can be TRUTH_ANDIF_EXPR,
7951 : : TRUTH_AND_EXPR, TRUTH_ORIF_EXPR, or TRUTH_OR_EXPR.
7952 : :
7953 : : TRUTH_TYPE is the type of the logical operand.
7954 : :
7955 : : LHS is denoted as LL_ARG LCODE LR_ARG.
7956 : :
7957 : : RHS is denoted as RL_ARG RCODE RR_ARG.
7958 : :
7959 : : LHS is assumed to dominate RHS.
7960 : :
7961 : : Combined loads are inserted next to preexisting loads, once we determine
7962 : : that the combination is viable, and the combined condition references new
7963 : : SSA_NAMEs that hold the loaded values. Since the original loads are
7964 : : verified to have the same gimple_vuse, the insertion point doesn't matter
7965 : : for correctness. ??? The loads may be a lot earlier than the compares, and
7966 : : it's conceivable that one or two loads for RHS appear before those for LHS.
7967 : : It could be advantageous to try to place the loads optimally, taking
7968 : : advantage of knowing whether RHS is accessed before LHS, or that both are
7969 : : accessed before both compares, but we don't do that (yet?).
7970 : :
7971 : : SEPARATEP should be NULL if the combined condition must be returned as a
7972 : : single expression, even if it is a compound condition. This must only be
7973 : : done if LHS and RHS are adjacent, without intervening conditions, and the
7974 : : combined condition is to replace RHS, while LHS is dropped altogether.
7975 : :
7976 : : Otherwise, SEPARATEP must be a non-NULL pointer to a NULL_TREE, that may be
7977 : : replaced by a part of the compound condition that could replace RHS, while
7978 : : the returned expression replaces LHS. This works whether or not LHS and RHS
7979 : : are adjacent, as long as there aren't VDEFs or other side effects between
7980 : : them.
7981 : :
7982 : : If the "words" accessed by RHS are already accessed by LHS, this won't
7983 : : matter, but if RHS accesses "words" that LHS doesn't, then *SEPARATEP will
7984 : : be set to the compares that should take RHS's place. By "words" we mean
7985 : : contiguous bits that do not cross a an TYPE_ALIGN boundary of the accessed
7986 : : object's type.
7987 : :
7988 : : We return the simplified tree or 0 if no optimization is possible. */
7989 : :
7990 : : tree
7991 : 268107 : fold_truth_andor_for_ifcombine (enum tree_code code, tree truth_type,
7992 : : location_t lloc, enum tree_code lcode,
7993 : : tree ll_arg, tree lr_arg,
7994 : : location_t rloc, enum tree_code rcode,
7995 : : tree rl_arg, tree rr_arg,
7996 : : tree *separatep)
7997 : : {
7998 : : /* If this is the "or" of two comparisons, we can do something if
7999 : : the comparisons are NE_EXPR. If this is the "and", we can do something
8000 : : if the comparisons are EQ_EXPR. I.e.,
8001 : : (a->b == 2 && a->c == 4) can become (a->new == NEW).
8002 : :
8003 : : WANTED_CODE is this operation code. For single bit fields, we can
8004 : : convert EQ_EXPR to NE_EXPR so we need not reject the "wrong"
8005 : : comparison for one-bit fields. */
8006 : :
8007 : 268107 : enum tree_code orig_code = code;
8008 : 268107 : enum tree_code wanted_code;
8009 : 268107 : tree ll_inner, lr_inner, rl_inner, rr_inner;
8010 : 268107 : gimple *ll_load, *lr_load, *rl_load, *rr_load;
8011 : 268107 : HOST_WIDE_INT ll_bitsize, ll_bitpos, lr_bitsize, lr_bitpos;
8012 : 268107 : HOST_WIDE_INT rl_bitsize, rl_bitpos, rr_bitsize, rr_bitpos;
8013 : 268107 : HOST_WIDE_INT xll_bitpos, xlr_bitpos, xrl_bitpos, xrr_bitpos;
8014 : 268107 : HOST_WIDE_INT lnbitsize, lnbitpos, lnprec;
8015 : 268107 : HOST_WIDE_INT rnbitsize, rnbitpos, rnprec;
8016 : 268107 : bool ll_unsignedp, lr_unsignedp, rl_unsignedp, rr_unsignedp;
8017 : 268107 : bool ll_reversep, lr_reversep, rl_reversep, rr_reversep;
8018 : 268107 : bool ll_signbit, lr_signbit, rl_signbit, rr_signbit;
8019 : 268107 : scalar_int_mode lnmode, lnmode2, rnmode;
8020 : 268107 : wide_int ll_and_mask, lr_and_mask, rl_and_mask, rr_and_mask;
8021 : 268107 : wide_int l_const, r_const;
8022 : 268107 : tree lntype, rntype, result;
8023 : 268107 : HOST_WIDE_INT first_bit, end_bit;
8024 : 268107 : bool volatilep;
8025 : 268107 : bool l_split_load;
8026 : :
8027 : : /* These are indexed by: conv, mask, shft, load. */
8028 : 268107 : location_t ll_loc[4] = { lloc, lloc, lloc, UNKNOWN_LOCATION };
8029 : 268107 : location_t lr_loc[4] = { lloc, lloc, lloc, UNKNOWN_LOCATION };
8030 : 268107 : location_t rl_loc[4] = { rloc, rloc, rloc, UNKNOWN_LOCATION };
8031 : 268107 : location_t rr_loc[4] = { rloc, rloc, rloc, UNKNOWN_LOCATION };
8032 : :
8033 : 268107 : gcc_checking_assert (!separatep || !*separatep);
8034 : :
8035 : : /* Start by getting the comparison codes. Fail if anything is volatile.
8036 : : If one operand is a BIT_AND_EXPR with the constant one, treat it as if
8037 : : it were surrounded with a NE_EXPR. */
8038 : :
8039 : 268107 : if (TREE_CODE_CLASS (lcode) != tcc_comparison
8040 : 268107 : || TREE_CODE_CLASS (rcode) != tcc_comparison)
8041 : : return 0;
8042 : :
8043 : : /* We don't normally find TRUTH_*IF_EXPR in gimple, but these codes may be
8044 : : given by our caller to denote conditions from different blocks. */
8045 : 268107 : switch (code)
8046 : : {
8047 : : case TRUTH_AND_EXPR:
8048 : : case TRUTH_ANDIF_EXPR:
8049 : : code = TRUTH_AND_EXPR;
8050 : : break;
8051 : :
8052 : 0 : case TRUTH_OR_EXPR:
8053 : 0 : case TRUTH_ORIF_EXPR:
8054 : 0 : code = TRUTH_OR_EXPR;
8055 : 0 : break;
8056 : :
8057 : : default:
8058 : : return 0;
8059 : : }
8060 : :
8061 : : /* Prepare to turn compares of signed quantities with zero into
8062 : : sign-bit tests. */
8063 : 268107 : bool lsignbit = false, rsignbit = false;
8064 : 268107 : if ((lcode == LT_EXPR || lcode == GE_EXPR)
8065 : 11252 : && integer_zerop (lr_arg)
8066 : 3561 : && INTEGRAL_TYPE_P (TREE_TYPE (ll_arg))
8067 : 271668 : && !TYPE_UNSIGNED (TREE_TYPE (ll_arg)))
8068 : : {
8069 : 3561 : lsignbit = true;
8070 : 3561 : lcode = (lcode == LT_EXPR ? NE_EXPR : EQ_EXPR);
8071 : : }
8072 : : /* Turn compares of unsigned quantities with powers of two into
8073 : : equality tests of masks. */
8074 : 264546 : else if ((lcode == LT_EXPR || lcode == GE_EXPR)
8075 : 7691 : && INTEGRAL_TYPE_P (TREE_TYPE (ll_arg))
8076 : 5516 : && TYPE_UNSIGNED (TREE_TYPE (ll_arg))
8077 : 3600 : && uniform_integer_cst_p (lr_arg)
8078 : 264546 : && wi::popcount (wi::to_wide (lr_arg)) == 1)
8079 : : {
8080 : 0 : ll_and_mask = ~(wi::to_wide (lr_arg) - 1);
8081 : 0 : lcode = (lcode == GE_EXPR ? NE_EXPR : EQ_EXPR);
8082 : 0 : lr_arg = wide_int_to_tree (TREE_TYPE (ll_arg), ll_and_mask * 0);
8083 : : }
8084 : : /* Turn compares of unsigned quantities with powers of two minus one
8085 : : into equality tests of masks. */
8086 : 529092 : else if ((lcode == LE_EXPR || lcode == GT_EXPR)
8087 : 18723 : && INTEGRAL_TYPE_P (TREE_TYPE (ll_arg))
8088 : 18453 : && TYPE_UNSIGNED (TREE_TYPE (ll_arg))
8089 : 12949 : && uniform_integer_cst_p (lr_arg)
8090 : 547815 : && wi::popcount (wi::to_wide (lr_arg) + 1) == 1)
8091 : : {
8092 : 4058 : ll_and_mask = ~wi::to_wide (lr_arg);
8093 : 4058 : lcode = (lcode == GT_EXPR ? NE_EXPR : EQ_EXPR);
8094 : 4058 : lr_arg = wide_int_to_tree (TREE_TYPE (ll_arg), ll_and_mask * 0);
8095 : : }
8096 : : /* Likewise for the second compare. */
8097 : 268107 : if ((rcode == LT_EXPR || rcode == GE_EXPR)
8098 : 20739 : && integer_zerop (rr_arg)
8099 : 1701 : && INTEGRAL_TYPE_P (TREE_TYPE (rl_arg))
8100 : 269808 : && !TYPE_UNSIGNED (TREE_TYPE (rl_arg)))
8101 : : {
8102 : 1701 : rsignbit = true;
8103 : 1701 : rcode = (rcode == LT_EXPR ? NE_EXPR : EQ_EXPR);
8104 : : }
8105 : 266406 : else if ((rcode == LT_EXPR || rcode == GE_EXPR)
8106 : 19038 : && INTEGRAL_TYPE_P (TREE_TYPE (rl_arg))
8107 : 16431 : && TYPE_UNSIGNED (TREE_TYPE (rl_arg))
8108 : 2754 : && uniform_integer_cst_p (rr_arg)
8109 : 266406 : && wi::popcount (wi::to_wide (rr_arg)) == 1)
8110 : : {
8111 : 0 : rl_and_mask = ~(wi::to_wide (rr_arg) - 1);
8112 : 0 : rcode = (rcode == GE_EXPR ? NE_EXPR : EQ_EXPR);
8113 : 0 : rr_arg = wide_int_to_tree (TREE_TYPE (rl_arg), rl_and_mask * 0);
8114 : : }
8115 : 532812 : else if ((rcode == LE_EXPR || rcode == GT_EXPR)
8116 : 26779 : && INTEGRAL_TYPE_P (TREE_TYPE (rl_arg))
8117 : 26477 : && TYPE_UNSIGNED (TREE_TYPE (rl_arg))
8118 : 15792 : && uniform_integer_cst_p (rr_arg)
8119 : 559591 : && wi::popcount (wi::to_wide (rr_arg) + 1) == 1)
8120 : : {
8121 : 3482 : rl_and_mask = ~wi::to_wide (rr_arg);
8122 : 3482 : rcode = (rcode == GT_EXPR ? NE_EXPR : EQ_EXPR);
8123 : 3482 : rr_arg = wide_int_to_tree (TREE_TYPE (rl_arg), rl_and_mask * 0);
8124 : : }
8125 : :
8126 : : /* See if the comparisons can be merged. Then get all the parameters for
8127 : : each side. */
8128 : :
8129 : 268107 : if ((lcode != EQ_EXPR && lcode != NE_EXPR)
8130 : 244989 : || (rcode != EQ_EXPR && rcode != NE_EXPR))
8131 : : return 0;
8132 : :
8133 : 220001 : ll_reversep = lr_reversep = rl_reversep = rr_reversep = 0;
8134 : 220001 : volatilep = 0;
8135 : 220001 : bool l_xor = false, r_xor = false;
8136 : 220001 : ll_inner = decode_field_reference (&ll_arg, &ll_bitsize, &ll_bitpos,
8137 : : &ll_unsignedp, &ll_reversep, &volatilep,
8138 : : &ll_and_mask, &ll_signbit, &l_xor, &lr_arg,
8139 : : &ll_load, ll_loc);
8140 : 220001 : lr_inner = decode_field_reference (&lr_arg, &lr_bitsize, &lr_bitpos,
8141 : : &lr_unsignedp, &lr_reversep, &volatilep,
8142 : : &lr_and_mask, &lr_signbit, &l_xor, 0,
8143 : : &lr_load, lr_loc);
8144 : 220001 : rl_inner = decode_field_reference (&rl_arg, &rl_bitsize, &rl_bitpos,
8145 : : &rl_unsignedp, &rl_reversep, &volatilep,
8146 : : &rl_and_mask, &rl_signbit, &r_xor, &rr_arg,
8147 : : &rl_load, rl_loc);
8148 : 220001 : rr_inner = decode_field_reference (&rr_arg, &rr_bitsize, &rr_bitpos,
8149 : : &rr_unsignedp, &rr_reversep, &volatilep,
8150 : : &rr_and_mask, &rr_signbit, &r_xor, 0,
8151 : : &rr_load, rr_loc);
8152 : :
8153 : : /* It must be true that the inner operation on the lhs of each
8154 : : comparison must be the same if we are to be able to do anything.
8155 : : Then see if we have constants. If not, the same must be true for
8156 : : the rhs's. If one is a load and the other isn't, we have to be
8157 : : conservative and avoid the optimization, otherwise we could get
8158 : : SRAed fields wrong. */
8159 : 220001 : if (volatilep
8160 : 219980 : || ll_reversep != rl_reversep
8161 : 219935 : || ll_inner == 0 || rl_inner == 0)
8162 : : return 0;
8163 : :
8164 : 151540 : if (! operand_equal_p (ll_inner, rl_inner, 0))
8165 : : {
8166 : : /* Try swapping the operands. */
8167 : 77224 : if (ll_reversep != rr_reversep
8168 : 77224 : || !rr_inner
8169 : 153685 : || !operand_equal_p (ll_inner, rr_inner, 0))
8170 : 76829 : return 0;
8171 : :
8172 : 395 : rcode = swap_tree_comparison (rcode);
8173 : 395 : std::swap (rl_arg, rr_arg);
8174 : 395 : std::swap (rl_inner, rr_inner);
8175 : 395 : std::swap (rl_bitsize, rr_bitsize);
8176 : 395 : std::swap (rl_bitpos, rr_bitpos);
8177 : 395 : std::swap (rl_unsignedp, rr_unsignedp);
8178 : 395 : std::swap (rl_reversep, rr_reversep);
8179 : 395 : std::swap (rl_and_mask, rr_and_mask);
8180 : 395 : std::swap (rl_signbit, rr_signbit);
8181 : 395 : std::swap (rl_load, rr_load);
8182 : 395 : std::swap (rl_loc, rr_loc);
8183 : : }
8184 : :
8185 : 147346 : if ((ll_load && rl_load)
8186 : 292616 : ? gimple_vuse (ll_load) != gimple_vuse (rl_load)
8187 : 2076 : : (!ll_load != !rl_load))
8188 : : return 0;
8189 : :
8190 : : /* ??? Can we do anything with these? */
8191 : 74380 : if (lr_signbit || rr_signbit)
8192 : : return 0;
8193 : :
8194 : : /* If the mask encompassed extensions of the sign bit before
8195 : : clipping, try to include the sign bit in the test. If we're not
8196 : : comparing with zero, don't even try to deal with it (for now?).
8197 : : If we've already commited to a sign test, the extended (before
8198 : : clipping) mask could already be messing with it. */
8199 : 74380 : if (ll_signbit)
8200 : : {
8201 : 3 : if (!integer_zerop (lr_arg) || lsignbit)
8202 : 0 : return 0;
8203 : 3 : wide_int sign = wi::mask (ll_bitsize - 1, true, ll_bitsize);
8204 : 3 : if (!ll_and_mask.get_precision ())
8205 : 0 : ll_and_mask = sign;
8206 : : else
8207 : 3 : ll_and_mask |= sign;
8208 : 3 : }
8209 : :
8210 : 74380 : if (rl_signbit)
8211 : : {
8212 : 3 : if (!integer_zerop (rr_arg) || rsignbit)
8213 : 0 : return 0;
8214 : 3 : wide_int sign = wi::mask (rl_bitsize - 1, true, rl_bitsize);
8215 : 3 : if (!rl_and_mask.get_precision ())
8216 : 0 : rl_and_mask = sign;
8217 : : else
8218 : 3 : rl_and_mask |= sign;
8219 : 3 : }
8220 : :
8221 : 74380 : if (TREE_CODE (lr_arg) == INTEGER_CST
8222 : 64831 : && TREE_CODE (rr_arg) == INTEGER_CST)
8223 : : {
8224 : 64401 : l_const = wi::to_wide (lr_arg);
8225 : : /* We don't expect masks on constants, but if there are any, apply
8226 : : them now. */
8227 : 64401 : if (lr_and_mask.get_precision ())
8228 : 0 : l_const &= wide_int::from (lr_and_mask,
8229 : 0 : l_const.get_precision (), UNSIGNED);
8230 : 64401 : r_const = wi::to_wide (rr_arg);
8231 : 64401 : if (rr_and_mask.get_precision ())
8232 : 0 : r_const &= wide_int::from (rr_and_mask,
8233 : 0 : r_const.get_precision (), UNSIGNED);
8234 : 64401 : lr_reversep = ll_reversep;
8235 : : }
8236 : 9979 : else if (lr_reversep != rr_reversep
8237 : 9979 : || lr_inner == 0 || rr_inner == 0
8238 : 9888 : || ! operand_equal_p (lr_inner, rr_inner, 0)
8239 : 18870 : || ((lr_load && rr_load)
8240 : 26598 : ? gimple_vuse (lr_load) != gimple_vuse (rr_load)
8241 : 25 : : (!lr_load != !rr_load)))
8242 : 1110 : return 0;
8243 : :
8244 : : /* If we found sign tests, finish turning them into bit tests. */
8245 : :
8246 : 73270 : if (lsignbit)
8247 : : {
8248 : 55 : wide_int sign = wi::mask (ll_bitsize - 1, true, ll_bitsize);
8249 : 55 : if (!ll_and_mask.get_precision ())
8250 : 55 : ll_and_mask = sign;
8251 : : else
8252 : 0 : ll_and_mask &= sign;
8253 : 55 : }
8254 : :
8255 : 73270 : if (rsignbit)
8256 : : {
8257 : 206 : wide_int sign = wi::mask (rl_bitsize - 1, true, rl_bitsize);
8258 : 206 : if (!rl_and_mask.get_precision ())
8259 : 206 : rl_and_mask = sign;
8260 : : else
8261 : 0 : rl_and_mask &= sign;
8262 : 206 : }
8263 : :
8264 : : /* If either comparison code is not correct for our logical operation,
8265 : : fail. However, we can convert a one-bit comparison against zero into
8266 : : the opposite comparison against that bit being set in the field. */
8267 : :
8268 : 73270 : wanted_code = (code == TRUTH_AND_EXPR ? EQ_EXPR : NE_EXPR);
8269 : 73270 : if (lcode != wanted_code)
8270 : : {
8271 : 4759 : if (l_const.get_precision ()
8272 : 4643 : && l_const == 0
8273 : 1628 : && ll_and_mask.get_precision ()
8274 : 5064 : && wi::popcount (ll_and_mask) == 1)
8275 : : {
8276 : : /* Make the left operand unsigned, since we are only interested
8277 : : in the value of one bit. Otherwise we are doing the wrong
8278 : : thing below. */
8279 : 156 : ll_unsignedp = 1;
8280 : 156 : l_const = ll_and_mask;
8281 : : }
8282 : : else
8283 : 4603 : return 0;
8284 : : }
8285 : :
8286 : : /* This is analogous to the code for l_const above. */
8287 : 68667 : if (rcode != wanted_code)
8288 : : {
8289 : 856 : if (r_const.get_precision ()
8290 : 856 : && r_const == 0
8291 : 790 : && rl_and_mask.get_precision ()
8292 : 1471 : && wi::popcount (rl_and_mask) == 1)
8293 : : {
8294 : 446 : rl_unsignedp = 1;
8295 : 446 : r_const = rl_and_mask;
8296 : : }
8297 : : else
8298 : 410 : return 0;
8299 : : }
8300 : :
8301 : : /* This will be bumped to 2 if any of the field pairs crosses an
8302 : : alignment boundary, so the merged compare has to be done in two
8303 : : parts. */
8304 : 204771 : int parts = 1;
8305 : : /* Set to true if the second combined compare should come first,
8306 : : e.g., because the second original compare accesses a word that
8307 : : the first one doesn't, and the combined compares access those in
8308 : : cmp[0]. */
8309 : 204771 : bool first1 = false;
8310 : : /* Set to true if the first original compare is not the one being
8311 : : split. */
8312 : 204771 : bool maybe_separate = false;
8313 : :
8314 : : /* The following 2-dimensional arrays use the first index to
8315 : : identify left(0)- vs right(1)-hand compare operands, and the
8316 : : second one to identify merged compare parts. */
8317 : : /* The memory loads or constants to be compared. */
8318 : : tree ld_arg[2][2];
8319 : : /* The first bit of the corresponding inner object that the
8320 : : corresponding LD_ARG covers. */
8321 : : HOST_WIDE_INT bitpos[2][2];
8322 : : /* The bit count starting at BITPOS that the corresponding LD_ARG
8323 : : covers. */
8324 : : HOST_WIDE_INT bitsiz[2][2];
8325 : : /* The number of bits by which LD_ARG has already been shifted
8326 : : right, WRT mask. */
8327 : : HOST_WIDE_INT shifted[2][2];
8328 : : /* The number of bits by which both LD_ARG and MASK need shifting to
8329 : : bring its least-significant bit to bit zero. */
8330 : : HOST_WIDE_INT toshift[2][2];
8331 : : /* An additional mask to be applied to LD_ARG, to remove any bits
8332 : : that may have been loaded for use in another compare, but that
8333 : : don't belong in the corresponding compare. */
8334 : 819084 : wide_int xmask[2][2] = {};
8335 : :
8336 : : /* The combined compare or compares. */
8337 : 68257 : tree cmp[2];
8338 : :
8339 : : /* Consider we're comparing two non-contiguous fields of packed
8340 : : structs, both aligned at 32-bit boundaries:
8341 : :
8342 : : ll_arg: an 8-bit field at offset 0
8343 : : lr_arg: a 16-bit field at offset 2
8344 : :
8345 : : rl_arg: an 8-bit field at offset 1
8346 : : rr_arg: a 16-bit field at offset 3
8347 : :
8348 : : We'll have r_split_load, because rr_arg straddles across an
8349 : : alignment boundary.
8350 : :
8351 : : We'll want to have:
8352 : :
8353 : : bitpos = { { 0, 0 }, { 0, 32 } }
8354 : : bitsiz = { { 32, 32 }, { 32, 8 } }
8355 : :
8356 : : And, for little-endian:
8357 : :
8358 : : shifted = { { 0, 0 }, { 0, 32 } }
8359 : : toshift = { { 0, 24 }, { 0, 0 } }
8360 : :
8361 : : Or, for big-endian:
8362 : :
8363 : : shifted = { { 0, 0 }, { 8, 0 } }
8364 : : toshift = { { 8, 0 }, { 0, 0 } }
8365 : : */
8366 : :
8367 : : /* See if we can find a mode that contains both fields being compared on
8368 : : the left. If we can't, fail. Otherwise, update all constants and masks
8369 : : to be relative to a field of that size. */
8370 : 68257 : first_bit = MIN (ll_bitpos, rl_bitpos);
8371 : 68257 : end_bit = MAX (ll_bitpos + ll_bitsize, rl_bitpos + rl_bitsize);
8372 : 68257 : HOST_WIDE_INT ll_align = TYPE_ALIGN (TREE_TYPE (ll_inner));
8373 : 68257 : poly_uint64 ll_end_region = 0;
8374 : 68257 : if (TYPE_SIZE (TREE_TYPE (ll_inner))
8375 : 68257 : && uniform_integer_cst_p (TYPE_SIZE (TREE_TYPE (ll_inner))))
8376 : 68245 : ll_end_region = tree_to_poly_uint64 (TYPE_SIZE (TREE_TYPE (ll_inner)));
8377 : 68257 : if (get_best_mode (end_bit - first_bit, first_bit, 0, ll_end_region,
8378 : 68257 : ll_align, BITS_PER_WORD, volatilep, &lnmode))
8379 : : l_split_load = false;
8380 : : else
8381 : : {
8382 : : /* Consider the possibility of recombining loads if any of the
8383 : : fields straddles across an alignment boundary, so that either
8384 : : part can be loaded along with the other field. */
8385 : 65906 : HOST_WIDE_INT boundary = compute_split_boundary_from_align
8386 : 65906 : (ll_align, ll_bitpos, ll_bitsize, rl_bitpos, rl_bitsize);
8387 : :
8388 : 65906 : if (boundary < 0
8389 : 6 : || !get_best_mode (boundary - first_bit, first_bit, 0, ll_end_region,
8390 : 6 : ll_align, BITS_PER_WORD, volatilep, &lnmode)
8391 : 65912 : || !get_best_mode (end_bit - boundary, boundary, 0, ll_end_region,
8392 : 6 : ll_align, BITS_PER_WORD, volatilep, &lnmode2))
8393 : 65900 : return 0;
8394 : :
8395 : : /* If we can't have a single load, but can with two, figure out whether
8396 : : the two compares can be separated, i.e., whether the entirety of the
8397 : : first original compare is encompassed by the entirety of the first
8398 : : combined compare. If the first original compare is past the alignment
8399 : : boundary, arrange to compare that range first, by setting first1
8400 : : (meaning make cmp[1] first, instead of cmp[0]). */
8401 : 6 : l_split_load = true;
8402 : 6 : parts = 2;
8403 : 6 : if (ll_bitpos >= boundary)
8404 : : maybe_separate = first1 = true;
8405 : 3 : else if (ll_bitpos + ll_bitsize <= boundary)
8406 : 3 : maybe_separate = true;
8407 : : }
8408 : :
8409 : 2357 : lnbitsize = GET_MODE_BITSIZE (lnmode);
8410 : 2357 : lnbitpos = first_bit & ~ (lnbitsize - 1);
8411 : : /* Avoid situations that the code below can't handle. */
8412 : 2357 : if (lnbitpos < 0)
8413 : : return 0;
8414 : :
8415 : : /* Choose the type for the combined compare. Even if we're splitting loads,
8416 : : make it wide enough to hold both. */
8417 : 2357 : if (l_split_load)
8418 : 12 : lnbitsize += GET_MODE_BITSIZE (lnmode2);
8419 : 2357 : lntype = build_nonstandard_integer_type (lnbitsize, 1);
8420 : 2357 : if (!lntype)
8421 : : return NULL_TREE;
8422 : 2357 : lnprec = TYPE_PRECISION (lntype);
8423 : 2357 : xll_bitpos = ll_bitpos - lnbitpos, xrl_bitpos = rl_bitpos - lnbitpos;
8424 : :
8425 : : /* Adjust bit ranges for reverse endianness. */
8426 : 2357 : if (ll_reversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
8427 : : {
8428 : 6 : xll_bitpos = lnbitsize - xll_bitpos - ll_bitsize;
8429 : 6 : xrl_bitpos = lnbitsize - xrl_bitpos - rl_bitsize;
8430 : : }
8431 : :
8432 : : /* Adjust masks to match the positions in the combined lntype. */
8433 : 4714 : wide_int ll_mask, rl_mask, r_mask;
8434 : 2357 : if (ll_and_mask.get_precision ())
8435 : 2558 : ll_mask = wi::lshift (wide_int::from (ll_and_mask, lnprec, UNSIGNED),
8436 : 1279 : xll_bitpos);
8437 : : else
8438 : 1078 : ll_mask = wi::shifted_mask (xll_bitpos, ll_bitsize, false, lnprec);
8439 : 2357 : if (rl_and_mask.get_precision ())
8440 : 2304 : rl_mask = wi::lshift (wide_int::from (rl_and_mask, lnprec, UNSIGNED),
8441 : 1152 : xrl_bitpos);
8442 : : else
8443 : 1205 : rl_mask = wi::shifted_mask (xrl_bitpos, rl_bitsize, false, lnprec);
8444 : :
8445 : : /* Adjust right-hand constants in both original comparisons to match width
8446 : : and bit position. */
8447 : 2357 : if (l_const.get_precision ())
8448 : : {
8449 : : /* We're doing bitwise equality tests, so don't bother with sign
8450 : : extensions. */
8451 : 1926 : l_const = wide_int::from (l_const, lnprec, UNSIGNED);
8452 : 1926 : if (ll_and_mask.get_precision ())
8453 : 1235 : l_const &= wide_int::from (ll_and_mask, lnprec, UNSIGNED);
8454 : 1926 : l_const <<= xll_bitpos;
8455 : 1926 : if ((l_const & ~ll_mask) != 0)
8456 : : {
8457 : 0 : warning_at (lloc, OPT_Wtautological_compare,
8458 : : "comparison is always %d", wanted_code == NE_EXPR);
8459 : :
8460 : 0 : return constant_boolean_node (wanted_code == NE_EXPR, truth_type);
8461 : : }
8462 : :
8463 : : /* When we set l_const, we also set r_const, so we need not test it
8464 : : again. */
8465 : 1926 : gcc_checking_assert (r_const.get_precision ());
8466 : :
8467 : 1926 : r_const = wide_int::from (r_const, lnprec, UNSIGNED);
8468 : 1926 : if (rl_and_mask.get_precision ())
8469 : 1148 : r_const &= wide_int::from (rl_and_mask, lnprec, UNSIGNED);
8470 : 1926 : r_const <<= xrl_bitpos;
8471 : 1926 : if ((r_const & ~rl_mask) != 0)
8472 : : {
8473 : 0 : warning_at (rloc, OPT_Wtautological_compare,
8474 : : "comparison is always %d", wanted_code == NE_EXPR);
8475 : :
8476 : 0 : return constant_boolean_node (wanted_code == NE_EXPR, truth_type);
8477 : : }
8478 : :
8479 : : /* If there is something in common between the masks, those bits of the
8480 : : constants must be the same. If not, the combined condition cannot be
8481 : : met, and the result is known. Test for this to avoid generating
8482 : : incorrect code below. */
8483 : 1926 : wide_int mask = ll_mask & rl_mask;
8484 : 1926 : if (mask != 0
8485 : 1977 : && (l_const & mask) != (r_const & mask))
8486 : : {
8487 : 0 : if (wanted_code == NE_EXPR)
8488 : 0 : return constant_boolean_node (true, truth_type);
8489 : : else
8490 : 0 : return constant_boolean_node (false, truth_type);
8491 : : }
8492 : :
8493 : : /* The constants are combined so as to line up with the loaded field, so
8494 : : tentatively use the same parameters for the second combined
8495 : : compare. */
8496 : 1926 : ld_arg[1][0] = wide_int_to_tree (lntype, l_const | r_const);
8497 : 1926 : toshift[1][0] = MIN (xll_bitpos, xrl_bitpos);
8498 : 1926 : shifted[1][0] = 0;
8499 : 1926 : bitpos[1][0] = lnbitpos;
8500 : 1926 : bitsiz[1][0] = lnbitsize;
8501 : :
8502 : 1926 : if (parts > 1)
8503 : 6 : reuse_split_load (ld_arg[1], bitpos[1], bitsiz[1], toshift[1],
8504 : : shifted[1], xmask[1],
8505 : 6 : lnbitpos + GET_MODE_BITSIZE (lnmode),
8506 : : lr_reversep);
8507 : :
8508 : : /* No masking needed, we know the full constants. */
8509 : 1926 : r_mask = wi::mask (0, true, lnprec);
8510 : :
8511 : : /* If the compiler thinks this is used uninitialized below, it's
8512 : : because it can't realize that parts can only be 2 when
8513 : : comparing with constants if l_split_load is also true. This
8514 : : just silences the warning. */
8515 : 1926 : rnbitpos = 0;
8516 : 1926 : }
8517 : :
8518 : : /* Likewise, if the right sides are not constant, align them for the combined
8519 : : compare. Also, disallow this optimization if a size, signedness or
8520 : : storage order mismatch occurs between the left and right sides. */
8521 : : else
8522 : : {
8523 : 431 : if (ll_bitsize != lr_bitsize || rl_bitsize != rr_bitsize
8524 : 370 : || ll_unsignedp != lr_unsignedp || rl_unsignedp != rr_unsignedp
8525 : 370 : || ll_reversep != lr_reversep
8526 : : /* Make sure the two fields on the right
8527 : : correspond to the left without being swapped. */
8528 : 370 : || ll_bitpos - rl_bitpos != lr_bitpos - rr_bitpos)
8529 : 295 : return 0;
8530 : :
8531 : 138 : bool r_split_load;
8532 : 138 : scalar_int_mode rnmode2;
8533 : :
8534 : : /* Figure out how to load the bits for the right-hand size of the
8535 : : combined compare. As in the left-hand size, we may have to split it,
8536 : : and then we use two separate compares. */
8537 : 138 : first_bit = MIN (lr_bitpos, rr_bitpos);
8538 : 138 : end_bit = MAX (lr_bitpos + lr_bitsize, rr_bitpos + rr_bitsize);
8539 : 138 : HOST_WIDE_INT lr_align = TYPE_ALIGN (TREE_TYPE (lr_inner));
8540 : 138 : poly_uint64 lr_end_region = 0;
8541 : 138 : if (TYPE_SIZE (TREE_TYPE (lr_inner))
8542 : 138 : && uniform_integer_cst_p (TYPE_SIZE (TREE_TYPE (lr_inner))))
8543 : 138 : lr_end_region = tree_to_poly_uint64 (TYPE_SIZE (TREE_TYPE (lr_inner)));
8544 : 138 : if (!get_best_mode (end_bit - first_bit, first_bit, 0, lr_end_region,
8545 : 138 : lr_align, BITS_PER_WORD, volatilep, &rnmode))
8546 : : {
8547 : : /* Consider the possibility of recombining loads if any of the
8548 : : fields straddles across an alignment boundary, so that either
8549 : : part can be loaded along with the other field. */
8550 : 4 : HOST_WIDE_INT boundary = compute_split_boundary_from_align
8551 : 4 : (lr_align, lr_bitpos, lr_bitsize, rr_bitpos, rr_bitsize);
8552 : :
8553 : 4 : if (boundary < 0
8554 : : /* If we're to split both, make sure the split point is
8555 : : the same. */
8556 : 2 : || (l_split_load
8557 : 0 : && (boundary - lr_bitpos
8558 : 0 : != (lnbitpos + GET_MODE_BITSIZE (lnmode)) - ll_bitpos))
8559 : 2 : || !get_best_mode (boundary - first_bit, first_bit,
8560 : 2 : 0, lr_end_region,
8561 : 2 : lr_align, BITS_PER_WORD, volatilep, &rnmode)
8562 : 6 : || !get_best_mode (end_bit - boundary, boundary, 0, lr_end_region,
8563 : 2 : lr_align, BITS_PER_WORD, volatilep, &rnmode2))
8564 : 2 : return 0;
8565 : :
8566 : 2 : r_split_load = true;
8567 : 2 : parts = 2;
8568 : 2 : if (lr_bitpos >= boundary)
8569 : : maybe_separate = first1 = true;
8570 : 2 : else if (lr_bitpos + lr_bitsize <= boundary)
8571 : 2 : maybe_separate = true;
8572 : : }
8573 : : else
8574 : : r_split_load = false;
8575 : :
8576 : : /* Find a type that can hold the entire right-hand operand. */
8577 : 136 : rnbitsize = GET_MODE_BITSIZE (rnmode);
8578 : 136 : rnbitpos = first_bit & ~ (rnbitsize - 1);
8579 : 136 : if (r_split_load)
8580 : 4 : rnbitsize += GET_MODE_BITSIZE (rnmode2);
8581 : 136 : rntype = build_nonstandard_integer_type (rnbitsize, 1);
8582 : 136 : if (!rntype)
8583 : : return 0;
8584 : 136 : rnprec = TYPE_PRECISION (rntype);
8585 : 136 : xlr_bitpos = lr_bitpos - rnbitpos, xrr_bitpos = rr_bitpos - rnbitpos;
8586 : :
8587 : : /* Adjust for reversed endianness. */
8588 : 136 : if (lr_reversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
8589 : : {
8590 : 0 : xlr_bitpos = rnbitsize - xlr_bitpos - lr_bitsize;
8591 : 0 : xrr_bitpos = rnbitsize - xrr_bitpos - rr_bitsize;
8592 : : }
8593 : :
8594 : : /* Adjust the masks to match the combined type, and combine them. */
8595 : 136 : wide_int lr_mask, rr_mask;
8596 : 136 : if (lr_and_mask.get_precision ())
8597 : 80 : lr_mask = wi::lshift (wide_int::from (lr_and_mask, rnprec, UNSIGNED),
8598 : 40 : xlr_bitpos);
8599 : : else
8600 : 96 : lr_mask = wi::shifted_mask (xlr_bitpos, lr_bitsize, false, rnprec);
8601 : 136 : if (rl_and_mask.get_precision ())
8602 : 0 : rr_mask = wi::lshift (wide_int::from (rr_and_mask, rnprec, UNSIGNED),
8603 : 0 : xrr_bitpos);
8604 : : else
8605 : 136 : rr_mask = wi::shifted_mask (xrr_bitpos, rr_bitsize, false, rnprec);
8606 : 136 : r_mask = lr_mask | rr_mask;
8607 : :
8608 : : /* Load the right-hand operand of the combined compare. */
8609 : 136 : toshift[1][0] = MIN (xlr_bitpos, xrr_bitpos);
8610 : 136 : shifted[1][0] = 0;
8611 : :
8612 : 136 : if (!r_split_load)
8613 : : {
8614 : 134 : bitpos[1][0] = rnbitpos;
8615 : 134 : bitsiz[1][0] = rnbitsize;
8616 : 134 : ld_arg[1][0] = make_bit_field_load (ll_loc[3], lr_inner, lr_arg,
8617 : : rntype, rnbitsize, rnbitpos,
8618 : 134 : lr_unsignedp || rr_unsignedp,
8619 : : lr_reversep, lr_load);
8620 : : }
8621 : :
8622 : : /* ... and the second part of the right-hand operand if needed. */
8623 : 136 : if (parts > 1)
8624 : : {
8625 : 2 : if (r_split_load)
8626 : : {
8627 : 2 : gimple *point[2];
8628 : 2 : point[0] = lr_load;
8629 : 2 : point[1] = rr_load;
8630 : 2 : build_split_load (ld_arg[1], bitpos[1], bitsiz[1], toshift[1],
8631 : : shifted[1], rl_loc[3], lr_inner, lr_arg,
8632 : : rnmode, rnmode2, rnbitpos, lr_reversep, point);
8633 : : }
8634 : : else
8635 : 0 : reuse_split_load (ld_arg[1], bitpos[1], bitsiz[1], toshift[1],
8636 : : shifted[1], xmask[1],
8637 : 0 : lnbitpos + GET_MODE_BITSIZE (lnmode)
8638 : 0 : - ll_bitpos + lr_bitpos, lr_reversep);
8639 : : }
8640 : 136 : }
8641 : :
8642 : : /* Now issue the loads for the left-hand combined operand/s. */
8643 : 4124 : wide_int l_mask = ll_mask | rl_mask;
8644 : 2062 : toshift[0][0] = MIN (xll_bitpos, xrl_bitpos);
8645 : 2062 : shifted[0][0] = 0;
8646 : :
8647 : 2062 : if (!l_split_load)
8648 : : {
8649 : 2056 : bitpos[0][0] = lnbitpos;
8650 : 2056 : bitsiz[0][0] = lnbitsize;
8651 : 2056 : ld_arg[0][0] = make_bit_field_load (ll_loc[3], ll_inner, ll_arg,
8652 : : lntype, lnbitsize, lnbitpos,
8653 : 2056 : ll_unsignedp || rl_unsignedp,
8654 : : ll_reversep, ll_load);
8655 : : }
8656 : :
8657 : 2062 : if (parts > 1)
8658 : : {
8659 : 8 : if (l_split_load)
8660 : : {
8661 : 6 : gimple *point[2];
8662 : 6 : point[0] = ll_load;
8663 : 6 : point[1] = rl_load;
8664 : 6 : build_split_load (ld_arg[0], bitpos[0], bitsiz[0], toshift[0],
8665 : : shifted[0], rl_loc[3], ll_inner, ll_arg,
8666 : : lnmode, lnmode2, lnbitpos, ll_reversep, point);
8667 : : }
8668 : : else
8669 : 2 : reuse_split_load (ld_arg[0], bitpos[0], bitsiz[0], toshift[0],
8670 : : shifted[0], xmask[0],
8671 : 2 : rnbitpos + GET_MODE_BITSIZE (rnmode)
8672 : 2 : - lr_bitpos + ll_bitpos, ll_reversep);
8673 : : }
8674 : :
8675 : : /* Compute the compares. */
8676 : 4132 : for (int i = 0; i < parts; i++)
8677 : : {
8678 : 2070 : tree op[2] = { ld_arg[0][i], ld_arg[1][i] };
8679 : 6210 : wide_int mask[2] = { l_mask, r_mask };
8680 : 2070 : location_t *locs[2] = { i ? rl_loc : ll_loc, i ? rr_loc : lr_loc };
8681 : :
8682 : : /* Figure out the masks, and unshare the original operands. */
8683 : 6210 : for (int j = 0; j < 2; j++)
8684 : : {
8685 : 4140 : unsigned prec = TYPE_PRECISION (TREE_TYPE (op[j]));
8686 : 4140 : op[j] = unshare_expr (op[j]);
8687 : :
8688 : : /* Mask out the bits belonging to the other part. */
8689 : 4140 : if (xmask[j][i].get_precision ())
8690 : 16 : mask[j] &= xmask[j][i];
8691 : :
8692 : 4140 : if (shifted[j][i])
8693 : : {
8694 : 8 : wide_int shift = wide_int::from (shifted[j][i], prec, UNSIGNED);
8695 : 8 : mask[j] = wi::lrshift (mask[j], shift);
8696 : 8 : }
8697 : 4140 : mask[j] = wide_int::from (mask[j], prec, UNSIGNED);
8698 : : }
8699 : :
8700 : : /* Line up the operands for a compare. */
8701 : 2070 : HOST_WIDE_INT shift = (toshift[0][i] - toshift[1][i]);
8702 : :
8703 : 2070 : if (shift)
8704 : : {
8705 : 11 : int j;
8706 : 11 : if (shift > 0)
8707 : : j = 0;
8708 : : else
8709 : : {
8710 : 9 : j = 1;
8711 : 9 : shift = -shift;
8712 : : }
8713 : :
8714 : 11 : tree shiftsz = bitsize_int (shift);
8715 : 11 : op[j] = fold_build2_loc (locs[j][1], RSHIFT_EXPR, TREE_TYPE (op[j]),
8716 : : op[j], shiftsz);
8717 : 11 : mask[j] = wi::lrshift (mask[j], shift);
8718 : : }
8719 : :
8720 : : /* Convert to the smaller type before masking out unwanted
8721 : : bits. */
8722 : 2070 : tree type = TREE_TYPE (op[0]);
8723 : 2070 : if (type != TREE_TYPE (op[1]))
8724 : : {
8725 : 148 : int j = (TYPE_PRECISION (type)
8726 : 148 : < TYPE_PRECISION (TREE_TYPE (op[1])));
8727 : 148 : if (!j)
8728 : 135 : type = TREE_TYPE (op[1]);
8729 : 148 : op[j] = fold_convert_loc (locs[j][0], type, op[j]);
8730 : 148 : mask[j] = wide_int::from (mask[j], TYPE_PRECISION (type), UNSIGNED);
8731 : : }
8732 : :
8733 : : /* Apply masks. */
8734 : 6210 : for (int j = 0; j < 2; j++)
8735 : 4140 : if (mask[j] != wi::mask (0, true, mask[j].get_precision ()))
8736 : 1311 : op[j] = build2_loc (locs[j][2], BIT_AND_EXPR, type,
8737 : 2622 : op[j], wide_int_to_tree (type, mask[j]));
8738 : :
8739 : 4132 : cmp[i] = build2_loc (i ? rloc : lloc, wanted_code, truth_type,
8740 : : op[0], op[1]);
8741 : 6210 : }
8742 : :
8743 : : /* Reorder the compares if needed. */
8744 : 2062 : if (first1)
8745 : 3 : std::swap (cmp[0], cmp[1]);
8746 : :
8747 : : /* Prepare to return the resulting compares. Combine two parts if
8748 : : needed. */
8749 : 2062 : if (parts == 1)
8750 : 2054 : result = cmp[0];
8751 : 8 : else if (!separatep || !maybe_separate)
8752 : 2 : result = build2_loc (rloc, orig_code, truth_type, cmp[0], cmp[1]);
8753 : : else
8754 : : {
8755 : 6 : result = cmp[0];
8756 : 6 : *separatep = cmp[1];
8757 : : }
8758 : :
8759 : 2062 : return result;
8760 : 268107 : }
8761 : :
8762 : : /* Try to simplify the AND of two comparisons, specified by
8763 : : (OP1A CODE1 OP1B) and (OP2B CODE2 OP2B), respectively.
8764 : : If this can be simplified to a single expression (without requiring
8765 : : introducing more SSA variables to hold intermediate values),
8766 : : return the resulting tree. Otherwise return NULL_TREE.
8767 : : If the result expression is non-null, it has boolean type. */
8768 : :
8769 : : tree
8770 : 425987 : maybe_fold_and_comparisons (tree type,
8771 : : enum tree_code code1, tree op1a, tree op1b,
8772 : : enum tree_code code2, tree op2a, tree op2b,
8773 : : basic_block outer_cond_bb)
8774 : : {
8775 : 425987 : if (tree t = and_comparisons_1 (type, code1, op1a, op1b, code2, op2a, op2b,
8776 : : outer_cond_bb))
8777 : : return t;
8778 : :
8779 : 425094 : if (tree t = and_comparisons_1 (type, code2, op2a, op2b, code1, op1a, op1b,
8780 : : outer_cond_bb))
8781 : : return t;
8782 : :
8783 : 425076 : if (tree t = maybe_fold_comparisons_from_match_pd (type, BIT_AND_EXPR, code1,
8784 : : op1a, op1b, code2, op2a,
8785 : : op2b, outer_cond_bb))
8786 : : return t;
8787 : :
8788 : : return NULL_TREE;
8789 : : }
8790 : :
8791 : : /* Helper function for or_comparisons_1: try to simplify the OR of the
8792 : : ssa variable VAR with the comparison specified by (OP2A CODE2 OP2B).
8793 : : If INVERT is true, invert the value of VAR before doing the OR.
8794 : : Return NULL_EXPR if we can't simplify this to a single expression. */
8795 : :
8796 : : static tree
8797 : 40317 : or_var_with_comparison (tree type, tree var, bool invert,
8798 : : enum tree_code code2, tree op2a, tree op2b,
8799 : : basic_block outer_cond_bb)
8800 : : {
8801 : 40317 : tree t;
8802 : 40317 : gimple *stmt = SSA_NAME_DEF_STMT (var);
8803 : :
8804 : : /* We can only deal with variables whose definitions are assignments. */
8805 : 40317 : if (!is_gimple_assign (stmt))
8806 : : return NULL_TREE;
8807 : :
8808 : : /* If we have an inverted comparison, apply DeMorgan's law and rewrite
8809 : : !var OR (op2a code2 op2b) => !(var AND !(op2a code2 op2b))
8810 : : Then we only have to consider the simpler non-inverted cases. */
8811 : 40238 : if (invert)
8812 : 21290 : t = and_var_with_comparison_1 (type, stmt,
8813 : : invert_tree_comparison (code2, false),
8814 : : op2a, op2b, outer_cond_bb);
8815 : : else
8816 : 18948 : t = or_var_with_comparison_1 (type, stmt, code2, op2a, op2b,
8817 : : outer_cond_bb);
8818 : 40238 : return canonicalize_bool (t, invert);
8819 : : }
8820 : :
8821 : : /* Try to simplify the OR of the ssa variable defined by the assignment
8822 : : STMT with the comparison specified by (OP2A CODE2 OP2B).
8823 : : Return NULL_EXPR if we can't simplify this to a single expression. */
8824 : :
8825 : : static tree
8826 : 162346 : or_var_with_comparison_1 (tree type, gimple *stmt,
8827 : : enum tree_code code2, tree op2a, tree op2b,
8828 : : basic_block outer_cond_bb)
8829 : : {
8830 : 162346 : tree var = gimple_assign_lhs (stmt);
8831 : 162346 : tree true_test_var = NULL_TREE;
8832 : 162346 : tree false_test_var = NULL_TREE;
8833 : 162346 : enum tree_code innercode = gimple_assign_rhs_code (stmt);
8834 : :
8835 : : /* Check for identities like (var OR (var != 0)) => true . */
8836 : 162346 : if (TREE_CODE (op2a) == SSA_NAME
8837 : 162346 : && TREE_CODE (TREE_TYPE (var)) == BOOLEAN_TYPE)
8838 : : {
8839 : 15723 : if ((code2 == NE_EXPR && integer_zerop (op2b))
8840 : 50812 : || (code2 == EQ_EXPR && integer_nonzerop (op2b)))
8841 : : {
8842 : 13954 : true_test_var = op2a;
8843 : 13954 : if (var == true_test_var)
8844 : : return var;
8845 : : }
8846 : 3040 : else if ((code2 == EQ_EXPR && integer_zerop (op2b))
8847 : 30603 : || (code2 == NE_EXPR && integer_nonzerop (op2b)))
8848 : : {
8849 : 7216 : false_test_var = op2a;
8850 : 7216 : if (var == false_test_var)
8851 : 0 : return boolean_true_node;
8852 : : }
8853 : : }
8854 : :
8855 : : /* If the definition is a comparison, recurse on it. */
8856 : 162346 : if (TREE_CODE_CLASS (innercode) == tcc_comparison)
8857 : : {
8858 : 846 : tree t = or_comparisons_1 (type, innercode,
8859 : : gimple_assign_rhs1 (stmt),
8860 : : gimple_assign_rhs2 (stmt),
8861 : : code2, op2a, op2b, outer_cond_bb);
8862 : 846 : if (t)
8863 : : return t;
8864 : : }
8865 : :
8866 : : /* If the definition is an AND or OR expression, we may be able to
8867 : : simplify by reassociating. */
8868 : 162317 : if (TREE_CODE (TREE_TYPE (var)) == BOOLEAN_TYPE
8869 : 162317 : && (innercode == BIT_AND_EXPR || innercode == BIT_IOR_EXPR))
8870 : : {
8871 : 39696 : tree inner1 = gimple_assign_rhs1 (stmt);
8872 : 39696 : tree inner2 = gimple_assign_rhs2 (stmt);
8873 : 39696 : gimple *s;
8874 : 39696 : tree t;
8875 : 39696 : tree partial = NULL_TREE;
8876 : 39696 : bool is_or = (innercode == BIT_IOR_EXPR);
8877 : :
8878 : : /* Check for boolean identities that don't require recursive examination
8879 : : of inner1/inner2:
8880 : : inner1 OR (inner1 OR inner2) => inner1 OR inner2 => var
8881 : : inner1 OR (inner1 AND inner2) => inner1
8882 : : !inner1 OR (inner1 OR inner2) => true
8883 : : !inner1 OR (inner1 AND inner2) => !inner1 OR inner2
8884 : : */
8885 : 39696 : if (inner1 == true_test_var)
8886 : 0 : return (is_or ? var : inner1);
8887 : 39696 : else if (inner2 == true_test_var)
8888 : 0 : return (is_or ? var : inner2);
8889 : 39696 : else if (inner1 == false_test_var)
8890 : 0 : return (is_or
8891 : 0 : ? boolean_true_node
8892 : 0 : : or_var_with_comparison (type, inner2, false, code2, op2a,
8893 : : op2b, outer_cond_bb));
8894 : 39696 : else if (inner2 == false_test_var)
8895 : 0 : return (is_or
8896 : 0 : ? boolean_true_node
8897 : 0 : : or_var_with_comparison (type, inner1, false, code2, op2a,
8898 : : op2b, outer_cond_bb));
8899 : :
8900 : : /* Next, redistribute/reassociate the OR across the inner tests.
8901 : : Compute the first partial result, (inner1 OR (op2a code op2b)) */
8902 : 39696 : if (TREE_CODE (inner1) == SSA_NAME
8903 : 39696 : && is_gimple_assign (s = SSA_NAME_DEF_STMT (inner1))
8904 : 38664 : && TREE_CODE_CLASS (gimple_assign_rhs_code (s)) == tcc_comparison
8905 : 63559 : && (t = maybe_fold_or_comparisons (type, gimple_assign_rhs_code (s),
8906 : : gimple_assign_rhs1 (s),
8907 : : gimple_assign_rhs2 (s),
8908 : : code2, op2a, op2b,
8909 : : outer_cond_bb)))
8910 : : {
8911 : : /* Handle the OR case, where we are reassociating:
8912 : : (inner1 OR inner2) OR (op2a code2 op2b)
8913 : : => (t OR inner2)
8914 : : If the partial result t is a constant, we win. Otherwise
8915 : : continue on to try reassociating with the other inner test. */
8916 : 746 : if (is_or)
8917 : : {
8918 : 44 : if (integer_onep (t))
8919 : 0 : return boolean_true_node;
8920 : 44 : else if (integer_zerop (t))
8921 : : return inner2;
8922 : : }
8923 : :
8924 : : /* Handle the AND case, where we are redistributing:
8925 : : (inner1 AND inner2) OR (op2a code2 op2b)
8926 : : => (t AND (inner2 OR (op2a code op2b))) */
8927 : 702 : else if (integer_zerop (t))
8928 : 0 : return boolean_false_node;
8929 : :
8930 : : /* Save partial result for later. */
8931 : : partial = t;
8932 : : }
8933 : :
8934 : : /* Compute the second partial result, (inner2 OR (op2a code op2b)) */
8935 : 39696 : if (TREE_CODE (inner2) == SSA_NAME
8936 : 39696 : && is_gimple_assign (s = SSA_NAME_DEF_STMT (inner2))
8937 : 39016 : && TREE_CODE_CLASS (gimple_assign_rhs_code (s)) == tcc_comparison
8938 : 76984 : && (t = maybe_fold_or_comparisons (type, gimple_assign_rhs_code (s),
8939 : : gimple_assign_rhs1 (s),
8940 : : gimple_assign_rhs2 (s),
8941 : : code2, op2a, op2b,
8942 : : outer_cond_bb)))
8943 : : {
8944 : : /* Handle the OR case, where we are reassociating:
8945 : : (inner1 OR inner2) OR (op2a code2 op2b)
8946 : : => (inner1 OR t)
8947 : : => (t OR partial) */
8948 : 510 : if (is_or)
8949 : : {
8950 : 60 : if (integer_zerop (t))
8951 : : return inner1;
8952 : 60 : else if (integer_onep (t))
8953 : 1 : return boolean_true_node;
8954 : : /* If both are the same, we can apply the identity
8955 : : (x OR x) == x. */
8956 : 59 : else if (partial && same_bool_result_p (t, partial))
8957 : : return t;
8958 : : }
8959 : :
8960 : : /* Handle the AND case, where we are redistributing:
8961 : : (inner1 AND inner2) OR (op2a code2 op2b)
8962 : : => (t AND (inner1 OR (op2a code2 op2b)))
8963 : : => (t AND partial) */
8964 : : else
8965 : : {
8966 : 450 : if (integer_zerop (t))
8967 : 0 : return boolean_false_node;
8968 : 450 : else if (partial)
8969 : : {
8970 : : /* We already got a simplification for the other
8971 : : operand to the redistributed AND expression. The
8972 : : interesting case is when at least one is true.
8973 : : Or, if both are the same, we can apply the identity
8974 : : (x AND x) == x. */
8975 : 14 : if (integer_onep (partial))
8976 : : return t;
8977 : 14 : else if (integer_onep (t))
8978 : : return partial;
8979 : 4 : else if (same_bool_result_p (t, partial))
8980 : : return t;
8981 : : }
8982 : : }
8983 : : }
8984 : : }
8985 : : return NULL_TREE;
8986 : : }
8987 : :
8988 : : /* Try to simplify the OR of two comparisons defined by
8989 : : (OP1A CODE1 OP1B) and (OP2A CODE2 OP2B), respectively.
8990 : : If this can be done without constructing an intermediate value,
8991 : : return the resulting tree; otherwise NULL_TREE is returned.
8992 : : This function is deliberately asymmetric as it recurses on SSA_DEFs
8993 : : in the first comparison but not the second. */
8994 : :
8995 : : static tree
8996 : 971275 : or_comparisons_1 (tree type, enum tree_code code1, tree op1a, tree op1b,
8997 : : enum tree_code code2, tree op2a, tree op2b,
8998 : : basic_block outer_cond_bb)
8999 : : {
9000 : 971275 : tree truth_type = truth_type_for (TREE_TYPE (op1a));
9001 : :
9002 : : /* First check for ((x CODE1 y) OR (x CODE2 y)). */
9003 : 971275 : if (operand_equal_p (op1a, op2a, 0)
9004 : 971275 : && operand_equal_p (op1b, op2b, 0))
9005 : : {
9006 : : /* Result will be either NULL_TREE, or a combined comparison. */
9007 : 3004 : tree t = combine_comparisons (UNKNOWN_LOCATION,
9008 : : TRUTH_ORIF_EXPR, code1, code2,
9009 : : truth_type, op1a, op1b);
9010 : 3004 : if (t)
9011 : : return t;
9012 : : }
9013 : :
9014 : : /* Likewise the swapped case of the above. */
9015 : 968275 : if (operand_equal_p (op1a, op2b, 0)
9016 : 968275 : && operand_equal_p (op1b, op2a, 0))
9017 : : {
9018 : : /* Result will be either NULL_TREE, or a combined comparison. */
9019 : 0 : tree t = combine_comparisons (UNKNOWN_LOCATION,
9020 : : TRUTH_ORIF_EXPR, code1,
9021 : : swap_tree_comparison (code2),
9022 : : truth_type, op1a, op1b);
9023 : 0 : if (t)
9024 : : return t;
9025 : : }
9026 : :
9027 : : /* Perhaps the first comparison is (NAME != 0) or (NAME == 1) where
9028 : : NAME's definition is a truth value. See if there are any simplifications
9029 : : that can be done against the NAME's definition. */
9030 : 968275 : if (TREE_CODE (op1a) == SSA_NAME
9031 : 966797 : && (code1 == NE_EXPR || code1 == EQ_EXPR)
9032 : 1238841 : && (integer_zerop (op1b) || integer_onep (op1b)))
9033 : : {
9034 : 35932 : bool invert = ((code1 == EQ_EXPR && integer_zerop (op1b))
9035 : 71270 : || (code1 == NE_EXPR && integer_onep (op1b)));
9036 : 67415 : gimple *stmt = SSA_NAME_DEF_STMT (op1a);
9037 : 67415 : switch (gimple_code (stmt))
9038 : : {
9039 : 40194 : case GIMPLE_ASSIGN:
9040 : : /* Try to simplify by copy-propagating the definition. */
9041 : 40194 : return or_var_with_comparison (type, op1a, invert, code2, op2a,
9042 : 40194 : op2b, outer_cond_bb);
9043 : :
9044 : 14632 : case GIMPLE_PHI:
9045 : : /* If every argument to the PHI produces the same result when
9046 : : ORed with the second comparison, we win.
9047 : : Do not do this unless the type is bool since we need a bool
9048 : : result here anyway. */
9049 : 14632 : if (TREE_CODE (TREE_TYPE (op1a)) == BOOLEAN_TYPE)
9050 : : {
9051 : : tree result = NULL_TREE;
9052 : : unsigned i;
9053 : 905 : for (i = 0; i < gimple_phi_num_args (stmt); i++)
9054 : : {
9055 : 905 : tree arg = gimple_phi_arg_def (stmt, i);
9056 : :
9057 : : /* If this PHI has itself as an argument, ignore it.
9058 : : If all the other args produce the same result,
9059 : : we're still OK. */
9060 : 905 : if (arg == gimple_phi_result (stmt))
9061 : 0 : continue;
9062 : 905 : else if (TREE_CODE (arg) == INTEGER_CST)
9063 : : {
9064 : 756 : if (invert ? integer_zerop (arg) : integer_nonzerop (arg))
9065 : : {
9066 : 342 : if (!result)
9067 : 204 : result = boolean_true_node;
9068 : 138 : else if (!integer_onep (result))
9069 : : return NULL_TREE;
9070 : : }
9071 : 414 : else if (!result)
9072 : 198 : result = fold_build2 (code2, boolean_type_node,
9073 : : op2a, op2b);
9074 : 216 : else if (!same_bool_comparison_p (result,
9075 : : code2, op2a, op2b))
9076 : : return NULL_TREE;
9077 : : }
9078 : 149 : else if (TREE_CODE (arg) == SSA_NAME
9079 : 149 : && !SSA_NAME_IS_DEFAULT_DEF (arg))
9080 : : {
9081 : 149 : tree temp;
9082 : 149 : gimple *def_stmt = SSA_NAME_DEF_STMT (arg);
9083 : : /* In simple cases we can look through PHI nodes,
9084 : : but we have to be careful with loops.
9085 : : See PR49073. */
9086 : 149 : if (! dom_info_available_p (CDI_DOMINATORS)
9087 : 149 : || gimple_bb (def_stmt) == gimple_bb (stmt)
9088 : 298 : || dominated_by_p (CDI_DOMINATORS,
9089 : 149 : gimple_bb (def_stmt),
9090 : 149 : gimple_bb (stmt)))
9091 : 26 : return NULL_TREE;
9092 : 123 : temp = or_var_with_comparison (type, arg, invert, code2,
9093 : : op2a, op2b, outer_cond_bb);
9094 : 123 : if (!temp)
9095 : : return NULL_TREE;
9096 : 0 : else if (!result)
9097 : : result = temp;
9098 : 0 : else if (!same_bool_result_p (result, temp))
9099 : : return NULL_TREE;
9100 : : }
9101 : : else
9102 : : return NULL_TREE;
9103 : : }
9104 : : return result;
9105 : : }
9106 : :
9107 : : default:
9108 : : break;
9109 : : }
9110 : : }
9111 : : return NULL_TREE;
9112 : : }
9113 : :
9114 : : /* Try to simplify the OR of two comparisons, specified by
9115 : : (OP1A CODE1 OP1B) and (OP2B CODE2 OP2B), respectively.
9116 : : If this can be simplified to a single expression (without requiring
9117 : : introducing more SSA variables to hold intermediate values),
9118 : : return the resulting tree. Otherwise return NULL_TREE.
9119 : : If the result expression is non-null, it has boolean type. */
9120 : :
9121 : : tree
9122 : 486700 : maybe_fold_or_comparisons (tree type,
9123 : : enum tree_code code1, tree op1a, tree op1b,
9124 : : enum tree_code code2, tree op2a, tree op2b,
9125 : : basic_block outer_cond_bb)
9126 : : {
9127 : 486700 : if (tree t = or_comparisons_1 (type, code1, op1a, op1b, code2, op2a, op2b,
9128 : : outer_cond_bb))
9129 : : return t;
9130 : :
9131 : 483729 : if (tree t = or_comparisons_1 (type, code2, op2a, op2b, code1, op1a, op1b,
9132 : : outer_cond_bb))
9133 : : return t;
9134 : :
9135 : 483724 : if (tree t = maybe_fold_comparisons_from_match_pd (type, BIT_IOR_EXPR, code1,
9136 : : op1a, op1b, code2, op2a,
9137 : : op2b, outer_cond_bb))
9138 : : return t;
9139 : :
9140 : : return NULL_TREE;
9141 : : }
9142 : :
9143 : : /* Fold STMT to a constant using VALUEIZE to valueize SSA names.
9144 : :
9145 : : Either NULL_TREE, a simplified but non-constant or a constant
9146 : : is returned.
9147 : :
9148 : : ??? This should go into a gimple-fold-inline.h file to be eventually
9149 : : privatized with the single valueize function used in the various TUs
9150 : : to avoid the indirect function call overhead. */
9151 : :
9152 : : tree
9153 : 387735837 : gimple_fold_stmt_to_constant_1 (gimple *stmt, tree (*valueize) (tree),
9154 : : tree (*gvalueize) (tree))
9155 : : {
9156 : 387735837 : gimple_match_op res_op;
9157 : : /* ??? The SSA propagators do not correctly deal with following SSA use-def
9158 : : edges if there are intermediate VARYING defs. For this reason
9159 : : do not follow SSA edges here even though SCCVN can technically
9160 : : just deal fine with that. */
9161 : 387735837 : if (gimple_simplify (stmt, &res_op, NULL, gvalueize, valueize))
9162 : : {
9163 : 51190277 : tree res = NULL_TREE;
9164 : 51190277 : if (gimple_simplified_result_is_gimple_val (&res_op))
9165 : 30838603 : res = res_op.ops[0];
9166 : 20351674 : else if (mprts_hook)
9167 : 7232364 : res = mprts_hook (&res_op);
9168 : 38070967 : if (res)
9169 : : {
9170 : 32558683 : if (dump_file && dump_flags & TDF_DETAILS)
9171 : : {
9172 : 8386 : fprintf (dump_file, "Match-and-simplified ");
9173 : 8386 : print_gimple_expr (dump_file, stmt, 0, TDF_SLIM);
9174 : 8386 : fprintf (dump_file, " to ");
9175 : 8386 : print_generic_expr (dump_file, res);
9176 : 8386 : fprintf (dump_file, "\n");
9177 : : }
9178 : 32558683 : return res;
9179 : : }
9180 : : }
9181 : :
9182 : 355177154 : location_t loc = gimple_location (stmt);
9183 : 355177154 : switch (gimple_code (stmt))
9184 : : {
9185 : 307535616 : case GIMPLE_ASSIGN:
9186 : 307535616 : {
9187 : 307535616 : enum tree_code subcode = gimple_assign_rhs_code (stmt);
9188 : :
9189 : 307535616 : switch (get_gimple_rhs_class (subcode))
9190 : : {
9191 : 111526847 : case GIMPLE_SINGLE_RHS:
9192 : 111526847 : {
9193 : 111526847 : tree rhs = gimple_assign_rhs1 (stmt);
9194 : 111526847 : enum tree_code_class kind = TREE_CODE_CLASS (subcode);
9195 : :
9196 : 111526847 : if (TREE_CODE (rhs) == SSA_NAME)
9197 : : {
9198 : : /* If the RHS is an SSA_NAME, return its known constant value,
9199 : : if any. */
9200 : 8557281 : return (*valueize) (rhs);
9201 : : }
9202 : : /* Handle propagating invariant addresses into address
9203 : : operations. */
9204 : 102969566 : else if (TREE_CODE (rhs) == ADDR_EXPR
9205 : 102969566 : && !is_gimple_min_invariant (rhs))
9206 : : {
9207 : 7127639 : poly_int64 offset = 0;
9208 : 7127639 : tree base;
9209 : 7127639 : base = get_addr_base_and_unit_offset_1 (TREE_OPERAND (rhs, 0),
9210 : : &offset,
9211 : : valueize);
9212 : 7127639 : if (base
9213 : 7127639 : && (CONSTANT_CLASS_P (base)
9214 : 6466209 : || decl_address_invariant_p (base)))
9215 : 183494 : return build_invariant_address (TREE_TYPE (rhs),
9216 : 183494 : base, offset);
9217 : : }
9218 : 95841927 : else if (TREE_CODE (rhs) == CONSTRUCTOR
9219 : 997455 : && TREE_CODE (TREE_TYPE (rhs)) == VECTOR_TYPE
9220 : 97263034 : && known_eq (CONSTRUCTOR_NELTS (rhs),
9221 : : TYPE_VECTOR_SUBPARTS (TREE_TYPE (rhs))))
9222 : : {
9223 : 414776 : unsigned i, nelts;
9224 : 414776 : tree val;
9225 : :
9226 : 414776 : nelts = CONSTRUCTOR_NELTS (rhs);
9227 : 414776 : tree_vector_builder vec (TREE_TYPE (rhs), nelts, 1);
9228 : 928555 : FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (rhs), i, val)
9229 : : {
9230 : 499400 : val = (*valueize) (val);
9231 : 499400 : if (TREE_CODE (val) == INTEGER_CST
9232 : 419689 : || TREE_CODE (val) == REAL_CST
9233 : 400397 : || TREE_CODE (val) == FIXED_CST)
9234 : 99003 : vec.quick_push (val);
9235 : : else
9236 : : return NULL_TREE;
9237 : : }
9238 : :
9239 : 14379 : return vec.build ();
9240 : 414776 : }
9241 : 102371296 : if (subcode == OBJ_TYPE_REF)
9242 : : {
9243 : 109527 : tree val = (*valueize) (OBJ_TYPE_REF_EXPR (rhs));
9244 : : /* If callee is constant, we can fold away the wrapper. */
9245 : 109527 : if (is_gimple_min_invariant (val))
9246 : : return val;
9247 : : }
9248 : :
9249 : 102371248 : if (kind == tcc_reference)
9250 : : {
9251 : 68573655 : if ((TREE_CODE (rhs) == VIEW_CONVERT_EXPR
9252 : 66486449 : || TREE_CODE (rhs) == REALPART_EXPR
9253 : 65649881 : || TREE_CODE (rhs) == IMAGPART_EXPR)
9254 : 70402498 : && TREE_CODE (TREE_OPERAND (rhs, 0)) == SSA_NAME)
9255 : : {
9256 : 3022218 : tree val = (*valueize) (TREE_OPERAND (rhs, 0));
9257 : 3022218 : return fold_unary_loc (EXPR_LOCATION (rhs),
9258 : 3022218 : TREE_CODE (rhs),
9259 : 6044436 : TREE_TYPE (rhs), val);
9260 : : }
9261 : 65551437 : else if (TREE_CODE (rhs) == BIT_FIELD_REF
9262 : 65551437 : && TREE_CODE (TREE_OPERAND (rhs, 0)) == SSA_NAME)
9263 : : {
9264 : 466926 : tree val = (*valueize) (TREE_OPERAND (rhs, 0));
9265 : 466926 : return fold_ternary_loc (EXPR_LOCATION (rhs),
9266 : 466926 : TREE_CODE (rhs),
9267 : 466926 : TREE_TYPE (rhs), val,
9268 : 466926 : TREE_OPERAND (rhs, 1),
9269 : 933852 : TREE_OPERAND (rhs, 2));
9270 : : }
9271 : 65084511 : else if (TREE_CODE (rhs) == MEM_REF
9272 : 65084511 : && TREE_CODE (TREE_OPERAND (rhs, 0)) == SSA_NAME)
9273 : : {
9274 : 12594624 : tree val = (*valueize) (TREE_OPERAND (rhs, 0));
9275 : 12594624 : if (TREE_CODE (val) == ADDR_EXPR
9276 : 12594624 : && is_gimple_min_invariant (val))
9277 : : {
9278 : 860673 : tree tem = fold_build2 (MEM_REF, TREE_TYPE (rhs),
9279 : : unshare_expr (val),
9280 : : TREE_OPERAND (rhs, 1));
9281 : 860673 : if (tem)
9282 : 65084511 : rhs = tem;
9283 : : }
9284 : : }
9285 : 65084511 : return fold_const_aggregate_ref_1 (rhs, valueize);
9286 : : }
9287 : 33797593 : else if (kind == tcc_declaration)
9288 : 8119072 : return get_symbol_constant_value (rhs);
9289 : : return rhs;
9290 : : }
9291 : :
9292 : : case GIMPLE_UNARY_RHS:
9293 : : return NULL_TREE;
9294 : :
9295 : 146023880 : case GIMPLE_BINARY_RHS:
9296 : : /* Translate &x + CST into an invariant form suitable for
9297 : : further propagation. */
9298 : 146023880 : if (subcode == POINTER_PLUS_EXPR)
9299 : : {
9300 : 16994678 : tree op0 = (*valueize) (gimple_assign_rhs1 (stmt));
9301 : 16994678 : tree op1 = (*valueize) (gimple_assign_rhs2 (stmt));
9302 : 16994678 : if (TREE_CODE (op0) == ADDR_EXPR
9303 : 4999222 : && TREE_CODE (op1) == INTEGER_CST)
9304 : : {
9305 : 485262 : tree off = fold_convert (ptr_type_node, op1);
9306 : 485262 : return build1_loc
9307 : 970524 : (loc, ADDR_EXPR, TREE_TYPE (op0),
9308 : 485262 : fold_build2 (MEM_REF,
9309 : : TREE_TYPE (TREE_TYPE (op0)),
9310 : 485262 : unshare_expr (op0), off));
9311 : : }
9312 : : }
9313 : : /* Canonicalize bool != 0 and bool == 0 appearing after
9314 : : valueization. While gimple_simplify handles this
9315 : : it can get confused by the ~X == 1 -> X == 0 transform
9316 : : which we cant reduce to a SSA name or a constant
9317 : : (and we have no way to tell gimple_simplify to not
9318 : : consider those transforms in the first place). */
9319 : 129029202 : else if (subcode == EQ_EXPR
9320 : 129029202 : || subcode == NE_EXPR)
9321 : : {
9322 : 3048019 : tree lhs = gimple_assign_lhs (stmt);
9323 : 3048019 : tree op0 = gimple_assign_rhs1 (stmt);
9324 : 3048019 : if (useless_type_conversion_p (TREE_TYPE (lhs),
9325 : 3048019 : TREE_TYPE (op0)))
9326 : : {
9327 : 26901 : tree op1 = (*valueize) (gimple_assign_rhs2 (stmt));
9328 : 26901 : op0 = (*valueize) (op0);
9329 : 26901 : if (TREE_CODE (op0) == INTEGER_CST)
9330 : 932 : std::swap (op0, op1);
9331 : 26901 : if (TREE_CODE (op1) == INTEGER_CST
9332 : 26901 : && ((subcode == NE_EXPR && integer_zerop (op1))
9333 : 2591 : || (subcode == EQ_EXPR && integer_onep (op1))))
9334 : 265 : return op0;
9335 : : }
9336 : : }
9337 : : return NULL_TREE;
9338 : :
9339 : 608349 : case GIMPLE_TERNARY_RHS:
9340 : 608349 : {
9341 : : /* Handle ternary operators that can appear in GIMPLE form. */
9342 : 608349 : tree op0 = (*valueize) (gimple_assign_rhs1 (stmt));
9343 : 608349 : tree op1 = (*valueize) (gimple_assign_rhs2 (stmt));
9344 : 608349 : tree op2 = (*valueize) (gimple_assign_rhs3 (stmt));
9345 : 608349 : return fold_ternary_loc (loc, subcode,
9346 : 608349 : TREE_TYPE (gimple_assign_lhs (stmt)),
9347 : 608349 : op0, op1, op2);
9348 : : }
9349 : :
9350 : 0 : default:
9351 : 0 : gcc_unreachable ();
9352 : : }
9353 : : }
9354 : :
9355 : 13459171 : case GIMPLE_CALL:
9356 : 13459171 : {
9357 : 13459171 : tree fn;
9358 : 13459171 : gcall *call_stmt = as_a <gcall *> (stmt);
9359 : :
9360 : 13459171 : if (gimple_call_internal_p (stmt))
9361 : : {
9362 : 1126506 : enum tree_code subcode = ERROR_MARK;
9363 : 1126506 : switch (gimple_call_internal_fn (stmt))
9364 : : {
9365 : : case IFN_UBSAN_CHECK_ADD:
9366 : : subcode = PLUS_EXPR;
9367 : : break;
9368 : 7929 : case IFN_UBSAN_CHECK_SUB:
9369 : 7929 : subcode = MINUS_EXPR;
9370 : 7929 : break;
9371 : 6815 : case IFN_UBSAN_CHECK_MUL:
9372 : 6815 : subcode = MULT_EXPR;
9373 : 6815 : break;
9374 : 119699 : case IFN_BUILTIN_EXPECT:
9375 : 119699 : {
9376 : 119699 : tree arg0 = gimple_call_arg (stmt, 0);
9377 : 119699 : tree op0 = (*valueize) (arg0);
9378 : 119699 : if (TREE_CODE (op0) == INTEGER_CST)
9379 : : return op0;
9380 : : return NULL_TREE;
9381 : : }
9382 : : default:
9383 : : return NULL_TREE;
9384 : : }
9385 : 22833 : tree arg0 = gimple_call_arg (stmt, 0);
9386 : 22833 : tree arg1 = gimple_call_arg (stmt, 1);
9387 : 22833 : tree op0 = (*valueize) (arg0);
9388 : 22833 : tree op1 = (*valueize) (arg1);
9389 : :
9390 : 22833 : if (TREE_CODE (op0) != INTEGER_CST
9391 : 2482 : || TREE_CODE (op1) != INTEGER_CST)
9392 : : {
9393 : 22323 : switch (subcode)
9394 : : {
9395 : 6715 : case MULT_EXPR:
9396 : : /* x * 0 = 0 * x = 0 without overflow. */
9397 : 6715 : if (integer_zerop (op0) || integer_zerop (op1))
9398 : 20 : return build_zero_cst (TREE_TYPE (arg0));
9399 : : break;
9400 : 7587 : case MINUS_EXPR:
9401 : : /* y - y = 0 without overflow. */
9402 : 7587 : if (operand_equal_p (op0, op1, 0))
9403 : 0 : return build_zero_cst (TREE_TYPE (arg0));
9404 : : break;
9405 : : default:
9406 : : break;
9407 : : }
9408 : : }
9409 : 22813 : tree res
9410 : 22813 : = fold_binary_loc (loc, subcode, TREE_TYPE (arg0), op0, op1);
9411 : 22813 : if (res
9412 : 2861 : && TREE_CODE (res) == INTEGER_CST
9413 : 23323 : && !TREE_OVERFLOW (res))
9414 : : return res;
9415 : : return NULL_TREE;
9416 : : }
9417 : :
9418 : 12332665 : fn = (*valueize) (gimple_call_fn (stmt));
9419 : 12332665 : if (TREE_CODE (fn) == ADDR_EXPR
9420 : 11719583 : && TREE_CODE (TREE_OPERAND (fn, 0)) == FUNCTION_DECL
9421 : 11719519 : && fndecl_built_in_p (TREE_OPERAND (fn, 0))
9422 : 18145289 : && gimple_builtin_call_types_compatible_p (stmt,
9423 : 5812624 : TREE_OPERAND (fn, 0)))
9424 : : {
9425 : 5722231 : tree *args = XALLOCAVEC (tree, gimple_call_num_args (stmt));
9426 : 5722231 : tree retval;
9427 : 5722231 : unsigned i;
9428 : 18008943 : for (i = 0; i < gimple_call_num_args (stmt); ++i)
9429 : 12286712 : args[i] = (*valueize) (gimple_call_arg (stmt, i));
9430 : 5722231 : retval = fold_builtin_call_array (loc,
9431 : : gimple_call_return_type (call_stmt),
9432 : : fn, gimple_call_num_args (stmt), args);
9433 : 5722231 : if (retval)
9434 : : {
9435 : : /* fold_call_expr wraps the result inside a NOP_EXPR. */
9436 : 41149 : STRIP_NOPS (retval);
9437 : 41149 : retval = fold_convert (gimple_call_return_type (call_stmt),
9438 : : retval);
9439 : : }
9440 : 5722231 : return retval;
9441 : : }
9442 : : return NULL_TREE;
9443 : : }
9444 : :
9445 : : default:
9446 : : return NULL_TREE;
9447 : : }
9448 : : }
9449 : :
9450 : : /* Fold STMT to a constant using VALUEIZE to valueize SSA names.
9451 : : Returns NULL_TREE if folding to a constant is not possible, otherwise
9452 : : returns a constant according to is_gimple_min_invariant. */
9453 : :
9454 : : tree
9455 : 4322 : gimple_fold_stmt_to_constant (gimple *stmt, tree (*valueize) (tree))
9456 : : {
9457 : 4322 : tree res = gimple_fold_stmt_to_constant_1 (stmt, valueize);
9458 : 4322 : if (res && is_gimple_min_invariant (res))
9459 : : return res;
9460 : : return NULL_TREE;
9461 : : }
9462 : :
9463 : :
9464 : : /* The following set of functions are supposed to fold references using
9465 : : their constant initializers. */
9466 : :
9467 : : /* See if we can find constructor defining value of BASE.
9468 : : When we know the consructor with constant offset (such as
9469 : : base is array[40] and we do know constructor of array), then
9470 : : BIT_OFFSET is adjusted accordingly.
9471 : :
9472 : : As a special case, return error_mark_node when constructor
9473 : : is not explicitly available, but it is known to be zero
9474 : : such as 'static const int a;'. */
9475 : : static tree
9476 : 119467326 : get_base_constructor (tree base, poly_int64 *bit_offset,
9477 : : tree (*valueize)(tree))
9478 : : {
9479 : 119558493 : poly_int64 bit_offset2, size, max_size;
9480 : 119558493 : bool reverse;
9481 : :
9482 : 119558493 : if (TREE_CODE (base) == MEM_REF)
9483 : : {
9484 : 127078564 : poly_offset_int boff = *bit_offset + mem_ref_offset (base) * BITS_PER_UNIT;
9485 : 63539282 : if (!boff.to_shwi (bit_offset))
9486 : 63261217 : return NULL_TREE;
9487 : :
9488 : 63538975 : if (valueize
9489 : 63538975 : && TREE_CODE (TREE_OPERAND (base, 0)) == SSA_NAME)
9490 : 34428874 : base = valueize (TREE_OPERAND (base, 0));
9491 : 63538975 : if (!base || TREE_CODE (base) != ADDR_EXPR)
9492 : : return NULL_TREE;
9493 : 278065 : base = TREE_OPERAND (base, 0);
9494 : : }
9495 : 56019211 : else if (valueize
9496 : 30226603 : && TREE_CODE (base) == SSA_NAME)
9497 : 0 : base = valueize (base);
9498 : :
9499 : : /* Get a CONSTRUCTOR. If BASE is a VAR_DECL, get its
9500 : : DECL_INITIAL. If BASE is a nested reference into another
9501 : : ARRAY_REF or COMPONENT_REF, make a recursive call to resolve
9502 : : the inner reference. */
9503 : 56297276 : switch (TREE_CODE (base))
9504 : : {
9505 : 49418762 : case VAR_DECL:
9506 : 49418762 : case CONST_DECL:
9507 : 49418762 : {
9508 : 49418762 : tree init = ctor_for_folding (base);
9509 : :
9510 : : /* Our semantic is exact opposite of ctor_for_folding;
9511 : : NULL means unknown, while error_mark_node is 0. */
9512 : 49418762 : if (init == error_mark_node)
9513 : : return NULL_TREE;
9514 : 1045377 : if (!init)
9515 : 1129 : return error_mark_node;
9516 : : return init;
9517 : : }
9518 : :
9519 : 91167 : case VIEW_CONVERT_EXPR:
9520 : 91167 : return get_base_constructor (TREE_OPERAND (base, 0),
9521 : 91167 : bit_offset, valueize);
9522 : :
9523 : 271624 : case ARRAY_REF:
9524 : 271624 : case COMPONENT_REF:
9525 : 271624 : base = get_ref_base_and_extent (base, &bit_offset2, &size, &max_size,
9526 : : &reverse);
9527 : 271624 : if (!known_size_p (max_size) || maybe_ne (size, max_size))
9528 : : return NULL_TREE;
9529 : 211417 : *bit_offset += bit_offset2;
9530 : 211417 : return get_base_constructor (base, bit_offset, valueize);
9531 : :
9532 : : case CONSTRUCTOR:
9533 : : return base;
9534 : :
9535 : 6515723 : default:
9536 : 6515723 : if (CONSTANT_CLASS_P (base))
9537 : : return base;
9538 : :
9539 : : return NULL_TREE;
9540 : : }
9541 : : }
9542 : :
9543 : : /* CTOR is a CONSTRUCTOR of an array or vector type. Fold a reference of SIZE
9544 : : bits to the memory at bit OFFSET. If non-null, TYPE is the expected type of
9545 : : the reference; otherwise the type of the referenced element is used instead.
9546 : : When SIZE is zero, attempt to fold a reference to the entire element OFFSET
9547 : : refers to. Increment *SUBOFF by the bit offset of the accessed element. */
9548 : :
9549 : : static tree
9550 : 676779 : fold_array_ctor_reference (tree type, tree ctor,
9551 : : unsigned HOST_WIDE_INT offset,
9552 : : unsigned HOST_WIDE_INT size,
9553 : : tree from_decl,
9554 : : unsigned HOST_WIDE_INT *suboff)
9555 : : {
9556 : 676779 : offset_int low_bound;
9557 : 676779 : offset_int elt_size;
9558 : 676779 : offset_int access_index;
9559 : 676779 : tree domain_type = NULL_TREE;
9560 : 676779 : HOST_WIDE_INT inner_offset;
9561 : :
9562 : : /* Compute low bound and elt size. */
9563 : 676779 : if (TREE_CODE (TREE_TYPE (ctor)) == ARRAY_TYPE)
9564 : 676779 : domain_type = TYPE_DOMAIN (TREE_TYPE (ctor));
9565 : 676779 : if (domain_type && TYPE_MIN_VALUE (domain_type))
9566 : : {
9567 : : /* Static constructors for variably sized objects make no sense. */
9568 : 676779 : if (TREE_CODE (TYPE_MIN_VALUE (domain_type)) != INTEGER_CST)
9569 : : return NULL_TREE;
9570 : 676779 : low_bound = wi::to_offset (TYPE_MIN_VALUE (domain_type));
9571 : : }
9572 : : else
9573 : 0 : low_bound = 0;
9574 : : /* Static constructors for variably sized objects make no sense. */
9575 : 676779 : if (TREE_CODE (TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (ctor)))) != INTEGER_CST)
9576 : : return NULL_TREE;
9577 : 676779 : elt_size = wi::to_offset (TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (ctor))));
9578 : :
9579 : : /* When TYPE is non-null, verify that it specifies a constant-sized
9580 : : access of a multiple of the array element size. Avoid division
9581 : : by zero below when ELT_SIZE is zero, such as with the result of
9582 : : an initializer for a zero-length array or an empty struct. */
9583 : 676779 : if (elt_size == 0
9584 : 676779 : || (type
9585 : 676740 : && (!TYPE_SIZE_UNIT (type)
9586 : 676740 : || TREE_CODE (TYPE_SIZE_UNIT (type)) != INTEGER_CST)))
9587 : 39 : return NULL_TREE;
9588 : :
9589 : : /* Compute the array index we look for. */
9590 : 676740 : access_index = wi::udiv_trunc (offset_int (offset / BITS_PER_UNIT),
9591 : : elt_size);
9592 : 676740 : access_index += low_bound;
9593 : :
9594 : : /* And offset within the access. */
9595 : 676740 : inner_offset = offset % (elt_size.to_uhwi () * BITS_PER_UNIT);
9596 : :
9597 : 676740 : unsigned HOST_WIDE_INT elt_sz = elt_size.to_uhwi ();
9598 : 676740 : if (size > elt_sz * BITS_PER_UNIT)
9599 : : {
9600 : : /* native_encode_expr constraints. */
9601 : 47006 : if (size > MAX_BITSIZE_MODE_ANY_MODE
9602 : 45571 : || size % BITS_PER_UNIT != 0
9603 : 45571 : || inner_offset % BITS_PER_UNIT != 0
9604 : 45571 : || elt_sz > MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT)
9605 : : return NULL_TREE;
9606 : :
9607 : 45571 : unsigned ctor_idx;
9608 : 45571 : tree val = get_array_ctor_element_at_index (ctor, access_index,
9609 : : &ctor_idx);
9610 : 45578 : if (!val && ctor_idx >= CONSTRUCTOR_NELTS (ctor))
9611 : 6 : return build_zero_cst (type);
9612 : :
9613 : : /* native-encode adjacent ctor elements. */
9614 : 45565 : unsigned char buf[MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT];
9615 : 45565 : unsigned bufoff = 0;
9616 : 45565 : offset_int index = 0;
9617 : 45565 : offset_int max_index = access_index;
9618 : 45565 : constructor_elt *elt = CONSTRUCTOR_ELT (ctor, ctor_idx);
9619 : 45565 : if (!val)
9620 : 1 : val = build_zero_cst (TREE_TYPE (TREE_TYPE (ctor)));
9621 : 45564 : else if (!CONSTANT_CLASS_P (val))
9622 : : return NULL_TREE;
9623 : 44915 : if (!elt->index)
9624 : : ;
9625 : 38017 : else if (TREE_CODE (elt->index) == RANGE_EXPR)
9626 : : {
9627 : 20 : index = wi::to_offset (TREE_OPERAND (elt->index, 0));
9628 : 20 : max_index = wi::to_offset (TREE_OPERAND (elt->index, 1));
9629 : : }
9630 : : else
9631 : 37997 : index = max_index = wi::to_offset (elt->index);
9632 : 44915 : index = wi::umax (index, access_index);
9633 : 518797 : do
9634 : : {
9635 : 518797 : if (bufoff + elt_sz > sizeof (buf))
9636 : 0 : elt_sz = sizeof (buf) - bufoff;
9637 : 518797 : int len;
9638 : 518797 : if (TREE_CODE (val) == RAW_DATA_CST)
9639 : : {
9640 : 20 : gcc_assert (inner_offset == 0);
9641 : 20 : if (!elt->index || TREE_CODE (elt->index) != INTEGER_CST)
9642 : : return NULL_TREE;
9643 : 40 : inner_offset = (access_index
9644 : 20 : - wi::to_offset (elt->index)).to_uhwi ();
9645 : 20 : len = MIN (sizeof (buf) - bufoff,
9646 : : (unsigned) (RAW_DATA_LENGTH (val) - inner_offset));
9647 : 20 : memcpy (buf + bufoff, RAW_DATA_POINTER (val) + inner_offset,
9648 : : len);
9649 : 20 : access_index += len - 1;
9650 : : }
9651 : : else
9652 : : {
9653 : 1037554 : len = native_encode_expr (val, buf + bufoff, elt_sz,
9654 : 518777 : inner_offset / BITS_PER_UNIT);
9655 : 518777 : if (len != (int) elt_sz - inner_offset / BITS_PER_UNIT)
9656 : : return NULL_TREE;
9657 : : }
9658 : 518797 : inner_offset = 0;
9659 : 518797 : bufoff += len;
9660 : :
9661 : 518797 : access_index += 1;
9662 : 518797 : if (wi::cmpu (access_index, index) == 0)
9663 : 2 : val = elt->value;
9664 : 518795 : else if (wi::cmpu (access_index, max_index) > 0)
9665 : : {
9666 : 518555 : ctor_idx++;
9667 : 518555 : if (ctor_idx >= CONSTRUCTOR_NELTS (ctor))
9668 : : {
9669 : 41321 : val = build_zero_cst (TREE_TYPE (TREE_TYPE (ctor)));
9670 : 41321 : ++max_index;
9671 : : }
9672 : : else
9673 : : {
9674 : 477234 : elt = CONSTRUCTOR_ELT (ctor, ctor_idx);
9675 : 477234 : index = 0;
9676 : 477234 : max_index = access_index;
9677 : 477234 : if (!elt->index)
9678 : : ;
9679 : 476426 : else if (TREE_CODE (elt->index) == RANGE_EXPR)
9680 : : {
9681 : 0 : index = wi::to_offset (TREE_OPERAND (elt->index, 0));
9682 : 0 : max_index = wi::to_offset (TREE_OPERAND (elt->index, 1));
9683 : : }
9684 : : else
9685 : 476426 : index = max_index = wi::to_offset (elt->index);
9686 : 477234 : index = wi::umax (index, access_index);
9687 : 477234 : if (wi::cmpu (access_index, index) == 0)
9688 : 477233 : val = elt->value;
9689 : : else
9690 : 1 : val = build_zero_cst (TREE_TYPE (TREE_TYPE (ctor)));
9691 : : }
9692 : : }
9693 : : }
9694 : 518797 : while (bufoff < size / BITS_PER_UNIT);
9695 : 44915 : *suboff += size;
9696 : 44915 : return native_interpret_expr (type, buf, size / BITS_PER_UNIT);
9697 : : }
9698 : :
9699 : 629734 : unsigned ctor_idx;
9700 : 629734 : if (tree val = get_array_ctor_element_at_index (ctor, access_index,
9701 : : &ctor_idx))
9702 : : {
9703 : 628379 : if (TREE_CODE (val) == RAW_DATA_CST)
9704 : : {
9705 : 1571 : if (size != BITS_PER_UNIT || elt_sz != 1 || inner_offset != 0)
9706 : : return NULL_TREE;
9707 : 1563 : constructor_elt *elt = CONSTRUCTOR_ELT (ctor, ctor_idx);
9708 : 1563 : if (elt->index == NULL_TREE || TREE_CODE (elt->index) != INTEGER_CST)
9709 : : return NULL_TREE;
9710 : 1563 : *suboff += access_index.to_uhwi () * BITS_PER_UNIT;
9711 : 1563 : unsigned o = (access_index - wi::to_offset (elt->index)).to_uhwi ();
9712 : 1563 : return build_int_cst (TREE_TYPE (val), RAW_DATA_UCHAR_ELT (val, o));
9713 : : }
9714 : 626808 : if (!size && TREE_CODE (val) != CONSTRUCTOR)
9715 : : {
9716 : : /* For the final reference to the entire accessed element
9717 : : (SIZE is zero), reset INNER_OFFSET, disegard TYPE (which
9718 : : may be null) in favor of the type of the element, and set
9719 : : SIZE to the size of the accessed element. */
9720 : 22907 : inner_offset = 0;
9721 : 22907 : type = TREE_TYPE (val);
9722 : 22907 : size = elt_sz * BITS_PER_UNIT;
9723 : : }
9724 : 1617005 : else if (size && access_index < CONSTRUCTOR_NELTS (ctor) - 1
9725 : 447853 : && TREE_CODE (val) == CONSTRUCTOR
9726 : 8219 : && (elt_sz * BITS_PER_UNIT - inner_offset) < size)
9727 : : /* If this isn't the last element in the CTOR and a CTOR itself
9728 : : and it does not cover the whole object we are requesting give up
9729 : : since we're not set up for combining from multiple CTORs. */
9730 : 20 : return NULL_TREE;
9731 : :
9732 : 626788 : *suboff += access_index.to_uhwi () * elt_sz * BITS_PER_UNIT;
9733 : 626788 : return fold_ctor_reference (type, val, inner_offset, size, from_decl,
9734 : : suboff);
9735 : : }
9736 : :
9737 : : /* Memory not explicitly mentioned in constructor is 0 (or
9738 : : the reference is out of range). */
9739 : 1355 : return type ? build_zero_cst (type) : NULL_TREE;
9740 : : }
9741 : :
9742 : : /* CTOR is a CONSTRUCTOR of a record or union type. Fold a reference of SIZE
9743 : : bits to the memory at bit OFFSET. If non-null, TYPE is the expected type of
9744 : : the reference; otherwise the type of the referenced member is used instead.
9745 : : When SIZE is zero, attempt to fold a reference to the entire member OFFSET
9746 : : refers to. Increment *SUBOFF by the bit offset of the accessed member. */
9747 : :
9748 : : static tree
9749 : 60389 : fold_nonarray_ctor_reference (tree type, tree ctor,
9750 : : unsigned HOST_WIDE_INT offset,
9751 : : unsigned HOST_WIDE_INT size,
9752 : : tree from_decl,
9753 : : unsigned HOST_WIDE_INT *suboff)
9754 : : {
9755 : 60389 : unsigned HOST_WIDE_INT cnt;
9756 : 60389 : tree cfield, cval;
9757 : :
9758 : 96035 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (ctor), cnt, cfield, cval)
9759 : : {
9760 : 87094 : tree byte_offset = DECL_FIELD_OFFSET (cfield);
9761 : 87094 : tree field_offset = DECL_FIELD_BIT_OFFSET (cfield);
9762 : 87094 : tree field_size = DECL_SIZE (cfield);
9763 : :
9764 : 87094 : if (!field_size)
9765 : : {
9766 : : /* Determine the size of the flexible array member from
9767 : : the size of the initializer provided for it. */
9768 : 847 : field_size = TYPE_SIZE (TREE_TYPE (cval));
9769 : : }
9770 : :
9771 : : /* Variable sized objects in static constructors makes no sense,
9772 : : but field_size can be NULL for flexible array members. */
9773 : 87094 : gcc_assert (TREE_CODE (field_offset) == INTEGER_CST
9774 : : && TREE_CODE (byte_offset) == INTEGER_CST
9775 : : && (field_size != NULL_TREE
9776 : : ? TREE_CODE (field_size) == INTEGER_CST
9777 : : : TREE_CODE (TREE_TYPE (cfield)) == ARRAY_TYPE));
9778 : :
9779 : : /* Compute bit offset of the field. */
9780 : 87094 : offset_int bitoffset
9781 : 87094 : = (wi::to_offset (field_offset)
9782 : 87094 : + (wi::to_offset (byte_offset) << LOG2_BITS_PER_UNIT));
9783 : : /* Compute bit offset where the field ends. */
9784 : 87094 : offset_int bitoffset_end;
9785 : 87094 : if (field_size != NULL_TREE)
9786 : 87094 : bitoffset_end = bitoffset + wi::to_offset (field_size);
9787 : : else
9788 : 0 : bitoffset_end = 0;
9789 : :
9790 : : /* Compute the bit offset of the end of the desired access.
9791 : : As a special case, if the size of the desired access is
9792 : : zero, assume the access is to the entire field (and let
9793 : : the caller make any necessary adjustments by storing
9794 : : the actual bounds of the field in FIELDBOUNDS). */
9795 : 87094 : offset_int access_end = offset_int (offset);
9796 : 87094 : if (size)
9797 : 44672 : access_end += size;
9798 : : else
9799 : 42422 : access_end = bitoffset_end;
9800 : :
9801 : : /* Is there any overlap between the desired access at
9802 : : [OFFSET, OFFSET+SIZE) and the offset of the field within
9803 : : the object at [BITOFFSET, BITOFFSET_END)? */
9804 : 87094 : if (wi::cmps (access_end, bitoffset) > 0
9805 : 87094 : && (field_size == NULL_TREE
9806 : 84763 : || wi::lts_p (offset, bitoffset_end)))
9807 : : {
9808 : 51448 : *suboff += bitoffset.to_uhwi ();
9809 : :
9810 : 51448 : if (!size && TREE_CODE (cval) != CONSTRUCTOR)
9811 : : {
9812 : : /* For the final reference to the entire accessed member
9813 : : (SIZE is zero), reset OFFSET, disegard TYPE (which may
9814 : : be null) in favor of the type of the member, and set
9815 : : SIZE to the size of the accessed member. */
9816 : 19762 : offset = bitoffset.to_uhwi ();
9817 : 19762 : type = TREE_TYPE (cval);
9818 : 19762 : size = (bitoffset_end - bitoffset).to_uhwi ();
9819 : : }
9820 : :
9821 : : /* We do have overlap. Now see if the field is large enough
9822 : : to cover the access. Give up for accesses that extend
9823 : : beyond the end of the object or that span multiple fields. */
9824 : 51448 : if (wi::cmps (access_end, bitoffset_end) > 0)
9825 : : return NULL_TREE;
9826 : 50825 : if (offset < bitoffset)
9827 : : return NULL_TREE;
9828 : :
9829 : 50825 : offset_int inner_offset = offset_int (offset) - bitoffset;
9830 : :
9831 : : /* Integral bit-fields are left-justified on big-endian targets, so
9832 : : we must arrange for native_encode_int to start at their MSB. */
9833 : 50825 : if (DECL_BIT_FIELD (cfield) && INTEGRAL_TYPE_P (TREE_TYPE (cfield)))
9834 : : {
9835 : 851 : if (BYTES_BIG_ENDIAN != WORDS_BIG_ENDIAN)
9836 : : return NULL_TREE;
9837 : 851 : const unsigned int encoding_size
9838 : 851 : = GET_MODE_BITSIZE (SCALAR_INT_TYPE_MODE (TREE_TYPE (cfield)));
9839 : 851 : if (BYTES_BIG_ENDIAN)
9840 : : inner_offset += encoding_size - wi::to_offset (field_size);
9841 : : }
9842 : :
9843 : 50825 : return fold_ctor_reference (type, cval,
9844 : 50825 : inner_offset.to_uhwi (), size,
9845 : : from_decl, suboff);
9846 : : }
9847 : : }
9848 : :
9849 : 8941 : if (!type)
9850 : : return NULL_TREE;
9851 : :
9852 : 8941 : return build_zero_cst (type);
9853 : : }
9854 : :
9855 : : /* CTOR is a value initializing memory. Fold a reference of TYPE and
9856 : : bit size POLY_SIZE to the memory at bit POLY_OFFSET. When POLY_SIZE
9857 : : is zero, attempt to fold a reference to the entire subobject
9858 : : which OFFSET refers to. This is used when folding accesses to
9859 : : string members of aggregates. When non-null, set *SUBOFF to
9860 : : the bit offset of the accessed subobject. */
9861 : :
9862 : : tree
9863 : 1524980 : fold_ctor_reference (tree type, tree ctor, const poly_uint64 &poly_offset,
9864 : : const poly_uint64 &poly_size, tree from_decl,
9865 : : unsigned HOST_WIDE_INT *suboff /* = NULL */)
9866 : : {
9867 : 1524980 : tree ret;
9868 : :
9869 : : /* We found the field with exact match. */
9870 : 1524980 : if (type
9871 : 1524980 : && useless_type_conversion_p (type, TREE_TYPE (ctor))
9872 : 2173757 : && known_eq (poly_offset, 0U))
9873 : 647523 : return canonicalize_constructor_val (unshare_expr (ctor), from_decl);
9874 : :
9875 : : /* The remaining optimizations need a constant size and offset. */
9876 : 877457 : unsigned HOST_WIDE_INT size, offset;
9877 : 877457 : if (!poly_size.is_constant (&size) || !poly_offset.is_constant (&offset))
9878 : : return NULL_TREE;
9879 : :
9880 : : /* We are at the end of walk, see if we can view convert the
9881 : : result. */
9882 : 877457 : if (!AGGREGATE_TYPE_P (TREE_TYPE (ctor)) && !offset
9883 : : /* VIEW_CONVERT_EXPR is defined only for matching sizes. */
9884 : 22014 : && known_eq (wi::to_poly_widest (TYPE_SIZE (type)), size)
9885 : 21907 : && known_eq (wi::to_poly_widest (TYPE_SIZE (TREE_TYPE (ctor))), size))
9886 : : {
9887 : 13831 : ret = canonicalize_constructor_val (unshare_expr (ctor), from_decl);
9888 : 13831 : if (ret)
9889 : : {
9890 : 13831 : ret = fold_unary (VIEW_CONVERT_EXPR, type, ret);
9891 : 13831 : if (ret)
9892 : 13831 : STRIP_USELESS_TYPE_CONVERSION (ret);
9893 : : }
9894 : 13831 : return ret;
9895 : : }
9896 : :
9897 : : /* For constants and byte-aligned/sized reads, try to go through
9898 : : native_encode/interpret. */
9899 : 863626 : if (CONSTANT_CLASS_P (ctor)
9900 : : && BITS_PER_UNIT == 8
9901 : 125654 : && offset % BITS_PER_UNIT == 0
9902 : 125650 : && offset / BITS_PER_UNIT <= INT_MAX
9903 : 125618 : && size % BITS_PER_UNIT == 0
9904 : 125609 : && size <= MAX_BITSIZE_MODE_ANY_MODE
9905 : 988952 : && can_native_interpret_type_p (type))
9906 : : {
9907 : 83225 : unsigned char buf[MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT];
9908 : 166450 : int len = native_encode_expr (ctor, buf, size / BITS_PER_UNIT,
9909 : 83225 : offset / BITS_PER_UNIT);
9910 : 83225 : if (len > 0)
9911 : 82529 : return native_interpret_expr (type, buf, len);
9912 : : }
9913 : :
9914 : : /* For constructors, try first a recursive local processing, but in any case
9915 : : this requires the native storage order. */
9916 : 781097 : if (TREE_CODE (ctor) == CONSTRUCTOR
9917 : 781097 : && !(AGGREGATE_TYPE_P (TREE_TYPE (ctor))
9918 : 737398 : && TYPE_REVERSE_STORAGE_ORDER (TREE_TYPE (ctor))))
9919 : : {
9920 : 737168 : unsigned HOST_WIDE_INT dummy = 0;
9921 : 737168 : if (!suboff)
9922 : 627225 : suboff = &dummy;
9923 : :
9924 : 737168 : tree ret;
9925 : 737168 : if (TREE_CODE (TREE_TYPE (ctor)) == ARRAY_TYPE
9926 : 737168 : || TREE_CODE (TREE_TYPE (ctor)) == VECTOR_TYPE)
9927 : 676779 : ret = fold_array_ctor_reference (type, ctor, offset, size,
9928 : : from_decl, suboff);
9929 : : else
9930 : 60389 : ret = fold_nonarray_ctor_reference (type, ctor, offset, size,
9931 : : from_decl, suboff);
9932 : :
9933 : : /* Otherwise fall back to native_encode_initializer. This may be done
9934 : : only from the outermost fold_ctor_reference call (because it itself
9935 : : recurses into CONSTRUCTORs and doesn't update suboff). */
9936 : 737168 : if (ret == NULL_TREE
9937 : 242095 : && suboff == &dummy
9938 : : && BITS_PER_UNIT == 8
9939 : 241164 : && offset % BITS_PER_UNIT == 0
9940 : 241162 : && offset / BITS_PER_UNIT <= INT_MAX
9941 : 241162 : && size % BITS_PER_UNIT == 0
9942 : 241153 : && size <= MAX_BITSIZE_MODE_ANY_MODE
9943 : 976886 : && can_native_interpret_type_p (type))
9944 : : {
9945 : 199239 : unsigned char buf[MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT];
9946 : 398478 : int len = native_encode_initializer (ctor, buf, size / BITS_PER_UNIT,
9947 : 199239 : offset / BITS_PER_UNIT);
9948 : 199239 : if (len > 0)
9949 : 779 : return native_interpret_expr (type, buf, len);
9950 : : }
9951 : :
9952 : 736389 : return ret;
9953 : : }
9954 : :
9955 : : return NULL_TREE;
9956 : : }
9957 : :
9958 : : /* Return the tree representing the element referenced by T if T is an
9959 : : ARRAY_REF or COMPONENT_REF into constant aggregates valuezing SSA
9960 : : names using VALUEIZE. Return NULL_TREE otherwise. */
9961 : :
9962 : : tree
9963 : 124909451 : fold_const_aggregate_ref_1 (tree t, tree (*valueize) (tree))
9964 : : {
9965 : 124909451 : tree ctor, idx, base;
9966 : 124909451 : poly_int64 offset, size, max_size;
9967 : 124909451 : tree tem;
9968 : 124909451 : bool reverse;
9969 : :
9970 : 124909451 : if (TREE_THIS_VOLATILE (t))
9971 : : return NULL_TREE;
9972 : :
9973 : 124604608 : if (DECL_P (t))
9974 : 252597 : return get_symbol_constant_value (t);
9975 : :
9976 : 124352011 : tem = fold_read_from_constant_string (t);
9977 : 124352011 : if (tem)
9978 : : return tem;
9979 : :
9980 : 124349167 : switch (TREE_CODE (t))
9981 : : {
9982 : 9806662 : case ARRAY_REF:
9983 : 9806662 : case ARRAY_RANGE_REF:
9984 : : /* Constant indexes are handled well by get_base_constructor.
9985 : : Only special case variable offsets.
9986 : : FIXME: This code can't handle nested references with variable indexes
9987 : : (they will be handled only by iteration of ccp). Perhaps we can bring
9988 : : get_ref_base_and_extent here and make it use a valueize callback. */
9989 : 9806662 : if (TREE_CODE (TREE_OPERAND (t, 1)) == SSA_NAME
9990 : 5640082 : && valueize
9991 : 3732377 : && (idx = (*valueize) (TREE_OPERAND (t, 1)))
9992 : 13539039 : && poly_int_tree_p (idx))
9993 : : {
9994 : 1536934 : tree low_bound, unit_size;
9995 : :
9996 : : /* If the resulting bit-offset is constant, track it. */
9997 : 1536934 : if ((low_bound = array_ref_low_bound (t),
9998 : 1536934 : poly_int_tree_p (low_bound))
9999 : 1536934 : && (unit_size = array_ref_element_size (t),
10000 : 1536934 : tree_fits_uhwi_p (unit_size)))
10001 : : {
10002 : 1536934 : poly_offset_int woffset
10003 : 1536934 : = wi::sext (wi::to_poly_offset (idx)
10004 : 3073868 : - wi::to_poly_offset (low_bound),
10005 : 1536934 : TYPE_PRECISION (sizetype));
10006 : 1536934 : woffset *= tree_to_uhwi (unit_size);
10007 : 1536934 : woffset *= BITS_PER_UNIT;
10008 : 1536934 : if (woffset.to_shwi (&offset))
10009 : : {
10010 : 1536832 : base = TREE_OPERAND (t, 0);
10011 : 1536832 : ctor = get_base_constructor (base, &offset, valueize);
10012 : : /* Empty constructor. Always fold to 0. */
10013 : 1536832 : if (ctor == error_mark_node)
10014 : 1536832 : return build_zero_cst (TREE_TYPE (t));
10015 : : /* Out of bound array access. Value is undefined,
10016 : : but don't fold. */
10017 : 1536755 : if (maybe_lt (offset, 0))
10018 : : return NULL_TREE;
10019 : : /* We cannot determine ctor. */
10020 : 1536246 : if (!ctor)
10021 : : return NULL_TREE;
10022 : 164436 : return fold_ctor_reference (TREE_TYPE (t), ctor, offset,
10023 : 164436 : tree_to_uhwi (unit_size)
10024 : 164436 : * BITS_PER_UNIT,
10025 : : base);
10026 : : }
10027 : : }
10028 : : }
10029 : : /* Fallthru. */
10030 : :
10031 : 117719077 : case COMPONENT_REF:
10032 : 117719077 : case BIT_FIELD_REF:
10033 : 117719077 : case TARGET_MEM_REF:
10034 : 117719077 : case MEM_REF:
10035 : 117719077 : base = get_ref_base_and_extent (t, &offset, &size, &max_size, &reverse);
10036 : 117719077 : ctor = get_base_constructor (base, &offset, valueize);
10037 : :
10038 : : /* Empty constructor. Always fold to 0. */
10039 : 117719077 : if (ctor == error_mark_node)
10040 : 1052 : return build_zero_cst (TREE_TYPE (t));
10041 : : /* We do not know precise address. */
10042 : 117718025 : if (!known_size_p (max_size) || maybe_ne (max_size, size))
10043 : : return NULL_TREE;
10044 : : /* We cannot determine ctor. */
10045 : 110499270 : if (!ctor)
10046 : : return NULL_TREE;
10047 : :
10048 : : /* Out of bound array access. Value is undefined, but don't fold. */
10049 : 512757 : if (maybe_lt (offset, 0))
10050 : : return NULL_TREE;
10051 : :
10052 : 511254 : tem = fold_ctor_reference (TREE_TYPE (t), ctor, offset, size, base);
10053 : 511254 : if (tem)
10054 : : return tem;
10055 : :
10056 : : /* For bit field reads try to read the representative and
10057 : : adjust. */
10058 : 242261 : if (TREE_CODE (t) == COMPONENT_REF
10059 : 85 : && DECL_BIT_FIELD (TREE_OPERAND (t, 1))
10060 : 242345 : && DECL_BIT_FIELD_REPRESENTATIVE (TREE_OPERAND (t, 1)))
10061 : : {
10062 : 84 : HOST_WIDE_INT csize, coffset;
10063 : 84 : tree field = TREE_OPERAND (t, 1);
10064 : 84 : tree repr = DECL_BIT_FIELD_REPRESENTATIVE (field);
10065 : 168 : if (INTEGRAL_TYPE_P (TREE_TYPE (repr))
10066 : 83 : && size.is_constant (&csize)
10067 : 83 : && offset.is_constant (&coffset)
10068 : 83 : && (coffset % BITS_PER_UNIT != 0
10069 : 81 : || csize % BITS_PER_UNIT != 0)
10070 : 10 : && !reverse
10071 : 84 : && BYTES_BIG_ENDIAN == WORDS_BIG_ENDIAN)
10072 : : {
10073 : 10 : poly_int64 bitoffset;
10074 : 10 : poly_uint64 field_offset, repr_offset;
10075 : 10 : if (poly_int_tree_p (DECL_FIELD_OFFSET (field), &field_offset)
10076 : 20 : && poly_int_tree_p (DECL_FIELD_OFFSET (repr), &repr_offset))
10077 : 10 : bitoffset = (field_offset - repr_offset) * BITS_PER_UNIT;
10078 : : else
10079 : : bitoffset = 0;
10080 : 10 : bitoffset += (tree_to_uhwi (DECL_FIELD_BIT_OFFSET (field))
10081 : 10 : - tree_to_uhwi (DECL_FIELD_BIT_OFFSET (repr)));
10082 : 10 : HOST_WIDE_INT bitoff;
10083 : 10 : int diff = (TYPE_PRECISION (TREE_TYPE (repr))
10084 : 10 : - TYPE_PRECISION (TREE_TYPE (field)));
10085 : 10 : if (bitoffset.is_constant (&bitoff)
10086 : 10 : && bitoff >= 0
10087 : 10 : && bitoff <= diff)
10088 : : {
10089 : 10 : offset -= bitoff;
10090 : 10 : size = tree_to_uhwi (DECL_SIZE (repr));
10091 : :
10092 : 10 : tem = fold_ctor_reference (TREE_TYPE (repr), ctor, offset,
10093 : : size, base);
10094 : 10 : if (tem && TREE_CODE (tem) == INTEGER_CST)
10095 : : {
10096 : 10 : if (!BYTES_BIG_ENDIAN)
10097 : 10 : tem = wide_int_to_tree (TREE_TYPE (field),
10098 : 10 : wi::lrshift (wi::to_wide (tem),
10099 : : bitoff));
10100 : : else
10101 : : tem = wide_int_to_tree (TREE_TYPE (field),
10102 : : wi::lrshift (wi::to_wide (tem),
10103 : : diff - bitoff));
10104 : 10 : return tem;
10105 : : }
10106 : : }
10107 : : }
10108 : : }
10109 : : break;
10110 : :
10111 : 1582672 : case REALPART_EXPR:
10112 : 1582672 : case IMAGPART_EXPR:
10113 : 1582672 : {
10114 : 1582672 : tree c = fold_const_aggregate_ref_1 (TREE_OPERAND (t, 0), valueize);
10115 : 1582672 : if (c && TREE_CODE (c) == COMPLEX_CST)
10116 : 2644 : return fold_build1_loc (EXPR_LOCATION (t),
10117 : 5288 : TREE_CODE (t), TREE_TYPE (t), c);
10118 : : break;
10119 : : }
10120 : :
10121 : : default:
10122 : : break;
10123 : : }
10124 : :
10125 : : return NULL_TREE;
10126 : : }
10127 : :
10128 : : tree
10129 : 58242268 : fold_const_aggregate_ref (tree t)
10130 : : {
10131 : 58242268 : return fold_const_aggregate_ref_1 (t, NULL);
10132 : : }
10133 : :
10134 : : /* Lookup virtual method with index TOKEN in a virtual table V
10135 : : at OFFSET.
10136 : : Set CAN_REFER if non-NULL to false if method
10137 : : is not referable or if the virtual table is ill-formed (such as rewriten
10138 : : by non-C++ produced symbol). Otherwise just return NULL in that calse. */
10139 : :
10140 : : tree
10141 : 298889 : gimple_get_virt_method_for_vtable (HOST_WIDE_INT token,
10142 : : tree v,
10143 : : unsigned HOST_WIDE_INT offset,
10144 : : bool *can_refer)
10145 : : {
10146 : 298889 : tree vtable = v, init, fn;
10147 : 298889 : unsigned HOST_WIDE_INT size;
10148 : 298889 : unsigned HOST_WIDE_INT elt_size, access_index;
10149 : 298889 : tree domain_type;
10150 : :
10151 : 298889 : if (can_refer)
10152 : 298889 : *can_refer = true;
10153 : :
10154 : : /* First of all double check we have virtual table. */
10155 : 298889 : if (!VAR_P (v) || !DECL_VIRTUAL_P (v))
10156 : : {
10157 : : /* Pass down that we lost track of the target. */
10158 : 0 : if (can_refer)
10159 : 0 : *can_refer = false;
10160 : 0 : return NULL_TREE;
10161 : : }
10162 : :
10163 : 298889 : init = ctor_for_folding (v);
10164 : :
10165 : : /* The virtual tables should always be born with constructors
10166 : : and we always should assume that they are avaialble for
10167 : : folding. At the moment we do not stream them in all cases,
10168 : : but it should never happen that ctor seem unreachable. */
10169 : 298889 : gcc_assert (init);
10170 : 298889 : if (init == error_mark_node)
10171 : : {
10172 : : /* Pass down that we lost track of the target. */
10173 : 175 : if (can_refer)
10174 : 175 : *can_refer = false;
10175 : 175 : return NULL_TREE;
10176 : : }
10177 : 298714 : gcc_checking_assert (TREE_CODE (TREE_TYPE (v)) == ARRAY_TYPE);
10178 : 298714 : size = tree_to_uhwi (TYPE_SIZE (TREE_TYPE (TREE_TYPE (v))));
10179 : 298714 : offset *= BITS_PER_UNIT;
10180 : 298714 : offset += token * size;
10181 : :
10182 : : /* Lookup the value in the constructor that is assumed to be array.
10183 : : This is equivalent to
10184 : : fn = fold_ctor_reference (TREE_TYPE (TREE_TYPE (v)), init,
10185 : : offset, size, NULL);
10186 : : but in a constant time. We expect that frontend produced a simple
10187 : : array without indexed initializers. */
10188 : :
10189 : 298714 : gcc_checking_assert (TREE_CODE (TREE_TYPE (init)) == ARRAY_TYPE);
10190 : 298714 : domain_type = TYPE_DOMAIN (TREE_TYPE (init));
10191 : 298714 : gcc_checking_assert (integer_zerop (TYPE_MIN_VALUE (domain_type)));
10192 : 298714 : elt_size = tree_to_uhwi (TYPE_SIZE_UNIT (TREE_TYPE (TREE_TYPE (init))));
10193 : :
10194 : 298714 : access_index = offset / BITS_PER_UNIT / elt_size;
10195 : 298714 : gcc_checking_assert (offset % (elt_size * BITS_PER_UNIT) == 0);
10196 : :
10197 : : /* The C++ FE can now produce indexed fields, and we check if the indexes
10198 : : match. */
10199 : 298714 : if (access_index < CONSTRUCTOR_NELTS (init))
10200 : : {
10201 : 298713 : fn = CONSTRUCTOR_ELT (init, access_index)->value;
10202 : 298713 : tree idx = CONSTRUCTOR_ELT (init, access_index)->index;
10203 : 298713 : gcc_checking_assert (!idx || tree_to_uhwi (idx) == access_index);
10204 : 298713 : STRIP_NOPS (fn);
10205 : : }
10206 : : else
10207 : : fn = NULL;
10208 : :
10209 : : /* For type inconsistent program we may end up looking up virtual method
10210 : : in virtual table that does not contain TOKEN entries. We may overrun
10211 : : the virtual table and pick up a constant or RTTI info pointer.
10212 : : In any case the call is undefined. */
10213 : 298713 : if (!fn
10214 : 298713 : || (TREE_CODE (fn) != ADDR_EXPR && TREE_CODE (fn) != FDESC_EXPR)
10215 : 591045 : || TREE_CODE (TREE_OPERAND (fn, 0)) != FUNCTION_DECL)
10216 : 6382 : fn = builtin_decl_unreachable ();
10217 : : else
10218 : : {
10219 : 292332 : fn = TREE_OPERAND (fn, 0);
10220 : :
10221 : : /* When cgraph node is missing and function is not public, we cannot
10222 : : devirtualize. This can happen in WHOPR when the actual method
10223 : : ends up in other partition, because we found devirtualization
10224 : : possibility too late. */
10225 : 292332 : if (!can_refer_decl_in_current_unit_p (fn, vtable))
10226 : : {
10227 : 47933 : if (can_refer)
10228 : : {
10229 : 47933 : *can_refer = false;
10230 : 47933 : return fn;
10231 : : }
10232 : : return NULL_TREE;
10233 : : }
10234 : : }
10235 : :
10236 : : /* Make sure we create a cgraph node for functions we'll reference.
10237 : : They can be non-existent if the reference comes from an entry
10238 : : of an external vtable for example. */
10239 : 250781 : cgraph_node::get_create (fn);
10240 : :
10241 : 250781 : return fn;
10242 : : }
10243 : :
10244 : : /* Return a declaration of a function which an OBJ_TYPE_REF references. TOKEN
10245 : : is integer form of OBJ_TYPE_REF_TOKEN of the reference expression.
10246 : : KNOWN_BINFO carries the binfo describing the true type of
10247 : : OBJ_TYPE_REF_OBJECT(REF).
10248 : : Set CAN_REFER if non-NULL to false if method
10249 : : is not referable or if the virtual table is ill-formed (such as rewriten
10250 : : by non-C++ produced symbol). Otherwise just return NULL in that calse. */
10251 : :
10252 : : tree
10253 : 284276 : gimple_get_virt_method_for_binfo (HOST_WIDE_INT token, tree known_binfo,
10254 : : bool *can_refer)
10255 : : {
10256 : 284276 : unsigned HOST_WIDE_INT offset;
10257 : 284276 : tree v;
10258 : :
10259 : 284276 : v = BINFO_VTABLE (known_binfo);
10260 : : /* If there is no virtual methods table, leave the OBJ_TYPE_REF alone. */
10261 : 284276 : if (!v)
10262 : : return NULL_TREE;
10263 : :
10264 : 284276 : if (!vtable_pointer_value_to_vtable (v, &v, &offset))
10265 : : {
10266 : 0 : if (can_refer)
10267 : 0 : *can_refer = false;
10268 : 0 : return NULL_TREE;
10269 : : }
10270 : 284276 : return gimple_get_virt_method_for_vtable (token, v, offset, can_refer);
10271 : : }
10272 : :
10273 : : /* Given a pointer value T, return a simplified version of an
10274 : : indirection through T, or NULL_TREE if no simplification is
10275 : : possible. Note that the resulting type may be different from
10276 : : the type pointed to in the sense that it is still compatible
10277 : : from the langhooks point of view. */
10278 : :
10279 : : tree
10280 : 1849780 : gimple_fold_indirect_ref (tree t)
10281 : : {
10282 : 1849780 : tree ptype = TREE_TYPE (t), type = TREE_TYPE (ptype);
10283 : 1849780 : tree sub = t;
10284 : 1849780 : tree subtype;
10285 : :
10286 : 1849780 : STRIP_NOPS (sub);
10287 : 1849780 : subtype = TREE_TYPE (sub);
10288 : 1849780 : if (!POINTER_TYPE_P (subtype)
10289 : 1849780 : || TYPE_REF_CAN_ALIAS_ALL (ptype))
10290 : : return NULL_TREE;
10291 : :
10292 : 1848028 : if (TREE_CODE (sub) == ADDR_EXPR)
10293 : : {
10294 : 88639 : tree op = TREE_OPERAND (sub, 0);
10295 : 88639 : tree optype = TREE_TYPE (op);
10296 : : /* *&p => p */
10297 : 88639 : if (useless_type_conversion_p (type, optype))
10298 : : return op;
10299 : :
10300 : : /* *(foo *)&fooarray => fooarray[0] */
10301 : 828 : if (TREE_CODE (optype) == ARRAY_TYPE
10302 : 241 : && TREE_CODE (TYPE_SIZE (TREE_TYPE (optype))) == INTEGER_CST
10303 : 1069 : && useless_type_conversion_p (type, TREE_TYPE (optype)))
10304 : : {
10305 : 52 : tree type_domain = TYPE_DOMAIN (optype);
10306 : 52 : tree min_val = size_zero_node;
10307 : 52 : if (type_domain && TYPE_MIN_VALUE (type_domain))
10308 : 52 : min_val = TYPE_MIN_VALUE (type_domain);
10309 : 52 : if (TREE_CODE (min_val) == INTEGER_CST)
10310 : 52 : return build4 (ARRAY_REF, type, op, min_val, NULL_TREE, NULL_TREE);
10311 : : }
10312 : : /* *(foo *)&complexfoo => __real__ complexfoo */
10313 : 776 : else if (TREE_CODE (optype) == COMPLEX_TYPE
10314 : 776 : && useless_type_conversion_p (type, TREE_TYPE (optype)))
10315 : 4 : return fold_build1 (REALPART_EXPR, type, op);
10316 : : /* *(foo *)&vectorfoo => BIT_FIELD_REF<vectorfoo,...> */
10317 : 772 : else if (TREE_CODE (optype) == VECTOR_TYPE
10318 : 772 : && useless_type_conversion_p (type, TREE_TYPE (optype)))
10319 : : {
10320 : 26 : tree part_width = TYPE_SIZE (type);
10321 : 26 : tree index = bitsize_int (0);
10322 : 26 : return fold_build3 (BIT_FIELD_REF, type, op, part_width, index);
10323 : : }
10324 : : }
10325 : :
10326 : : /* *(p + CST) -> ... */
10327 : 1760135 : if (TREE_CODE (sub) == POINTER_PLUS_EXPR
10328 : 1760135 : && TREE_CODE (TREE_OPERAND (sub, 1)) == INTEGER_CST)
10329 : : {
10330 : 34250 : tree addr = TREE_OPERAND (sub, 0);
10331 : 34250 : tree off = TREE_OPERAND (sub, 1);
10332 : 34250 : tree addrtype;
10333 : :
10334 : 34250 : STRIP_NOPS (addr);
10335 : 34250 : addrtype = TREE_TYPE (addr);
10336 : :
10337 : : /* ((foo*)&vectorfoo)[1] -> BIT_FIELD_REF<vectorfoo,...> */
10338 : 34250 : if (TREE_CODE (addr) == ADDR_EXPR
10339 : 91 : && TREE_CODE (TREE_TYPE (addrtype)) == VECTOR_TYPE
10340 : 38 : && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (addrtype)))
10341 : 34278 : && tree_fits_uhwi_p (off))
10342 : : {
10343 : 28 : unsigned HOST_WIDE_INT offset = tree_to_uhwi (off);
10344 : 28 : tree part_width = TYPE_SIZE (type);
10345 : 28 : unsigned HOST_WIDE_INT part_widthi
10346 : 28 : = tree_to_shwi (part_width) / BITS_PER_UNIT;
10347 : 28 : unsigned HOST_WIDE_INT indexi = offset * BITS_PER_UNIT;
10348 : 28 : tree index = bitsize_int (indexi);
10349 : 28 : if (known_lt (offset / part_widthi,
10350 : : TYPE_VECTOR_SUBPARTS (TREE_TYPE (addrtype))))
10351 : 28 : return fold_build3 (BIT_FIELD_REF, type, TREE_OPERAND (addr, 0),
10352 : : part_width, index);
10353 : : }
10354 : :
10355 : : /* ((foo*)&complexfoo)[1] -> __imag__ complexfoo */
10356 : 34222 : if (TREE_CODE (addr) == ADDR_EXPR
10357 : 63 : && TREE_CODE (TREE_TYPE (addrtype)) == COMPLEX_TYPE
10358 : 34223 : && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (addrtype))))
10359 : : {
10360 : 1 : tree size = TYPE_SIZE_UNIT (type);
10361 : 1 : if (tree_int_cst_equal (size, off))
10362 : 1 : return fold_build1 (IMAGPART_EXPR, type, TREE_OPERAND (addr, 0));
10363 : : }
10364 : :
10365 : : /* *(p + CST) -> MEM_REF <p, CST>. */
10366 : 34221 : if (TREE_CODE (addr) != ADDR_EXPR
10367 : 34221 : || DECL_P (TREE_OPERAND (addr, 0)))
10368 : 34203 : return fold_build2 (MEM_REF, type,
10369 : : addr,
10370 : : wide_int_to_tree (ptype, wi::to_wide (off)));
10371 : : }
10372 : :
10373 : : /* *(foo *)fooarrptr => (*fooarrptr)[0] */
10374 : 1725903 : if (TREE_CODE (TREE_TYPE (subtype)) == ARRAY_TYPE
10375 : 1878 : && TREE_CODE (TYPE_SIZE (TREE_TYPE (TREE_TYPE (subtype)))) == INTEGER_CST
10376 : 1727763 : && useless_type_conversion_p (type, TREE_TYPE (TREE_TYPE (subtype))))
10377 : : {
10378 : 1 : tree type_domain;
10379 : 1 : tree min_val = size_zero_node;
10380 : 1 : tree osub = sub;
10381 : 1 : sub = gimple_fold_indirect_ref (sub);
10382 : 1 : if (! sub)
10383 : 1 : sub = build1 (INDIRECT_REF, TREE_TYPE (subtype), osub);
10384 : 1 : type_domain = TYPE_DOMAIN (TREE_TYPE (sub));
10385 : 1 : if (type_domain && TYPE_MIN_VALUE (type_domain))
10386 : 1 : min_val = TYPE_MIN_VALUE (type_domain);
10387 : 1 : if (TREE_CODE (min_val) == INTEGER_CST)
10388 : 1 : return build4 (ARRAY_REF, type, sub, min_val, NULL_TREE, NULL_TREE);
10389 : : }
10390 : :
10391 : : return NULL_TREE;
10392 : : }
10393 : :
10394 : : /* Return true if CODE is an operation that when operating on signed
10395 : : integer types involves undefined behavior on overflow and the
10396 : : operation can be expressed with unsigned arithmetic. */
10397 : :
10398 : : bool
10399 : 400690 : arith_code_with_undefined_signed_overflow (tree_code code)
10400 : : {
10401 : 400690 : switch (code)
10402 : : {
10403 : : case ABS_EXPR:
10404 : : case PLUS_EXPR:
10405 : : case MINUS_EXPR:
10406 : : case MULT_EXPR:
10407 : : case NEGATE_EXPR:
10408 : : case POINTER_PLUS_EXPR:
10409 : : return true;
10410 : 313129 : default:
10411 : 313129 : return false;
10412 : : }
10413 : : }
10414 : :
10415 : : /* Rewrite STMT, an assignment with a signed integer or pointer arithmetic
10416 : : operation that can be transformed to unsigned arithmetic by converting
10417 : : its operand, carrying out the operation in the corresponding unsigned
10418 : : type and converting the result back to the original type.
10419 : :
10420 : : If IN_PLACE is true, *GSI points to STMT, adjust the stmt in place and
10421 : : return NULL.
10422 : : Otherwise returns a sequence of statements that replace STMT and also
10423 : : contain a modified form of STMT itself. */
10424 : :
10425 : : static gimple_seq
10426 : 40438 : rewrite_to_defined_overflow (gimple_stmt_iterator *gsi, gimple *stmt,
10427 : : bool in_place)
10428 : : {
10429 : 40438 : if (dump_file && (dump_flags & TDF_DETAILS))
10430 : : {
10431 : 16 : fprintf (dump_file, "rewriting stmt with undefined signed "
10432 : : "overflow ");
10433 : 16 : print_gimple_stmt (dump_file, stmt, 0, TDF_SLIM);
10434 : : }
10435 : :
10436 : 40438 : tree lhs = gimple_assign_lhs (stmt);
10437 : 40438 : tree type = unsigned_type_for (TREE_TYPE (lhs));
10438 : 40438 : gimple_seq stmts = NULL;
10439 : 40438 : if (gimple_assign_rhs_code (stmt) == ABS_EXPR)
10440 : 11 : gimple_assign_set_rhs_code (stmt, ABSU_EXPR);
10441 : : else
10442 : 120400 : for (unsigned i = 1; i < gimple_num_ops (stmt); ++i)
10443 : : {
10444 : 79973 : tree op = gimple_op (stmt, i);
10445 : 79973 : op = gimple_convert (&stmts, type, op);
10446 : 79973 : gimple_set_op (stmt, i, op);
10447 : : }
10448 : 40438 : gimple_assign_set_lhs (stmt, make_ssa_name (type, stmt));
10449 : 40438 : if (gimple_assign_rhs_code (stmt) == POINTER_PLUS_EXPR)
10450 : 2412 : gimple_assign_set_rhs_code (stmt, PLUS_EXPR);
10451 : 40438 : gimple_set_modified (stmt, true);
10452 : 40438 : if (in_place)
10453 : : {
10454 : 21821 : if (stmts)
10455 : 9444 : gsi_insert_seq_before (gsi, stmts, GSI_SAME_STMT);
10456 : 21821 : stmts = NULL;
10457 : : }
10458 : : else
10459 : 18617 : gimple_seq_add_stmt (&stmts, stmt);
10460 : 40438 : gimple *cvt = gimple_build_assign (lhs, NOP_EXPR, gimple_assign_lhs (stmt));
10461 : 40438 : if (in_place)
10462 : : {
10463 : 21821 : gsi_insert_after (gsi, cvt, GSI_SAME_STMT);
10464 : 21821 : update_stmt (stmt);
10465 : : }
10466 : : else
10467 : 18617 : gimple_seq_add_stmt (&stmts, cvt);
10468 : :
10469 : 40438 : return stmts;
10470 : : }
10471 : :
10472 : : void
10473 : 21821 : rewrite_to_defined_overflow (gimple_stmt_iterator *gsi)
10474 : : {
10475 : 21821 : rewrite_to_defined_overflow (gsi, gsi_stmt (*gsi), true);
10476 : 21821 : }
10477 : :
10478 : : gimple_seq
10479 : 18617 : rewrite_to_defined_overflow (gimple *stmt)
10480 : : {
10481 : 18617 : return rewrite_to_defined_overflow (nullptr, stmt, false);
10482 : : }
10483 : :
10484 : : /* The valueization hook we use for the gimple_build API simplification.
10485 : : This makes us match fold_buildN behavior by only combining with
10486 : : statements in the sequence(s) we are currently building. */
10487 : :
10488 : : static tree
10489 : 15719970 : gimple_build_valueize (tree op)
10490 : : {
10491 : 15719970 : if (gimple_bb (SSA_NAME_DEF_STMT (op)) == NULL)
10492 : 3578422 : return op;
10493 : : return NULL_TREE;
10494 : : }
10495 : :
10496 : : /* Helper for gimple_build to perform the final insertion of stmts on SEQ. */
10497 : :
10498 : : static inline void
10499 : 1162309 : gimple_build_insert_seq (gimple_stmt_iterator *gsi,
10500 : : bool before, gsi_iterator_update update,
10501 : : gimple_seq seq)
10502 : : {
10503 : 1162309 : if (before)
10504 : : {
10505 : 52539 : if (gsi->bb)
10506 : 52539 : gsi_insert_seq_before (gsi, seq, update);
10507 : : else
10508 : 0 : gsi_insert_seq_before_without_update (gsi, seq, update);
10509 : : }
10510 : : else
10511 : : {
10512 : 1109770 : if (gsi->bb)
10513 : 23 : gsi_insert_seq_after (gsi, seq, update);
10514 : : else
10515 : 1109747 : gsi_insert_seq_after_without_update (gsi, seq, update);
10516 : : }
10517 : 1162309 : }
10518 : :
10519 : : /* Build the expression CODE OP0 of type TYPE with location LOC,
10520 : : simplifying it first if possible. Returns the built
10521 : : expression value and inserts statements possibly defining it
10522 : : before GSI if BEFORE is true or after GSI if false and advance
10523 : : the iterator accordingly.
10524 : : If gsi refers to a basic block simplifying is allowed to look
10525 : : at all SSA defs while when it does not it is restricted to
10526 : : SSA defs that are not associated with a basic block yet,
10527 : : indicating they belong to the currently building sequence. */
10528 : :
10529 : : tree
10530 : 243875 : gimple_build (gimple_stmt_iterator *gsi,
10531 : : bool before, gsi_iterator_update update,
10532 : : location_t loc, enum tree_code code, tree type, tree op0)
10533 : : {
10534 : 243875 : gimple_seq seq = NULL;
10535 : 243875 : tree res
10536 : 243875 : = gimple_simplify (code, type, op0, &seq,
10537 : 243875 : gsi->bb ? follow_all_ssa_edges : gimple_build_valueize);
10538 : 243875 : if (!res)
10539 : : {
10540 : 222770 : res = create_tmp_reg_or_ssa_name (type);
10541 : 222770 : gimple *stmt;
10542 : 222770 : if (code == REALPART_EXPR
10543 : : || code == IMAGPART_EXPR
10544 : 222770 : || code == VIEW_CONVERT_EXPR)
10545 : 12145 : stmt = gimple_build_assign (res, code, build1 (code, type, op0));
10546 : : else
10547 : 210625 : stmt = gimple_build_assign (res, code, op0);
10548 : 222770 : gimple_set_location (stmt, loc);
10549 : 222770 : gimple_seq_add_stmt_without_update (&seq, stmt);
10550 : : }
10551 : 243875 : gimple_build_insert_seq (gsi, before, update, seq);
10552 : 243875 : return res;
10553 : : }
10554 : :
10555 : : /* Build the expression OP0 CODE OP1 of type TYPE with location LOC,
10556 : : simplifying it first if possible. Returns the built
10557 : : expression value inserting any new statements at GSI honoring BEFORE
10558 : : and UPDATE. */
10559 : :
10560 : : tree
10561 : 705319 : gimple_build (gimple_stmt_iterator *gsi,
10562 : : bool before, gsi_iterator_update update,
10563 : : location_t loc, enum tree_code code, tree type,
10564 : : tree op0, tree op1)
10565 : : {
10566 : 705319 : gimple_seq seq = NULL;
10567 : 705319 : tree res
10568 : 705319 : = gimple_simplify (code, type, op0, op1, &seq,
10569 : 705319 : gsi->bb ? follow_all_ssa_edges : gimple_build_valueize);
10570 : 705319 : if (!res)
10571 : : {
10572 : 620874 : res = create_tmp_reg_or_ssa_name (type);
10573 : 620874 : gimple *stmt = gimple_build_assign (res, code, op0, op1);
10574 : 620874 : gimple_set_location (stmt, loc);
10575 : 620874 : gimple_seq_add_stmt_without_update (&seq, stmt);
10576 : : }
10577 : 705319 : gimple_build_insert_seq (gsi, before, update, seq);
10578 : 705319 : return res;
10579 : : }
10580 : :
10581 : : /* Build the expression (CODE OP0 OP1 OP2) of type TYPE with location LOC,
10582 : : simplifying it first if possible. Returns the built
10583 : : expression value inserting any new statements at GSI honoring BEFORE
10584 : : and UPDATE. */
10585 : :
10586 : : tree
10587 : 41238 : gimple_build (gimple_stmt_iterator *gsi,
10588 : : bool before, gsi_iterator_update update,
10589 : : location_t loc, enum tree_code code, tree type,
10590 : : tree op0, tree op1, tree op2)
10591 : : {
10592 : :
10593 : 41238 : gimple_seq seq = NULL;
10594 : 41238 : tree res
10595 : 41238 : = gimple_simplify (code, type, op0, op1, op2, &seq,
10596 : 41238 : gsi->bb ? follow_all_ssa_edges : gimple_build_valueize);
10597 : 41238 : if (!res)
10598 : : {
10599 : 29702 : res = create_tmp_reg_or_ssa_name (type);
10600 : 29702 : gimple *stmt;
10601 : 29702 : if (code == BIT_FIELD_REF)
10602 : 23335 : stmt = gimple_build_assign (res, code,
10603 : : build3 (code, type, op0, op1, op2));
10604 : : else
10605 : 6367 : stmt = gimple_build_assign (res, code, op0, op1, op2);
10606 : 29702 : gimple_set_location (stmt, loc);
10607 : 29702 : gimple_seq_add_stmt_without_update (&seq, stmt);
10608 : : }
10609 : 41238 : gimple_build_insert_seq (gsi, before, update, seq);
10610 : 41238 : return res;
10611 : : }
10612 : :
10613 : : /* Build the call FN () with a result of type TYPE (or no result if TYPE is
10614 : : void) with a location LOC. Returns the built expression value (or NULL_TREE
10615 : : if TYPE is void) inserting any new statements at GSI honoring BEFORE
10616 : : and UPDATE. */
10617 : :
10618 : : tree
10619 : 0 : gimple_build (gimple_stmt_iterator *gsi,
10620 : : bool before, gsi_iterator_update update,
10621 : : location_t loc, combined_fn fn, tree type)
10622 : : {
10623 : 0 : tree res = NULL_TREE;
10624 : 0 : gimple_seq seq = NULL;
10625 : 0 : gcall *stmt;
10626 : 0 : if (internal_fn_p (fn))
10627 : 0 : stmt = gimple_build_call_internal (as_internal_fn (fn), 0);
10628 : : else
10629 : : {
10630 : 0 : tree decl = builtin_decl_implicit (as_builtin_fn (fn));
10631 : 0 : stmt = gimple_build_call (decl, 0);
10632 : : }
10633 : 0 : if (!VOID_TYPE_P (type))
10634 : : {
10635 : 0 : res = create_tmp_reg_or_ssa_name (type);
10636 : 0 : gimple_call_set_lhs (stmt, res);
10637 : : }
10638 : 0 : gimple_set_location (stmt, loc);
10639 : 0 : gimple_seq_add_stmt_without_update (&seq, stmt);
10640 : 0 : gimple_build_insert_seq (gsi, before, update, seq);
10641 : 0 : return res;
10642 : : }
10643 : :
10644 : : /* Build the call FN (ARG0) with a result of type TYPE
10645 : : (or no result if TYPE is void) with location LOC,
10646 : : simplifying it first if possible. Returns the built
10647 : : expression value (or NULL_TREE if TYPE is void) inserting any new
10648 : : statements at GSI honoring BEFORE and UPDATE. */
10649 : :
10650 : : tree
10651 : 23557 : gimple_build (gimple_stmt_iterator *gsi,
10652 : : bool before, gsi_iterator_update update,
10653 : : location_t loc, combined_fn fn,
10654 : : tree type, tree arg0)
10655 : : {
10656 : 23557 : gimple_seq seq = NULL;
10657 : 23557 : tree res = gimple_simplify (fn, type, arg0, &seq, gimple_build_valueize);
10658 : 23557 : if (!res)
10659 : : {
10660 : 23557 : gcall *stmt;
10661 : 23557 : if (internal_fn_p (fn))
10662 : 23184 : stmt = gimple_build_call_internal (as_internal_fn (fn), 1, arg0);
10663 : : else
10664 : : {
10665 : 373 : tree decl = builtin_decl_implicit (as_builtin_fn (fn));
10666 : 373 : stmt = gimple_build_call (decl, 1, arg0);
10667 : : }
10668 : 23557 : if (!VOID_TYPE_P (type))
10669 : : {
10670 : 23184 : res = create_tmp_reg_or_ssa_name (type);
10671 : 23184 : gimple_call_set_lhs (stmt, res);
10672 : : }
10673 : 23557 : gimple_set_location (stmt, loc);
10674 : 23557 : gimple_seq_add_stmt_without_update (&seq, stmt);
10675 : : }
10676 : 23557 : gimple_build_insert_seq (gsi, before, update, seq);
10677 : 23557 : return res;
10678 : : }
10679 : :
10680 : : /* Build the call FN (ARG0, ARG1) with a result of type TYPE
10681 : : (or no result if TYPE is void) with location LOC,
10682 : : simplifying it first if possible. Returns the built
10683 : : expression value (or NULL_TREE if TYPE is void) inserting any new
10684 : : statements at GSI honoring BEFORE and UPDATE. */
10685 : :
10686 : : tree
10687 : 0 : gimple_build (gimple_stmt_iterator *gsi,
10688 : : bool before, gsi_iterator_update update,
10689 : : location_t loc, combined_fn fn,
10690 : : tree type, tree arg0, tree arg1)
10691 : : {
10692 : 0 : gimple_seq seq = NULL;
10693 : 0 : tree res = gimple_simplify (fn, type, arg0, arg1, &seq,
10694 : : gimple_build_valueize);
10695 : 0 : if (!res)
10696 : : {
10697 : 0 : gcall *stmt;
10698 : 0 : if (internal_fn_p (fn))
10699 : 0 : stmt = gimple_build_call_internal (as_internal_fn (fn), 2, arg0, arg1);
10700 : : else
10701 : : {
10702 : 0 : tree decl = builtin_decl_implicit (as_builtin_fn (fn));
10703 : 0 : stmt = gimple_build_call (decl, 2, arg0, arg1);
10704 : : }
10705 : 0 : if (!VOID_TYPE_P (type))
10706 : : {
10707 : 0 : res = create_tmp_reg_or_ssa_name (type);
10708 : 0 : gimple_call_set_lhs (stmt, res);
10709 : : }
10710 : 0 : gimple_set_location (stmt, loc);
10711 : 0 : gimple_seq_add_stmt_without_update (&seq, stmt);
10712 : : }
10713 : 0 : gimple_build_insert_seq (gsi, before, update, seq);
10714 : 0 : return res;
10715 : : }
10716 : :
10717 : : /* Build the call FN (ARG0, ARG1, ARG2) with a result of type TYPE
10718 : : (or no result if TYPE is void) with location LOC,
10719 : : simplifying it first if possible. Returns the built
10720 : : expression value (or NULL_TREE if TYPE is void) inserting any new
10721 : : statements at GSI honoring BEFORE and UPDATE. */
10722 : :
10723 : : tree
10724 : 0 : gimple_build (gimple_stmt_iterator *gsi,
10725 : : bool before, gsi_iterator_update update,
10726 : : location_t loc, combined_fn fn,
10727 : : tree type, tree arg0, tree arg1, tree arg2)
10728 : : {
10729 : 0 : gimple_seq seq = NULL;
10730 : 0 : tree res = gimple_simplify (fn, type, arg0, arg1, arg2,
10731 : : &seq, gimple_build_valueize);
10732 : 0 : if (!res)
10733 : : {
10734 : 0 : gcall *stmt;
10735 : 0 : if (internal_fn_p (fn))
10736 : 0 : stmt = gimple_build_call_internal (as_internal_fn (fn),
10737 : : 3, arg0, arg1, arg2);
10738 : : else
10739 : : {
10740 : 0 : tree decl = builtin_decl_implicit (as_builtin_fn (fn));
10741 : 0 : stmt = gimple_build_call (decl, 3, arg0, arg1, arg2);
10742 : : }
10743 : 0 : if (!VOID_TYPE_P (type))
10744 : : {
10745 : 0 : res = create_tmp_reg_or_ssa_name (type);
10746 : 0 : gimple_call_set_lhs (stmt, res);
10747 : : }
10748 : 0 : gimple_set_location (stmt, loc);
10749 : 0 : gimple_seq_add_stmt_without_update (&seq, stmt);
10750 : : }
10751 : 0 : gimple_build_insert_seq (gsi, before, update, seq);
10752 : 0 : return res;
10753 : : }
10754 : :
10755 : : /* Build CODE (OP0) with a result of type TYPE (or no result if TYPE is
10756 : : void) with location LOC, simplifying it first if possible. Returns the
10757 : : built expression value (or NULL_TREE if TYPE is void) inserting any new
10758 : : statements at GSI honoring BEFORE and UPDATE. */
10759 : :
10760 : : tree
10761 : 21 : gimple_build (gimple_stmt_iterator *gsi,
10762 : : bool before, gsi_iterator_update update,
10763 : : location_t loc, code_helper code, tree type, tree op0)
10764 : : {
10765 : 21 : if (code.is_tree_code ())
10766 : 0 : return gimple_build (gsi, before, update, loc, tree_code (code), type, op0);
10767 : 21 : return gimple_build (gsi, before, update, loc, combined_fn (code), type, op0);
10768 : : }
10769 : :
10770 : : /* Build CODE (OP0, OP1) with a result of type TYPE (or no result if TYPE is
10771 : : void) with location LOC, simplifying it first if possible. Returns the
10772 : : built expression value (or NULL_TREE if TYPE is void) inserting any new
10773 : : statements at GSI honoring BEFORE and UPDATE. */
10774 : :
10775 : : tree
10776 : 22663 : gimple_build (gimple_stmt_iterator *gsi,
10777 : : bool before, gsi_iterator_update update,
10778 : : location_t loc, code_helper code, tree type, tree op0, tree op1)
10779 : : {
10780 : 22663 : if (code.is_tree_code ())
10781 : 22663 : return gimple_build (gsi, before, update,
10782 : 22663 : loc, tree_code (code), type, op0, op1);
10783 : 0 : return gimple_build (gsi, before, update,
10784 : 0 : loc, combined_fn (code), type, op0, op1);
10785 : : }
10786 : :
10787 : : /* Build CODE (OP0, OP1, OP2) with a result of type TYPE (or no result if TYPE
10788 : : is void) with location LOC, simplifying it first if possible. Returns the
10789 : : built expression value (or NULL_TREE if TYPE is void) inserting any new
10790 : : statements at GSI honoring BEFORE and UPDATE. */
10791 : :
10792 : : tree
10793 : 0 : gimple_build (gimple_stmt_iterator *gsi,
10794 : : bool before, gsi_iterator_update update,
10795 : : location_t loc, code_helper code,
10796 : : tree type, tree op0, tree op1, tree op2)
10797 : : {
10798 : 0 : if (code.is_tree_code ())
10799 : 0 : return gimple_build (gsi, before, update,
10800 : 0 : loc, tree_code (code), type, op0, op1, op2);
10801 : 0 : return gimple_build (gsi, before, update,
10802 : 0 : loc, combined_fn (code), type, op0, op1, op2);
10803 : : }
10804 : :
10805 : : /* Build the conversion (TYPE) OP with a result of type TYPE
10806 : : with location LOC if such conversion is neccesary in GIMPLE,
10807 : : simplifying it first.
10808 : : Returns the built expression inserting any new statements
10809 : : at GSI honoring BEFORE and UPDATE. */
10810 : :
10811 : : tree
10812 : 1724818 : gimple_convert (gimple_stmt_iterator *gsi,
10813 : : bool before, gsi_iterator_update update,
10814 : : location_t loc, tree type, tree op)
10815 : : {
10816 : 1724818 : if (useless_type_conversion_p (type, TREE_TYPE (op)))
10817 : : return op;
10818 : 84557 : return gimple_build (gsi, before, update, loc, NOP_EXPR, type, op);
10819 : : }
10820 : :
10821 : : /* Build the conversion (ptrofftype) OP with a result of a type
10822 : : compatible with ptrofftype with location LOC if such conversion
10823 : : is neccesary in GIMPLE, simplifying it first.
10824 : : Returns the built expression value inserting any new statements
10825 : : at GSI honoring BEFORE and UPDATE. */
10826 : :
10827 : : tree
10828 : 203 : gimple_convert_to_ptrofftype (gimple_stmt_iterator *gsi,
10829 : : bool before, gsi_iterator_update update,
10830 : : location_t loc, tree op)
10831 : : {
10832 : 203 : if (ptrofftype_p (TREE_TYPE (op)))
10833 : : return op;
10834 : 0 : return gimple_convert (gsi, before, update, loc, sizetype, op);
10835 : : }
10836 : :
10837 : : /* Build a vector of type TYPE in which each element has the value OP.
10838 : : Return a gimple value for the result, inserting any new statements
10839 : : at GSI honoring BEFORE and UPDATE. */
10840 : :
10841 : : tree
10842 : 304236 : gimple_build_vector_from_val (gimple_stmt_iterator *gsi,
10843 : : bool before, gsi_iterator_update update,
10844 : : location_t loc, tree type, tree op)
10845 : : {
10846 : 304236 : if (!TYPE_VECTOR_SUBPARTS (type).is_constant ()
10847 : : && !CONSTANT_CLASS_P (op))
10848 : : return gimple_build (gsi, before, update,
10849 : : loc, VEC_DUPLICATE_EXPR, type, op);
10850 : :
10851 : 304236 : tree res, vec = build_vector_from_val (type, op);
10852 : 304236 : if (is_gimple_val (vec))
10853 : : return vec;
10854 : 35489 : if (gimple_in_ssa_p (cfun))
10855 : 35489 : res = make_ssa_name (type);
10856 : : else
10857 : 0 : res = create_tmp_reg (type);
10858 : 35489 : gimple_seq seq = NULL;
10859 : 35489 : gimple *stmt = gimple_build_assign (res, vec);
10860 : 35489 : gimple_set_location (stmt, loc);
10861 : 35489 : gimple_seq_add_stmt_without_update (&seq, stmt);
10862 : 35489 : gimple_build_insert_seq (gsi, before, update, seq);
10863 : 35489 : return res;
10864 : : }
10865 : :
10866 : : /* Build a vector from BUILDER, handling the case in which some elements
10867 : : are non-constant. Return a gimple value for the result, inserting
10868 : : any new instructions to GSI honoring BEFORE and UPDATE.
10869 : :
10870 : : BUILDER must not have a stepped encoding on entry. This is because
10871 : : the function is not geared up to handle the arithmetic that would
10872 : : be needed in the variable case, and any code building a vector that
10873 : : is known to be constant should use BUILDER->build () directly. */
10874 : :
10875 : : tree
10876 : 348741 : gimple_build_vector (gimple_stmt_iterator *gsi,
10877 : : bool before, gsi_iterator_update update,
10878 : : location_t loc, tree_vector_builder *builder)
10879 : : {
10880 : 348741 : gcc_assert (builder->nelts_per_pattern () <= 2);
10881 : 348741 : unsigned int encoded_nelts = builder->encoded_nelts ();
10882 : 1219114 : for (unsigned int i = 0; i < encoded_nelts; ++i)
10883 : 983204 : if (!CONSTANT_CLASS_P ((*builder)[i]))
10884 : : {
10885 : 112831 : gimple_seq seq = NULL;
10886 : 112831 : tree type = builder->type ();
10887 : 112831 : unsigned int nelts = TYPE_VECTOR_SUBPARTS (type).to_constant ();
10888 : 112831 : vec<constructor_elt, va_gc> *v;
10889 : 112831 : vec_alloc (v, nelts);
10890 : 364245 : for (i = 0; i < nelts; ++i)
10891 : 251414 : CONSTRUCTOR_APPEND_ELT (v, NULL_TREE, builder->elt (i));
10892 : :
10893 : 112831 : tree res;
10894 : 112831 : if (gimple_in_ssa_p (cfun))
10895 : 112831 : res = make_ssa_name (type);
10896 : : else
10897 : 0 : res = create_tmp_reg (type);
10898 : 112831 : gimple *stmt = gimple_build_assign (res, build_constructor (type, v));
10899 : 112831 : gimple_set_location (stmt, loc);
10900 : 112831 : gimple_seq_add_stmt_without_update (&seq, stmt);
10901 : 112831 : gimple_build_insert_seq (gsi, before, update, seq);
10902 : 112831 : return res;
10903 : : }
10904 : 235910 : return builder->build ();
10905 : : }
10906 : :
10907 : : /* Emit gimple statements into &stmts that take a value given in OLD_SIZE
10908 : : and generate a value guaranteed to be rounded upwards to ALIGN.
10909 : :
10910 : : Return the tree node representing this size, it is of TREE_TYPE TYPE. */
10911 : :
10912 : : tree
10913 : 0 : gimple_build_round_up (gimple_stmt_iterator *gsi,
10914 : : bool before, gsi_iterator_update update,
10915 : : location_t loc, tree type,
10916 : : tree old_size, unsigned HOST_WIDE_INT align)
10917 : : {
10918 : 0 : unsigned HOST_WIDE_INT tg_mask = align - 1;
10919 : : /* tree new_size = (old_size + tg_mask) & ~tg_mask; */
10920 : 0 : gcc_assert (INTEGRAL_TYPE_P (type));
10921 : 0 : tree tree_mask = build_int_cst (type, tg_mask);
10922 : 0 : tree oversize = gimple_build (gsi, before, update,
10923 : : loc, PLUS_EXPR, type, old_size, tree_mask);
10924 : :
10925 : 0 : tree mask = build_int_cst (type, -align);
10926 : 0 : return gimple_build (gsi, before, update,
10927 : 0 : loc, BIT_AND_EXPR, type, oversize, mask);
10928 : : }
10929 : :
10930 : : /* Return true if the result of assignment STMT is known to be non-negative.
10931 : : If the return value is based on the assumption that signed overflow is
10932 : : undefined, set *STRICT_OVERFLOW_P to true; otherwise, don't change
10933 : : *STRICT_OVERFLOW_P. DEPTH is the current nesting depth of the query. */
10934 : :
10935 : : static bool
10936 : 47795369 : gimple_assign_nonnegative_warnv_p (gimple *stmt, bool *strict_overflow_p,
10937 : : int depth)
10938 : : {
10939 : 47795369 : enum tree_code code = gimple_assign_rhs_code (stmt);
10940 : 47795369 : tree type = TREE_TYPE (gimple_assign_lhs (stmt));
10941 : 47795369 : switch (get_gimple_rhs_class (code))
10942 : : {
10943 : 10380295 : case GIMPLE_UNARY_RHS:
10944 : 10380295 : return tree_unary_nonnegative_warnv_p (gimple_assign_rhs_code (stmt),
10945 : : type,
10946 : : gimple_assign_rhs1 (stmt),
10947 : 10380295 : strict_overflow_p, depth);
10948 : 32501629 : case GIMPLE_BINARY_RHS:
10949 : 32501629 : return tree_binary_nonnegative_warnv_p (gimple_assign_rhs_code (stmt),
10950 : : type,
10951 : : gimple_assign_rhs1 (stmt),
10952 : : gimple_assign_rhs2 (stmt),
10953 : 32501629 : strict_overflow_p, depth);
10954 : : case GIMPLE_TERNARY_RHS:
10955 : : return false;
10956 : 4879293 : case GIMPLE_SINGLE_RHS:
10957 : 4879293 : return tree_single_nonnegative_warnv_p (gimple_assign_rhs1 (stmt),
10958 : 4879293 : strict_overflow_p, depth);
10959 : : case GIMPLE_INVALID_RHS:
10960 : : break;
10961 : : }
10962 : 0 : gcc_unreachable ();
10963 : : }
10964 : :
10965 : : /* Return true if return value of call STMT is known to be non-negative.
10966 : : If the return value is based on the assumption that signed overflow is
10967 : : undefined, set *STRICT_OVERFLOW_P to true; otherwise, don't change
10968 : : *STRICT_OVERFLOW_P. DEPTH is the current nesting depth of the query. */
10969 : :
10970 : : static bool
10971 : 19451900 : gimple_call_nonnegative_warnv_p (gimple *stmt, bool *strict_overflow_p,
10972 : : int depth)
10973 : : {
10974 : 19451900 : tree arg0
10975 : 19451900 : = gimple_call_num_args (stmt) > 0 ? gimple_call_arg (stmt, 0) : NULL_TREE;
10976 : 19451900 : tree arg1
10977 : 19451900 : = gimple_call_num_args (stmt) > 1 ? gimple_call_arg (stmt, 1) : NULL_TREE;
10978 : 19451900 : tree lhs = gimple_call_lhs (stmt);
10979 : 19451900 : return (lhs
10980 : 19451900 : && tree_call_nonnegative_warnv_p (TREE_TYPE (lhs),
10981 : : gimple_call_combined_fn (stmt),
10982 : : arg0, arg1,
10983 : 19451900 : strict_overflow_p, depth));
10984 : : }
10985 : :
10986 : : /* Return true if return value of call STMT is known to be non-negative.
10987 : : If the return value is based on the assumption that signed overflow is
10988 : : undefined, set *STRICT_OVERFLOW_P to true; otherwise, don't change
10989 : : *STRICT_OVERFLOW_P. DEPTH is the current nesting depth of the query. */
10990 : :
10991 : : static bool
10992 : 11629710 : gimple_phi_nonnegative_warnv_p (gimple *stmt, bool *strict_overflow_p,
10993 : : int depth)
10994 : : {
10995 : 23117902 : for (unsigned i = 0; i < gimple_phi_num_args (stmt); ++i)
10996 : : {
10997 : 18792395 : tree arg = gimple_phi_arg_def (stmt, i);
10998 : 18792395 : if (!tree_single_nonnegative_warnv_p (arg, strict_overflow_p, depth + 1))
10999 : : return false;
11000 : : }
11001 : : return true;
11002 : : }
11003 : :
11004 : : /* Return true if STMT is known to compute a non-negative value.
11005 : : If the return value is based on the assumption that signed overflow is
11006 : : undefined, set *STRICT_OVERFLOW_P to true; otherwise, don't change
11007 : : *STRICT_OVERFLOW_P. DEPTH is the current nesting depth of the query. */
11008 : :
11009 : : bool
11010 : 126633015 : gimple_stmt_nonnegative_warnv_p (gimple *stmt, bool *strict_overflow_p,
11011 : : int depth)
11012 : : {
11013 : 126633015 : tree type = gimple_range_type (stmt);
11014 : 126633015 : if (type && frange::supports_p (type))
11015 : : {
11016 : 1452169 : frange r;
11017 : 1452169 : bool sign;
11018 : 1452169 : if (get_global_range_query ()->range_of_stmt (r, stmt)
11019 : 1452169 : && r.signbit_p (sign))
11020 : 16559 : return !sign;
11021 : 1452169 : }
11022 : 126616456 : switch (gimple_code (stmt))
11023 : : {
11024 : 47795369 : case GIMPLE_ASSIGN:
11025 : 47795369 : return gimple_assign_nonnegative_warnv_p (stmt, strict_overflow_p,
11026 : 47795369 : depth);
11027 : 19451900 : case GIMPLE_CALL:
11028 : 19451900 : return gimple_call_nonnegative_warnv_p (stmt, strict_overflow_p,
11029 : 19451900 : depth);
11030 : 11629710 : case GIMPLE_PHI:
11031 : 11629710 : return gimple_phi_nonnegative_warnv_p (stmt, strict_overflow_p,
11032 : 11629710 : depth);
11033 : : default:
11034 : : return false;
11035 : : }
11036 : : }
11037 : :
11038 : : /* Return true if the floating-point value computed by assignment STMT
11039 : : is known to have an integer value. We also allow +Inf, -Inf and NaN
11040 : : to be considered integer values. Return false for signaling NaN.
11041 : :
11042 : : DEPTH is the current nesting depth of the query. */
11043 : :
11044 : : static bool
11045 : 52236 : gimple_assign_integer_valued_real_p (gimple *stmt, int depth)
11046 : : {
11047 : 52236 : enum tree_code code = gimple_assign_rhs_code (stmt);
11048 : 52236 : switch (get_gimple_rhs_class (code))
11049 : : {
11050 : 14667 : case GIMPLE_UNARY_RHS:
11051 : 14667 : return integer_valued_real_unary_p (gimple_assign_rhs_code (stmt),
11052 : 14667 : gimple_assign_rhs1 (stmt), depth);
11053 : 13783 : case GIMPLE_BINARY_RHS:
11054 : 13783 : return integer_valued_real_binary_p (gimple_assign_rhs_code (stmt),
11055 : : gimple_assign_rhs1 (stmt),
11056 : 13783 : gimple_assign_rhs2 (stmt), depth);
11057 : : case GIMPLE_TERNARY_RHS:
11058 : : return false;
11059 : 22733 : case GIMPLE_SINGLE_RHS:
11060 : 22733 : return integer_valued_real_single_p (gimple_assign_rhs1 (stmt), depth);
11061 : : case GIMPLE_INVALID_RHS:
11062 : : break;
11063 : : }
11064 : 0 : gcc_unreachable ();
11065 : : }
11066 : :
11067 : : /* Return true if the floating-point value computed by call STMT is known
11068 : : to have an integer value. We also allow +Inf, -Inf and NaN to be
11069 : : considered integer values. Return false for signaling NaN.
11070 : :
11071 : : DEPTH is the current nesting depth of the query. */
11072 : :
11073 : : static bool
11074 : 924 : gimple_call_integer_valued_real_p (gimple *stmt, int depth)
11075 : : {
11076 : 924 : tree arg0 = (gimple_call_num_args (stmt) > 0
11077 : 924 : ? gimple_call_arg (stmt, 0)
11078 : 924 : : NULL_TREE);
11079 : 924 : tree arg1 = (gimple_call_num_args (stmt) > 1
11080 : 924 : ? gimple_call_arg (stmt, 1)
11081 : 924 : : NULL_TREE);
11082 : 924 : return integer_valued_real_call_p (gimple_call_combined_fn (stmt),
11083 : 924 : arg0, arg1, depth);
11084 : : }
11085 : :
11086 : : /* Return true if the floating-point result of phi STMT is known to have
11087 : : an integer value. We also allow +Inf, -Inf and NaN to be considered
11088 : : integer values. Return false for signaling NaN.
11089 : :
11090 : : DEPTH is the current nesting depth of the query. */
11091 : :
11092 : : static bool
11093 : 1063 : gimple_phi_integer_valued_real_p (gimple *stmt, int depth)
11094 : : {
11095 : 1233 : for (unsigned i = 0; i < gimple_phi_num_args (stmt); ++i)
11096 : : {
11097 : 1232 : tree arg = gimple_phi_arg_def (stmt, i);
11098 : 1232 : if (!integer_valued_real_single_p (arg, depth + 1))
11099 : : return false;
11100 : : }
11101 : : return true;
11102 : : }
11103 : :
11104 : : /* Return true if the floating-point value computed by STMT is known
11105 : : to have an integer value. We also allow +Inf, -Inf and NaN to be
11106 : : considered integer values. Return false for signaling NaN.
11107 : :
11108 : : DEPTH is the current nesting depth of the query. */
11109 : :
11110 : : bool
11111 : 79933 : gimple_stmt_integer_valued_real_p (gimple *stmt, int depth)
11112 : : {
11113 : 79933 : switch (gimple_code (stmt))
11114 : : {
11115 : 52236 : case GIMPLE_ASSIGN:
11116 : 52236 : return gimple_assign_integer_valued_real_p (stmt, depth);
11117 : 924 : case GIMPLE_CALL:
11118 : 924 : return gimple_call_integer_valued_real_p (stmt, depth);
11119 : 1063 : case GIMPLE_PHI:
11120 : 1063 : return gimple_phi_integer_valued_real_p (stmt, depth);
11121 : : default:
11122 : : return false;
11123 : : }
11124 : : }
|