Branch data Line data Source code
1 : : /* Convert tree expression to rtl instructions, for GNU compiler.
2 : : Copyright (C) 1988-2024 Free Software Foundation, Inc.
3 : :
4 : : This file is part of GCC.
5 : :
6 : : GCC is free software; you can redistribute it and/or modify it under
7 : : the terms of the GNU General Public License as published by the Free
8 : : Software Foundation; either version 3, or (at your option) any later
9 : : version.
10 : :
11 : : GCC is distributed in the hope that it will be useful, but WITHOUT ANY
12 : : WARRANTY; without even the implied warranty of MERCHANTABILITY or
13 : : FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License
14 : : for more details.
15 : :
16 : : You should have received a copy of the GNU General Public License
17 : : along with GCC; see the file COPYING3. If not see
18 : : <http://www.gnu.org/licenses/>. */
19 : :
20 : : #include "config.h"
21 : : #include "system.h"
22 : : #include "coretypes.h"
23 : : #include "backend.h"
24 : : #include "target.h"
25 : : #include "rtl.h"
26 : : #include "tree.h"
27 : : #include "gimple.h"
28 : : #include "predict.h"
29 : : #include "memmodel.h"
30 : : #include "tm_p.h"
31 : : #include "ssa.h"
32 : : #include "optabs.h"
33 : : #include "expmed.h"
34 : : #include "regs.h"
35 : : #include "emit-rtl.h"
36 : : #include "recog.h"
37 : : #include "cgraph.h"
38 : : #include "diagnostic.h"
39 : : #include "alias.h"
40 : : #include "fold-const.h"
41 : : #include "stor-layout.h"
42 : : #include "attribs.h"
43 : : #include "varasm.h"
44 : : #include "except.h"
45 : : #include "insn-attr.h"
46 : : #include "dojump.h"
47 : : #include "explow.h"
48 : : #include "calls.h"
49 : : #include "stmt.h"
50 : : /* Include expr.h after insn-config.h so we get HAVE_conditional_move. */
51 : : #include "expr.h"
52 : : #include "optabs-tree.h"
53 : : #include "libfuncs.h"
54 : : #include "reload.h"
55 : : #include "langhooks.h"
56 : : #include "common/common-target.h"
57 : : #include "tree-dfa.h"
58 : : #include "tree-ssa-live.h"
59 : : #include "tree-outof-ssa.h"
60 : : #include "tree-ssa-address.h"
61 : : #include "builtins.h"
62 : : #include "ccmp.h"
63 : : #include "gimple-iterator.h"
64 : : #include "gimple-fold.h"
65 : : #include "rtx-vector-builder.h"
66 : : #include "tree-pretty-print.h"
67 : : #include "flags.h"
68 : : #include "internal-fn.h"
69 : :
70 : :
71 : : /* If this is nonzero, we do not bother generating VOLATILE
72 : : around volatile memory references, and we are willing to
73 : : output indirect addresses. If cse is to follow, we reject
74 : : indirect addresses so a useful potential cse is generated;
75 : : if it is used only once, instruction combination will produce
76 : : the same indirect address eventually. */
77 : : int cse_not_expected;
78 : :
79 : : static bool block_move_libcall_safe_for_call_parm (void);
80 : : static bool emit_block_move_via_pattern (rtx, rtx, rtx, unsigned, unsigned,
81 : : HOST_WIDE_INT, unsigned HOST_WIDE_INT,
82 : : unsigned HOST_WIDE_INT,
83 : : unsigned HOST_WIDE_INT, bool);
84 : : static void emit_block_move_via_loop (rtx, rtx, rtx, unsigned, int);
85 : : static void emit_block_move_via_sized_loop (rtx, rtx, rtx, unsigned, unsigned);
86 : : static void emit_block_move_via_oriented_loop (rtx, rtx, rtx, unsigned, unsigned);
87 : : static rtx emit_block_cmp_via_loop (rtx, rtx, rtx, tree, rtx, bool,
88 : : unsigned, unsigned);
89 : : static rtx_insn *compress_float_constant (rtx, rtx);
90 : : static rtx get_subtarget (rtx);
91 : : static rtx store_field (rtx, poly_int64, poly_int64, poly_uint64, poly_uint64,
92 : : machine_mode, tree, alias_set_type, bool, bool);
93 : :
94 : : static unsigned HOST_WIDE_INT highest_pow2_factor_for_target (const_tree, const_tree);
95 : :
96 : : static bool is_aligning_offset (const_tree, const_tree);
97 : : static rtx reduce_to_bit_field_precision (rtx, rtx, tree);
98 : : static rtx do_store_flag (const_sepops, rtx, machine_mode);
99 : : #ifdef PUSH_ROUNDING
100 : : static void emit_single_push_insn (machine_mode, rtx, tree);
101 : : #endif
102 : : static void do_tablejump (rtx, machine_mode, rtx, rtx, rtx,
103 : : profile_probability);
104 : : static rtx const_vector_from_tree (tree);
105 : : static tree tree_expr_size (const_tree);
106 : : static void convert_mode_scalar (rtx, rtx, int);
107 : :
108 : :
109 : : /* This is run to set up which modes can be used
110 : : directly in memory and to initialize the block move optab. It is run
111 : : at the beginning of compilation and when the target is reinitialized. */
112 : :
113 : : void
114 : 207640 : init_expr_target (void)
115 : : {
116 : 207640 : rtx pat;
117 : 207640 : int num_clobbers;
118 : 207640 : rtx mem, mem1;
119 : 207640 : rtx reg;
120 : :
121 : : /* Try indexing by frame ptr and try by stack ptr.
122 : : It is known that on the Convex the stack ptr isn't a valid index.
123 : : With luck, one or the other is valid on any machine. */
124 : 207640 : mem = gen_rtx_MEM (word_mode, stack_pointer_rtx);
125 : 207640 : mem1 = gen_rtx_MEM (word_mode, frame_pointer_rtx);
126 : :
127 : : /* A scratch register we can modify in-place below to avoid
128 : : useless RTL allocations. */
129 : 207640 : reg = gen_rtx_REG (word_mode, LAST_VIRTUAL_REGISTER + 1);
130 : :
131 : 207640 : rtx_insn *insn = as_a<rtx_insn *> (rtx_alloc (INSN));
132 : 207640 : pat = gen_rtx_SET (NULL_RTX, NULL_RTX);
133 : 207640 : PATTERN (insn) = pat;
134 : :
135 : 27200840 : for (machine_mode mode = VOIDmode; (int) mode < NUM_MACHINE_MODES;
136 : 26993200 : mode = (machine_mode) ((int) mode + 1))
137 : : {
138 : 26993200 : int regno;
139 : :
140 : 26993200 : direct_load[(int) mode] = direct_store[(int) mode] = 0;
141 : 26993200 : PUT_MODE (mem, mode);
142 : 26993200 : PUT_MODE (mem1, mode);
143 : :
144 : : /* See if there is some register that can be used in this mode and
145 : : directly loaded or stored from memory. */
146 : :
147 : 26993200 : if (mode != VOIDmode && mode != BLKmode)
148 : 1849549289 : for (regno = 0; regno < FIRST_PSEUDO_REGISTER
149 : 1876127209 : && (direct_load[(int) mode] == 0 || direct_store[(int) mode] == 0);
150 : : regno++)
151 : : {
152 : 1849549289 : if (!targetm.hard_regno_mode_ok (regno, mode))
153 : 1735912422 : continue;
154 : :
155 : 113636867 : set_mode_and_regno (reg, mode, regno);
156 : :
157 : 113636867 : SET_SRC (pat) = mem;
158 : 113636867 : SET_DEST (pat) = reg;
159 : 113636867 : if (recog (pat, insn, &num_clobbers) >= 0)
160 : 6989585 : direct_load[(int) mode] = 1;
161 : :
162 : 113636867 : SET_SRC (pat) = mem1;
163 : 113636867 : SET_DEST (pat) = reg;
164 : 113636867 : if (recog (pat, insn, &num_clobbers) >= 0)
165 : 6989585 : direct_load[(int) mode] = 1;
166 : :
167 : 113636867 : SET_SRC (pat) = reg;
168 : 113636867 : SET_DEST (pat) = mem;
169 : 113636867 : if (recog (pat, insn, &num_clobbers) >= 0)
170 : 6989585 : direct_store[(int) mode] = 1;
171 : :
172 : 113636867 : SET_SRC (pat) = reg;
173 : 113636867 : SET_DEST (pat) = mem1;
174 : 113636867 : if (recog (pat, insn, &num_clobbers) >= 0)
175 : 6989585 : direct_store[(int) mode] = 1;
176 : : }
177 : : }
178 : :
179 : 207640 : mem = gen_rtx_MEM (VOIDmode, gen_raw_REG (Pmode, LAST_VIRTUAL_REGISTER + 1));
180 : :
181 : 207640 : opt_scalar_float_mode mode_iter;
182 : 1453480 : FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_FLOAT)
183 : : {
184 : 1245840 : scalar_float_mode mode = mode_iter.require ();
185 : 1245840 : scalar_float_mode srcmode;
186 : 4360440 : FOR_EACH_MODE_UNTIL (srcmode, mode)
187 : : {
188 : 3114600 : enum insn_code ic;
189 : :
190 : 3114600 : ic = can_extend_p (mode, srcmode, 0);
191 : 3114600 : if (ic == CODE_FOR_nothing)
192 : 2486948 : continue;
193 : :
194 : 627652 : PUT_MODE (mem, srcmode);
195 : :
196 : 627652 : if (insn_operand_matches (ic, 1, mem))
197 : 625576 : float_extend_from_mem[mode][srcmode] = true;
198 : : }
199 : : }
200 : 207640 : }
201 : :
202 : : /* This is run at the start of compiling a function. */
203 : :
204 : : void
205 : 1629789 : init_expr (void)
206 : : {
207 : 1629789 : memset (&crtl->expr, 0, sizeof (crtl->expr));
208 : 1629789 : }
209 : :
210 : : /* Copy data from FROM to TO, where the machine modes are not the same.
211 : : Both modes may be integer, or both may be floating, or both may be
212 : : fixed-point.
213 : : UNSIGNEDP should be nonzero if FROM is an unsigned type.
214 : : This causes zero-extension instead of sign-extension. */
215 : :
216 : : void
217 : 1775424 : convert_move (rtx to, rtx from, int unsignedp)
218 : : {
219 : 1775424 : machine_mode to_mode = GET_MODE (to);
220 : 1775424 : machine_mode from_mode = GET_MODE (from);
221 : :
222 : 1775424 : gcc_assert (to_mode != BLKmode);
223 : 1775424 : gcc_assert (from_mode != BLKmode);
224 : :
225 : : /* If the source and destination are already the same, then there's
226 : : nothing to do. */
227 : 1775424 : if (to == from)
228 : 1775424 : return;
229 : :
230 : : /* If FROM is a SUBREG that indicates that we have already done at least
231 : : the required extension, strip it. We don't handle such SUBREGs as
232 : : TO here. */
233 : :
234 : 1775424 : scalar_int_mode to_int_mode;
235 : 1775424 : if (GET_CODE (from) == SUBREG
236 : 107825 : && SUBREG_PROMOTED_VAR_P (from)
237 : 1775424 : && is_a <scalar_int_mode> (to_mode, &to_int_mode)
238 : 1775424 : && (GET_MODE_PRECISION (subreg_promoted_mode (from))
239 : 0 : >= GET_MODE_PRECISION (to_int_mode))
240 : 1775424 : && SUBREG_CHECK_PROMOTED_SIGN (from, unsignedp))
241 : : {
242 : 0 : scalar_int_mode int_orig_mode;
243 : 0 : scalar_int_mode int_inner_mode;
244 : 0 : machine_mode orig_mode = GET_MODE (from);
245 : :
246 : 0 : from = gen_lowpart (to_int_mode, SUBREG_REG (from));
247 : 0 : from_mode = to_int_mode;
248 : :
249 : : /* Preserve SUBREG_PROMOTED_VAR_P if the new mode is wider than
250 : : the original mode, but narrower than the inner mode. */
251 : 0 : if (GET_CODE (from) == SUBREG
252 : 0 : && is_a <scalar_int_mode> (orig_mode, &int_orig_mode)
253 : 0 : && GET_MODE_PRECISION (to_int_mode)
254 : 0 : > GET_MODE_PRECISION (int_orig_mode)
255 : 0 : && is_a <scalar_int_mode> (GET_MODE (SUBREG_REG (from)),
256 : : &int_inner_mode)
257 : 0 : && GET_MODE_PRECISION (int_inner_mode)
258 : 0 : > GET_MODE_PRECISION (to_int_mode))
259 : : {
260 : 0 : SUBREG_PROMOTED_VAR_P (from) = 1;
261 : 0 : SUBREG_PROMOTED_SET (from, unsignedp);
262 : : }
263 : : }
264 : :
265 : 1775424 : gcc_assert (GET_CODE (to) != SUBREG || !SUBREG_PROMOTED_VAR_P (to));
266 : :
267 : 1775424 : if (to_mode == from_mode
268 : 1726995 : || (from_mode == VOIDmode && CONSTANT_P (from)))
269 : : {
270 : 48771 : emit_move_insn (to, from);
271 : 48771 : return;
272 : : }
273 : :
274 : 1726653 : if (VECTOR_MODE_P (to_mode) || VECTOR_MODE_P (from_mode))
275 : : {
276 : 29656 : if (GET_MODE_UNIT_PRECISION (to_mode)
277 : 14828 : > GET_MODE_UNIT_PRECISION (from_mode))
278 : : {
279 : 5534 : optab op = unsignedp ? zext_optab : sext_optab;
280 : 5534 : insn_code icode = convert_optab_handler (op, to_mode, from_mode);
281 : 5534 : if (icode != CODE_FOR_nothing)
282 : : {
283 : 766 : emit_unop_insn (icode, to, from,
284 : : unsignedp ? ZERO_EXTEND : SIGN_EXTEND);
285 : 766 : return;
286 : : }
287 : : }
288 : :
289 : 28124 : if (GET_MODE_UNIT_PRECISION (to_mode)
290 : 14062 : < GET_MODE_UNIT_PRECISION (from_mode))
291 : : {
292 : 1943 : insn_code icode = convert_optab_handler (trunc_optab,
293 : : to_mode, from_mode);
294 : 1943 : if (icode != CODE_FOR_nothing)
295 : : {
296 : 866 : emit_unop_insn (icode, to, from, TRUNCATE);
297 : 866 : return;
298 : : }
299 : : }
300 : :
301 : 39588 : gcc_assert (known_eq (GET_MODE_BITSIZE (from_mode),
302 : : GET_MODE_BITSIZE (to_mode)));
303 : :
304 : 13196 : if (VECTOR_MODE_P (to_mode))
305 : 13196 : from = force_subreg (to_mode, from, GET_MODE (from), 0);
306 : : else
307 : 0 : to = simplify_gen_subreg (from_mode, to, GET_MODE (to), 0);
308 : :
309 : 13196 : emit_move_insn (to, from);
310 : 13196 : return;
311 : : }
312 : :
313 : 1711825 : if (GET_CODE (to) == CONCAT && GET_CODE (from) == CONCAT)
314 : : {
315 : 0 : convert_move (XEXP (to, 0), XEXP (from, 0), unsignedp);
316 : 0 : convert_move (XEXP (to, 1), XEXP (from, 1), unsignedp);
317 : 0 : return;
318 : : }
319 : :
320 : 1711825 : convert_mode_scalar (to, from, unsignedp);
321 : : }
322 : :
323 : : /* Like convert_move, but deals only with scalar modes. */
324 : :
325 : : static void
326 : 1711869 : convert_mode_scalar (rtx to, rtx from, int unsignedp)
327 : : {
328 : : /* Both modes should be scalar types. */
329 : 1711874 : scalar_mode from_mode = as_a <scalar_mode> (GET_MODE (from));
330 : 1711874 : scalar_mode to_mode = as_a <scalar_mode> (GET_MODE (to));
331 : 1711874 : bool to_real = SCALAR_FLOAT_MODE_P (to_mode);
332 : 1711874 : bool from_real = SCALAR_FLOAT_MODE_P (from_mode);
333 : 1711874 : enum insn_code code;
334 : 1711874 : rtx libcall;
335 : :
336 : 1711874 : gcc_assert (to_real == from_real);
337 : :
338 : : /* rtx code for making an equivalent value. */
339 : 1711874 : enum rtx_code equiv_code = (unsignedp < 0 ? UNKNOWN
340 : 1711874 : : (unsignedp ? ZERO_EXTEND : SIGN_EXTEND));
341 : :
342 : 1711874 : auto acceptable_same_precision_modes
343 : 580 : = [] (scalar_mode from_mode, scalar_mode to_mode) -> bool
344 : : {
345 : 580 : if (DECIMAL_FLOAT_MODE_P (from_mode) != DECIMAL_FLOAT_MODE_P (to_mode))
346 : : return true;
347 : :
348 : : /* arm_bfloat_half_format <-> ieee_half_format */
349 : 2 : if ((REAL_MODE_FORMAT (from_mode) == &arm_bfloat_half_format
350 : 1 : && REAL_MODE_FORMAT (to_mode) == &ieee_half_format)
351 : 2 : || (REAL_MODE_FORMAT (to_mode) == &arm_bfloat_half_format
352 : 1 : && REAL_MODE_FORMAT (from_mode) == &ieee_half_format))
353 : : return true;
354 : :
355 : : /* ibm_extended_format <-> ieee_quad_format */
356 : 0 : if ((REAL_MODE_FORMAT (from_mode) == &ibm_extended_format
357 : 0 : && REAL_MODE_FORMAT (to_mode) == &ieee_quad_format)
358 : 0 : || (REAL_MODE_FORMAT (from_mode) == &ieee_quad_format
359 : 0 : && REAL_MODE_FORMAT (to_mode) == &ibm_extended_format))
360 : 0 : return true;
361 : :
362 : : return false;
363 : : };
364 : :
365 : 1711874 : if (to_real)
366 : : {
367 : 184522 : rtx value;
368 : 184522 : rtx_insn *insns;
369 : 184522 : convert_optab tab;
370 : :
371 : 184522 : gcc_assert ((GET_MODE_PRECISION (from_mode)
372 : : != GET_MODE_PRECISION (to_mode))
373 : : || acceptable_same_precision_modes (from_mode, to_mode));
374 : :
375 : 184522 : if (GET_MODE_PRECISION (from_mode) == GET_MODE_PRECISION (to_mode))
376 : : {
377 : 580 : if ((REAL_MODE_FORMAT (to_mode) == &arm_bfloat_half_format
378 : 1 : && REAL_MODE_FORMAT (from_mode) == &ieee_half_format)
379 : 580 : || (REAL_MODE_FORMAT (to_mode) == &ieee_quad_format
380 : 0 : && REAL_MODE_FORMAT (from_mode) == &ibm_extended_format))
381 : : /* libgcc implements just __trunchfbf2, not __extendhfbf2;
382 : : and __trunctfkf2, not __extendtfkf2. */
383 : : tab = trunc_optab;
384 : : else
385 : : /* Conversion between decimal float and binary float, same
386 : : size. */
387 : 579 : tab = DECIMAL_FLOAT_MODE_P (from_mode) ? trunc_optab : sext_optab;
388 : : }
389 : 183942 : else if (GET_MODE_PRECISION (from_mode) < GET_MODE_PRECISION (to_mode))
390 : : tab = sext_optab;
391 : : else
392 : 19129 : tab = trunc_optab;
393 : :
394 : : /* Try converting directly if the insn is supported. */
395 : :
396 : 184522 : code = convert_optab_handler (tab, to_mode, from_mode);
397 : 184522 : if (code != CODE_FOR_nothing)
398 : : {
399 : 160223 : emit_unop_insn (code, to, from,
400 : : tab == sext_optab ? FLOAT_EXTEND : FLOAT_TRUNCATE);
401 : 160223 : return;
402 : : }
403 : :
404 : : #ifdef HAVE_SFmode
405 : 24299 : if (REAL_MODE_FORMAT (from_mode) == &arm_bfloat_half_format
406 : 24299 : && REAL_MODE_FORMAT (SFmode) == &ieee_single_format)
407 : : {
408 : 2642 : if (GET_MODE_PRECISION (to_mode) > GET_MODE_PRECISION (SFmode))
409 : : {
410 : : /* To cut down on libgcc size, implement
411 : : BFmode -> {DF,XF,TF}mode conversions by
412 : : BFmode -> SFmode -> {DF,XF,TF}mode conversions. */
413 : 4 : rtx temp = gen_reg_rtx (SFmode);
414 : 4 : convert_mode_scalar (temp, from, unsignedp);
415 : 4 : convert_mode_scalar (to, temp, unsignedp);
416 : 4 : return;
417 : : }
418 : 2638 : if (REAL_MODE_FORMAT (to_mode) == &ieee_half_format)
419 : : {
420 : : /* Similarly, implement BFmode -> HFmode as
421 : : BFmode -> SFmode -> HFmode conversion where SFmode
422 : : has superset of BFmode values. We don't need
423 : : to handle sNaNs by raising exception and turning
424 : : it into qNaN though, as that can be done in the
425 : : SFmode -> HFmode conversion too. */
426 : 1 : rtx temp = gen_reg_rtx (SFmode);
427 : 1 : int save_flag_finite_math_only = flag_finite_math_only;
428 : 1 : flag_finite_math_only = true;
429 : 1 : convert_mode_scalar (temp, from, unsignedp);
430 : 1 : flag_finite_math_only = save_flag_finite_math_only;
431 : 1 : convert_mode_scalar (to, temp, unsignedp);
432 : 1 : return;
433 : : }
434 : 2637 : if (to_mode == SFmode
435 : 2637 : && !HONOR_NANS (from_mode)
436 : 40 : && !HONOR_NANS (to_mode)
437 : 2677 : && optimize_insn_for_speed_p ())
438 : : {
439 : : /* If we don't expect sNaNs, for BFmode -> SFmode we can just
440 : : shift the bits up. */
441 : 39 : machine_mode fromi_mode, toi_mode;
442 : 78 : if (int_mode_for_size (GET_MODE_BITSIZE (from_mode),
443 : 39 : 0).exists (&fromi_mode)
444 : 39 : && int_mode_for_size (GET_MODE_BITSIZE (to_mode),
445 : 0 : 0).exists (&toi_mode))
446 : : {
447 : 39 : start_sequence ();
448 : 39 : rtx fromi = force_lowpart_subreg (fromi_mode, from,
449 : : from_mode);
450 : 39 : rtx tof = NULL_RTX;
451 : 39 : if (fromi)
452 : : {
453 : 39 : rtx toi;
454 : 39 : if (GET_MODE (fromi) == VOIDmode)
455 : 0 : toi = simplify_unary_operation (ZERO_EXTEND, toi_mode,
456 : : fromi, fromi_mode);
457 : : else
458 : : {
459 : 39 : toi = gen_reg_rtx (toi_mode);
460 : 39 : convert_mode_scalar (toi, fromi, 1);
461 : : }
462 : 39 : toi
463 : 78 : = maybe_expand_shift (LSHIFT_EXPR, toi_mode, toi,
464 : 39 : GET_MODE_PRECISION (to_mode)
465 : 39 : - GET_MODE_PRECISION (from_mode),
466 : : NULL_RTX, 1);
467 : 39 : if (toi)
468 : : {
469 : 39 : tof = force_lowpart_subreg (to_mode, toi, toi_mode);
470 : 39 : if (tof)
471 : 39 : emit_move_insn (to, tof);
472 : : }
473 : : }
474 : 39 : insns = get_insns ();
475 : 39 : end_sequence ();
476 : 39 : if (tof)
477 : : {
478 : 39 : emit_insn (insns);
479 : 39 : return;
480 : : }
481 : : }
482 : : }
483 : : }
484 : 24255 : if (REAL_MODE_FORMAT (from_mode) == &ieee_single_format
485 : 5015 : && REAL_MODE_FORMAT (to_mode) == &arm_bfloat_half_format
486 : 1818 : && !HONOR_NANS (from_mode)
487 : 0 : && !HONOR_NANS (to_mode)
488 : 0 : && !flag_rounding_math
489 : 24255 : && optimize_insn_for_speed_p ())
490 : : {
491 : : /* If we don't expect qNaNs nor sNaNs and can assume rounding
492 : : to nearest, we can expand the conversion inline as
493 : : (fromi + 0x7fff + ((fromi >> 16) & 1)) >> 16. */
494 : 0 : machine_mode fromi_mode, toi_mode;
495 : 0 : if (int_mode_for_size (GET_MODE_BITSIZE (from_mode),
496 : 0 : 0).exists (&fromi_mode)
497 : 0 : && int_mode_for_size (GET_MODE_BITSIZE (to_mode),
498 : 0 : 0).exists (&toi_mode))
499 : : {
500 : 0 : start_sequence ();
501 : 0 : rtx fromi = force_lowpart_subreg (fromi_mode, from, from_mode);
502 : 0 : rtx tof = NULL_RTX;
503 : 0 : do
504 : : {
505 : 0 : if (!fromi)
506 : : break;
507 : 0 : int shift = (GET_MODE_PRECISION (from_mode)
508 : 0 : - GET_MODE_PRECISION (to_mode));
509 : 0 : rtx temp1
510 : 0 : = maybe_expand_shift (RSHIFT_EXPR, fromi_mode, fromi,
511 : : shift, NULL_RTX, 1);
512 : 0 : if (!temp1)
513 : : break;
514 : 0 : rtx temp2
515 : 0 : = expand_binop (fromi_mode, and_optab, temp1, const1_rtx,
516 : : NULL_RTX, 1, OPTAB_DIRECT);
517 : 0 : if (!temp2)
518 : : break;
519 : 0 : rtx temp3
520 : 0 : = expand_binop (fromi_mode, add_optab, fromi,
521 : 0 : gen_int_mode ((HOST_WIDE_INT_1U
522 : 0 : << (shift - 1)) - 1,
523 : : fromi_mode), NULL_RTX,
524 : : 1, OPTAB_DIRECT);
525 : 0 : if (!temp3)
526 : : break;
527 : 0 : rtx temp4
528 : 0 : = expand_binop (fromi_mode, add_optab, temp3, temp2,
529 : : NULL_RTX, 1, OPTAB_DIRECT);
530 : 0 : if (!temp4)
531 : : break;
532 : 0 : rtx temp5 = maybe_expand_shift (RSHIFT_EXPR, fromi_mode,
533 : : temp4, shift, NULL_RTX, 1);
534 : 0 : if (!temp5)
535 : : break;
536 : 0 : rtx temp6 = force_lowpart_subreg (toi_mode, temp5,
537 : : fromi_mode);
538 : 0 : if (!temp6)
539 : : break;
540 : 0 : tof = force_lowpart_subreg (to_mode, temp6, toi_mode);
541 : 0 : if (tof)
542 : 0 : emit_move_insn (to, tof);
543 : : }
544 : : while (0);
545 : 0 : insns = get_insns ();
546 : 0 : end_sequence ();
547 : 0 : if (tof)
548 : : {
549 : 0 : emit_insn (insns);
550 : 0 : return;
551 : : }
552 : : }
553 : : }
554 : : #endif
555 : :
556 : : /* Otherwise use a libcall. */
557 : 24255 : libcall = convert_optab_libfunc (tab, to_mode, from_mode);
558 : :
559 : : /* Is this conversion implemented yet? */
560 : 24255 : gcc_assert (libcall);
561 : :
562 : 24255 : start_sequence ();
563 : 24255 : value = emit_library_call_value (libcall, NULL_RTX, LCT_CONST, to_mode,
564 : : from, from_mode);
565 : 24255 : insns = get_insns ();
566 : 24255 : end_sequence ();
567 : 24255 : emit_libcall_block (insns, to, value,
568 : 7527 : tab == trunc_optab ? gen_rtx_FLOAT_TRUNCATE (to_mode,
569 : : from)
570 : 16728 : : gen_rtx_FLOAT_EXTEND (to_mode, from));
571 : 24255 : return;
572 : : }
573 : :
574 : : /* Handle pointer conversion. */ /* SPEE 900220. */
575 : : /* If the target has a converter from FROM_MODE to TO_MODE, use it. */
576 : 1527352 : {
577 : 1527352 : convert_optab ctab;
578 : :
579 : 1527352 : if (GET_MODE_PRECISION (from_mode) > GET_MODE_PRECISION (to_mode))
580 : : ctab = trunc_optab;
581 : 1335125 : else if (unsignedp)
582 : : ctab = zext_optab;
583 : : else
584 : 667515 : ctab = sext_optab;
585 : :
586 : 1527352 : if (convert_optab_handler (ctab, to_mode, from_mode)
587 : : != CODE_FOR_nothing)
588 : : {
589 : 1329879 : emit_unop_insn (convert_optab_handler (ctab, to_mode, from_mode),
590 : : to, from, UNKNOWN);
591 : 1329879 : return;
592 : : }
593 : : }
594 : :
595 : : /* Targets are expected to provide conversion insns between PxImode and
596 : : xImode for all MODE_PARTIAL_INT modes they use, but no others. */
597 : 197473 : if (GET_MODE_CLASS (to_mode) == MODE_PARTIAL_INT)
598 : : {
599 : 0 : scalar_int_mode full_mode
600 : 0 : = smallest_int_mode_for_size (GET_MODE_BITSIZE (to_mode)).require ();
601 : :
602 : 0 : gcc_assert (convert_optab_handler (trunc_optab, to_mode, full_mode)
603 : : != CODE_FOR_nothing);
604 : :
605 : 0 : if (full_mode != from_mode)
606 : 0 : from = convert_to_mode (full_mode, from, unsignedp);
607 : 0 : emit_unop_insn (convert_optab_handler (trunc_optab, to_mode, full_mode),
608 : : to, from, UNKNOWN);
609 : 0 : return;
610 : : }
611 : 197473 : if (GET_MODE_CLASS (from_mode) == MODE_PARTIAL_INT)
612 : : {
613 : 0 : rtx new_from;
614 : 0 : scalar_int_mode full_mode
615 : 0 : = smallest_int_mode_for_size (GET_MODE_BITSIZE (from_mode)).require ();
616 : 0 : convert_optab ctab = unsignedp ? zext_optab : sext_optab;
617 : 0 : enum insn_code icode;
618 : :
619 : 0 : icode = convert_optab_handler (ctab, full_mode, from_mode);
620 : 0 : gcc_assert (icode != CODE_FOR_nothing);
621 : :
622 : 0 : if (to_mode == full_mode)
623 : : {
624 : 0 : emit_unop_insn (icode, to, from, UNKNOWN);
625 : 0 : return;
626 : : }
627 : :
628 : 0 : new_from = gen_reg_rtx (full_mode);
629 : 0 : emit_unop_insn (icode, new_from, from, UNKNOWN);
630 : :
631 : : /* else proceed to integer conversions below. */
632 : 0 : from_mode = full_mode;
633 : 0 : from = new_from;
634 : : }
635 : :
636 : : /* Make sure both are fixed-point modes or both are not. */
637 : 197473 : gcc_assert (ALL_SCALAR_FIXED_POINT_MODE_P (from_mode) ==
638 : : ALL_SCALAR_FIXED_POINT_MODE_P (to_mode));
639 : 197473 : if (ALL_SCALAR_FIXED_POINT_MODE_P (from_mode))
640 : : {
641 : : /* If we widen from_mode to to_mode and they are in the same class,
642 : : we won't saturate the result.
643 : : Otherwise, always saturate the result to play safe. */
644 : 0 : if (GET_MODE_CLASS (from_mode) == GET_MODE_CLASS (to_mode)
645 : 0 : && GET_MODE_SIZE (from_mode) < GET_MODE_SIZE (to_mode))
646 : 0 : expand_fixed_convert (to, from, 0, 0);
647 : : else
648 : 0 : expand_fixed_convert (to, from, 0, 1);
649 : 0 : return;
650 : : }
651 : :
652 : : /* Now both modes are integers. */
653 : :
654 : : /* Handle expanding beyond a word. */
655 : 197473 : if (GET_MODE_PRECISION (from_mode) < GET_MODE_PRECISION (to_mode)
656 : 200177 : && GET_MODE_PRECISION (to_mode) > BITS_PER_WORD)
657 : : {
658 : 5246 : rtx_insn *insns;
659 : 5246 : rtx lowpart;
660 : 5246 : rtx fill_value;
661 : 5246 : rtx lowfrom;
662 : 5246 : int i;
663 : 5246 : scalar_mode lowpart_mode;
664 : 10492 : int nwords = CEIL (GET_MODE_SIZE (to_mode), UNITS_PER_WORD);
665 : :
666 : : /* Try converting directly if the insn is supported. */
667 : 5246 : if ((code = can_extend_p (to_mode, from_mode, unsignedp))
668 : : != CODE_FOR_nothing)
669 : : {
670 : : /* If FROM is a SUBREG, put it into a register. Do this
671 : : so that we always generate the same set of insns for
672 : : better cse'ing; if an intermediate assignment occurred,
673 : : we won't be doing the operation directly on the SUBREG. */
674 : 0 : if (optimize > 0 && GET_CODE (from) == SUBREG)
675 : 0 : from = force_reg (from_mode, from);
676 : 0 : emit_unop_insn (code, to, from, equiv_code);
677 : 0 : return;
678 : : }
679 : : /* Next, try converting via full word. */
680 : 5246 : else if (GET_MODE_PRECISION (from_mode) < BITS_PER_WORD
681 : 5246 : && ((code = can_extend_p (to_mode, word_mode, unsignedp))
682 : : != CODE_FOR_nothing))
683 : : {
684 : 5246 : rtx word_to = gen_reg_rtx (word_mode);
685 : 5246 : if (REG_P (to))
686 : : {
687 : 5177 : if (reg_overlap_mentioned_p (to, from))
688 : 0 : from = force_reg (from_mode, from);
689 : 5177 : emit_clobber (to);
690 : : }
691 : 5246 : convert_move (word_to, from, unsignedp);
692 : 5246 : emit_unop_insn (code, to, word_to, equiv_code);
693 : 5246 : return;
694 : : }
695 : :
696 : : /* No special multiword conversion insn; do it by hand. */
697 : 0 : start_sequence ();
698 : :
699 : : /* Since we will turn this into a no conflict block, we must ensure
700 : : the source does not overlap the target so force it into an isolated
701 : : register when maybe so. Likewise for any MEM input, since the
702 : : conversion sequence might require several references to it and we
703 : : must ensure we're getting the same value every time. */
704 : :
705 : 0 : if (MEM_P (from) || reg_overlap_mentioned_p (to, from))
706 : 0 : from = force_reg (from_mode, from);
707 : :
708 : : /* Get a copy of FROM widened to a word, if necessary. */
709 : 0 : if (GET_MODE_PRECISION (from_mode) < BITS_PER_WORD)
710 : 0 : lowpart_mode = word_mode;
711 : : else
712 : : lowpart_mode = from_mode;
713 : :
714 : 0 : lowfrom = convert_to_mode (lowpart_mode, from, unsignedp);
715 : :
716 : 0 : lowpart = gen_lowpart (lowpart_mode, to);
717 : 0 : emit_move_insn (lowpart, lowfrom);
718 : :
719 : : /* Compute the value to put in each remaining word. */
720 : 0 : if (unsignedp)
721 : 0 : fill_value = const0_rtx;
722 : : else
723 : 0 : fill_value = emit_store_flag_force (gen_reg_rtx (word_mode),
724 : : LT, lowfrom, const0_rtx,
725 : : lowpart_mode, 0, -1);
726 : :
727 : : /* Fill the remaining words. */
728 : 0 : for (i = GET_MODE_SIZE (lowpart_mode) / UNITS_PER_WORD; i < nwords; i++)
729 : : {
730 : 0 : int index = (WORDS_BIG_ENDIAN ? nwords - i - 1 : i);
731 : 0 : rtx subword = operand_subword (to, index, 1, to_mode);
732 : :
733 : 0 : gcc_assert (subword);
734 : :
735 : 0 : if (fill_value != subword)
736 : 0 : emit_move_insn (subword, fill_value);
737 : : }
738 : :
739 : 0 : insns = get_insns ();
740 : 0 : end_sequence ();
741 : :
742 : 0 : emit_insn (insns);
743 : 0 : return;
744 : : }
745 : :
746 : : /* Truncating multi-word to a word or less. */
747 : 192227 : if (GET_MODE_PRECISION (from_mode) > BITS_PER_WORD
748 : 192227 : && GET_MODE_PRECISION (to_mode) <= BITS_PER_WORD)
749 : : {
750 : 70392 : if (!((MEM_P (from)
751 : 537 : && ! MEM_VOLATILE_P (from)
752 : 537 : && direct_load[(int) to_mode]
753 : 537 : && ! mode_dependent_address_p (XEXP (from, 0),
754 : 537 : MEM_ADDR_SPACE (from)))
755 : 39700 : || REG_P (from)
756 : : || GET_CODE (from) == SUBREG))
757 : 0 : from = force_reg (from_mode, from);
758 : 40237 : convert_move (to, gen_lowpart (word_mode, from), 0);
759 : 40237 : return;
760 : : }
761 : :
762 : : /* Now follow all the conversions between integers
763 : : no more than a word long. */
764 : :
765 : : /* For truncation, usually we can just refer to FROM in a narrower mode. */
766 : 303980 : if (GET_MODE_BITSIZE (to_mode) < GET_MODE_BITSIZE (from_mode)
767 : 151990 : && TRULY_NOOP_TRUNCATION_MODES_P (to_mode, from_mode))
768 : : {
769 : 164086 : if (!((MEM_P (from)
770 : 12673 : && ! MEM_VOLATILE_P (from)
771 : 12614 : && direct_load[(int) to_mode]
772 : 12614 : && ! mode_dependent_address_p (XEXP (from, 0),
773 : 12614 : MEM_ADDR_SPACE (from)))
774 : 139376 : || REG_P (from)
775 : : || GET_CODE (from) == SUBREG))
776 : 916 : from = force_reg (from_mode, from);
777 : 128196 : if (REG_P (from) && REGNO (from) < FIRST_PSEUDO_REGISTER
778 : 151991 : && !targetm.hard_regno_mode_ok (REGNO (from), to_mode))
779 : 0 : from = copy_to_reg (from);
780 : 151990 : emit_move_insn (to, gen_lowpart (to_mode, from));
781 : 151990 : return;
782 : : }
783 : :
784 : : /* Handle extension. */
785 : 0 : if (GET_MODE_PRECISION (to_mode) > GET_MODE_PRECISION (from_mode))
786 : : {
787 : : /* Convert directly if that works. */
788 : 0 : if ((code = can_extend_p (to_mode, from_mode, unsignedp))
789 : : != CODE_FOR_nothing)
790 : : {
791 : 0 : emit_unop_insn (code, to, from, equiv_code);
792 : 0 : return;
793 : : }
794 : : else
795 : : {
796 : 0 : rtx tmp;
797 : 0 : int shift_amount;
798 : :
799 : : /* Search for a mode to convert via. */
800 : 0 : opt_scalar_mode intermediate_iter;
801 : 0 : FOR_EACH_MODE_FROM (intermediate_iter, from_mode)
802 : : {
803 : 0 : scalar_mode intermediate = intermediate_iter.require ();
804 : 0 : if (((can_extend_p (to_mode, intermediate, unsignedp)
805 : : != CODE_FOR_nothing)
806 : 0 : || (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (intermediate)
807 : 0 : && TRULY_NOOP_TRUNCATION_MODES_P (to_mode,
808 : : intermediate)))
809 : 0 : && (can_extend_p (intermediate, from_mode, unsignedp)
810 : : != CODE_FOR_nothing))
811 : : {
812 : 0 : convert_move (to, convert_to_mode (intermediate, from,
813 : : unsignedp), unsignedp);
814 : 0 : return;
815 : : }
816 : : }
817 : :
818 : : /* No suitable intermediate mode.
819 : : Generate what we need with shifts. */
820 : 0 : shift_amount = (GET_MODE_PRECISION (to_mode)
821 : 0 : - GET_MODE_PRECISION (from_mode));
822 : 0 : from = gen_lowpart (to_mode, force_reg (from_mode, from));
823 : 0 : tmp = expand_shift (LSHIFT_EXPR, to_mode, from, shift_amount,
824 : : to, unsignedp);
825 : 0 : tmp = expand_shift (RSHIFT_EXPR, to_mode, tmp, shift_amount,
826 : : to, unsignedp);
827 : 0 : if (tmp != to)
828 : 0 : emit_move_insn (to, tmp);
829 : 0 : return;
830 : : }
831 : : }
832 : :
833 : : /* Support special truncate insns for certain modes. */
834 : 0 : if (convert_optab_handler (trunc_optab, to_mode,
835 : : from_mode) != CODE_FOR_nothing)
836 : : {
837 : 0 : emit_unop_insn (convert_optab_handler (trunc_optab, to_mode, from_mode),
838 : : to, from, UNKNOWN);
839 : 0 : return;
840 : : }
841 : :
842 : : /* Handle truncation of volatile memrefs, and so on;
843 : : the things that couldn't be truncated directly,
844 : : and for which there was no special instruction.
845 : :
846 : : ??? Code above formerly short-circuited this, for most integer
847 : : mode pairs, with a force_reg in from_mode followed by a recursive
848 : : call to this routine. Appears always to have been wrong. */
849 : 0 : if (GET_MODE_PRECISION (to_mode) < GET_MODE_PRECISION (from_mode))
850 : : {
851 : 0 : rtx temp = force_reg (to_mode, gen_lowpart (to_mode, from));
852 : 0 : emit_move_insn (to, temp);
853 : 0 : return;
854 : : }
855 : :
856 : : /* Mode combination is not recognized. */
857 : 0 : gcc_unreachable ();
858 : : }
859 : :
860 : : /* Return an rtx for a value that would result
861 : : from converting X to mode MODE.
862 : : Both X and MODE may be floating, or both integer.
863 : : UNSIGNEDP is nonzero if X is an unsigned value.
864 : : This can be done by referring to a part of X in place
865 : : or by copying to a new temporary with conversion. */
866 : :
867 : : rtx
868 : 1763320 : convert_to_mode (machine_mode mode, rtx x, int unsignedp)
869 : : {
870 : 1763320 : return convert_modes (mode, VOIDmode, x, unsignedp);
871 : : }
872 : :
873 : : /* Return an rtx for a value that would result
874 : : from converting X from mode OLDMODE to mode MODE.
875 : : Both modes may be floating, or both integer.
876 : : UNSIGNEDP is nonzero if X is an unsigned value.
877 : :
878 : : This can be done by referring to a part of X in place
879 : : or by copying to a new temporary with conversion.
880 : :
881 : : You can give VOIDmode for OLDMODE, if you are sure X has a nonvoid mode. */
882 : :
883 : : rtx
884 : 4111275 : convert_modes (machine_mode mode, machine_mode oldmode, rtx x, int unsignedp)
885 : : {
886 : 4111275 : rtx temp;
887 : 4111275 : scalar_int_mode int_mode;
888 : :
889 : : /* If FROM is a SUBREG that indicates that we have already done at least
890 : : the required extension, strip it. */
891 : :
892 : 4111275 : if (GET_CODE (x) == SUBREG
893 : 74225 : && SUBREG_PROMOTED_VAR_P (x)
894 : 4111275 : && is_a <scalar_int_mode> (mode, &int_mode)
895 : 4111275 : && (GET_MODE_PRECISION (subreg_promoted_mode (x))
896 : 3 : >= GET_MODE_PRECISION (int_mode))
897 : 4111278 : && SUBREG_CHECK_PROMOTED_SIGN (x, unsignedp))
898 : : {
899 : 3 : scalar_int_mode int_orig_mode;
900 : 3 : scalar_int_mode int_inner_mode;
901 : 3 : machine_mode orig_mode = GET_MODE (x);
902 : 3 : x = gen_lowpart (int_mode, SUBREG_REG (x));
903 : :
904 : : /* Preserve SUBREG_PROMOTED_VAR_P if the new mode is wider than
905 : : the original mode, but narrower than the inner mode. */
906 : 3 : if (GET_CODE (x) == SUBREG
907 : 0 : && is_a <scalar_int_mode> (orig_mode, &int_orig_mode)
908 : 0 : && GET_MODE_PRECISION (int_mode)
909 : 0 : > GET_MODE_PRECISION (int_orig_mode)
910 : 0 : && is_a <scalar_int_mode> (GET_MODE (SUBREG_REG (x)),
911 : : &int_inner_mode)
912 : 3 : && GET_MODE_PRECISION (int_inner_mode)
913 : 0 : > GET_MODE_PRECISION (int_mode))
914 : : {
915 : 0 : SUBREG_PROMOTED_VAR_P (x) = 1;
916 : 0 : SUBREG_PROMOTED_SET (x, unsignedp);
917 : : }
918 : : }
919 : :
920 : 4111275 : if (GET_MODE (x) != VOIDmode)
921 : 2215415 : oldmode = GET_MODE (x);
922 : :
923 : 4111275 : if (mode == oldmode)
924 : : return x;
925 : :
926 : 3129060 : if (CONST_SCALAR_INT_P (x)
927 : 3129060 : && is_a <scalar_int_mode> (mode, &int_mode))
928 : : {
929 : : /* If the caller did not tell us the old mode, then there is not
930 : : much to do with respect to canonicalization. We have to
931 : : assume that all the bits are significant. */
932 : 1589345 : if (!is_a <scalar_int_mode> (oldmode))
933 : 1524197 : oldmode = MAX_MODE_INT;
934 : 1589345 : wide_int w = wide_int::from (rtx_mode_t (x, oldmode),
935 : 1589345 : GET_MODE_PRECISION (int_mode),
936 : 2156034 : unsignedp ? UNSIGNED : SIGNED);
937 : 1589345 : return immed_wide_int_const (w, int_mode);
938 : 1589345 : }
939 : :
940 : : /* We can do this with a gen_lowpart if both desired and current modes
941 : : are integer, and this is either a constant integer, a register, or a
942 : : non-volatile MEM. */
943 : 1539715 : scalar_int_mode int_oldmode;
944 : 1539715 : if (is_int_mode (mode, &int_mode)
945 : 1447885 : && is_int_mode (oldmode, &int_oldmode)
946 : 1447885 : && GET_MODE_PRECISION (int_mode) <= GET_MODE_PRECISION (int_oldmode)
947 : 535292 : && ((MEM_P (x) && !MEM_VOLATILE_P (x) && direct_load[(int) int_mode])
948 : 10409 : || CONST_POLY_INT_P (x)
949 : 524883 : || (REG_P (x)
950 : 488504 : && (!HARD_REGISTER_P (x)
951 : 1027 : || targetm.hard_regno_mode_ok (REGNO (x), int_mode))
952 : 488504 : && TRULY_NOOP_TRUNCATION_MODES_P (int_mode, GET_MODE (x)))))
953 : 498913 : return gen_lowpart (int_mode, x);
954 : :
955 : : /* Converting from integer constant into mode is always equivalent to an
956 : : subreg operation. */
957 : 1040802 : if (VECTOR_MODE_P (mode) && GET_MODE (x) == VOIDmode)
958 : : {
959 : 0 : gcc_assert (known_eq (GET_MODE_BITSIZE (mode),
960 : : GET_MODE_BITSIZE (oldmode)));
961 : 0 : return force_subreg (mode, x, oldmode, 0);
962 : : }
963 : :
964 : 1040802 : temp = gen_reg_rtx (mode);
965 : 1040802 : convert_move (temp, x, unsignedp);
966 : 1040802 : return temp;
967 : : }
968 : :
969 : : /* Variant of convert_modes for ABI parameter passing/return.
970 : : Return an rtx for a value that would result from converting X from
971 : : a floating point mode FMODE to wider integer mode MODE. */
972 : :
973 : : rtx
974 : 0 : convert_float_to_wider_int (machine_mode mode, machine_mode fmode, rtx x)
975 : : {
976 : 0 : gcc_assert (SCALAR_INT_MODE_P (mode) && SCALAR_FLOAT_MODE_P (fmode));
977 : 0 : scalar_int_mode tmp_mode = int_mode_for_mode (fmode).require ();
978 : 0 : rtx tmp = force_reg (tmp_mode, gen_lowpart (tmp_mode, x));
979 : 0 : return convert_modes (mode, tmp_mode, tmp, 1);
980 : : }
981 : :
982 : : /* Variant of convert_modes for ABI parameter passing/return.
983 : : Return an rtx for a value that would result from converting X from
984 : : an integer mode IMODE to a narrower floating point mode MODE. */
985 : :
986 : : rtx
987 : 0 : convert_wider_int_to_float (machine_mode mode, machine_mode imode, rtx x)
988 : : {
989 : 0 : gcc_assert (SCALAR_FLOAT_MODE_P (mode) && SCALAR_INT_MODE_P (imode));
990 : 0 : scalar_int_mode tmp_mode = int_mode_for_mode (mode).require ();
991 : 0 : rtx tmp = force_reg (tmp_mode, gen_lowpart (tmp_mode, x));
992 : 0 : return gen_lowpart_SUBREG (mode, tmp);
993 : : }
994 : :
995 : : /* Return the largest alignment we can use for doing a move (or store)
996 : : of MAX_PIECES. ALIGN is the largest alignment we could use. */
997 : :
998 : : static unsigned int
999 : 2481673 : alignment_for_piecewise_move (unsigned int max_pieces, unsigned int align)
1000 : : {
1001 : 2481673 : scalar_int_mode tmode
1002 : 2481673 : = int_mode_for_size (max_pieces * BITS_PER_UNIT, 0).require ();
1003 : :
1004 : 2481673 : if (align >= GET_MODE_ALIGNMENT (tmode))
1005 : 1935575 : align = GET_MODE_ALIGNMENT (tmode);
1006 : : else
1007 : : {
1008 : 546098 : scalar_int_mode xmode = NARROWEST_INT_MODE;
1009 : 546098 : opt_scalar_int_mode mode_iter;
1010 : 3285532 : FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
1011 : : {
1012 : 3281363 : tmode = mode_iter.require ();
1013 : 3281363 : if (GET_MODE_SIZE (tmode) > max_pieces
1014 : 3281363 : || targetm.slow_unaligned_access (tmode, align))
1015 : : break;
1016 : 2739434 : xmode = tmode;
1017 : : }
1018 : :
1019 : 546098 : align = MAX (align, GET_MODE_ALIGNMENT (xmode));
1020 : : }
1021 : :
1022 : 2481673 : return align;
1023 : : }
1024 : :
1025 : : /* Return true if we know how to implement OP using vectors of bytes. */
1026 : : static bool
1027 : 5298829 : can_use_qi_vectors (by_pieces_operation op)
1028 : : {
1029 : 5298829 : return (op == COMPARE_BY_PIECES
1030 : 5298829 : || op == SET_BY_PIECES
1031 : 5298829 : || op == CLEAR_BY_PIECES);
1032 : : }
1033 : :
1034 : : /* Return true if optabs exists for the mode and certain by pieces
1035 : : operations. */
1036 : : static bool
1037 : 24671768 : by_pieces_mode_supported_p (fixed_size_mode mode, by_pieces_operation op)
1038 : : {
1039 : 24671768 : if (optab_handler (mov_optab, mode) == CODE_FOR_nothing)
1040 : : return false;
1041 : :
1042 : 23837497 : if ((op == SET_BY_PIECES || op == CLEAR_BY_PIECES)
1043 : 1294594 : && VECTOR_MODE_P (mode)
1044 : 24978011 : && optab_handler (vec_duplicate_optab, mode) == CODE_FOR_nothing)
1045 : : return false;
1046 : :
1047 : 22982332 : if (op == COMPARE_BY_PIECES
1048 : 22982332 : && !can_compare_p (EQ, mode, ccp_jump))
1049 : : return false;
1050 : :
1051 : : return true;
1052 : : }
1053 : :
1054 : : /* Return the widest mode that can be used to perform part of an
1055 : : operation OP on SIZE bytes. Try to use QI vector modes where
1056 : : possible. */
1057 : : static fixed_size_mode
1058 : 4827374 : widest_fixed_size_mode_for_size (unsigned int size, by_pieces_operation op)
1059 : : {
1060 : 4827374 : fixed_size_mode result = NARROWEST_INT_MODE;
1061 : :
1062 : 4827374 : gcc_checking_assert (size > 1);
1063 : :
1064 : : /* Use QI vector only if size is wider than a WORD. */
1065 : 4890880 : if (can_use_qi_vectors (op) && size > UNITS_PER_WORD)
1066 : : {
1067 : 414928 : machine_mode mode;
1068 : 414928 : fixed_size_mode candidate;
1069 : 7000224 : FOR_EACH_MODE_IN_CLASS (mode, MODE_VECTOR_INT)
1070 : 7000224 : if (is_a<fixed_size_mode> (mode, &candidate)
1071 : 14000448 : && GET_MODE_INNER (candidate) == QImode)
1072 : : {
1073 : 5777314 : if (GET_MODE_SIZE (candidate) >= size)
1074 : : break;
1075 : 2473729 : if (by_pieces_mode_supported_p (candidate, op))
1076 : 6585296 : result = candidate;
1077 : : }
1078 : :
1079 : 414928 : if (result != NARROWEST_INT_MODE)
1080 : 273442 : return result;
1081 : : }
1082 : :
1083 : 4553932 : opt_scalar_int_mode tmode;
1084 : 4553932 : scalar_int_mode mode;
1085 : 36431456 : FOR_EACH_MODE_IN_CLASS (tmode, MODE_INT)
1086 : : {
1087 : 31877524 : mode = tmode.require ();
1088 : 31877524 : if (GET_MODE_SIZE (mode) < size
1089 : 31877524 : && by_pieces_mode_supported_p (mode, op))
1090 : 22161160 : result = mode;
1091 : : }
1092 : :
1093 : 4553932 : return result;
1094 : : }
1095 : :
1096 : : /* Determine whether an operation OP on LEN bytes with alignment ALIGN can
1097 : : and should be performed piecewise. */
1098 : :
1099 : : static bool
1100 : 908673 : can_do_by_pieces (unsigned HOST_WIDE_INT len, unsigned int align,
1101 : : enum by_pieces_operation op)
1102 : : {
1103 : 908673 : return targetm.use_by_pieces_infrastructure_p (len, align, op,
1104 : 908673 : optimize_insn_for_speed_p ());
1105 : : }
1106 : :
1107 : : /* Determine whether the LEN bytes can be moved by using several move
1108 : : instructions. Return nonzero if a call to move_by_pieces should
1109 : : succeed. */
1110 : :
1111 : : bool
1112 : 872102 : can_move_by_pieces (unsigned HOST_WIDE_INT len, unsigned int align)
1113 : : {
1114 : 872102 : return can_do_by_pieces (len, align, MOVE_BY_PIECES);
1115 : : }
1116 : :
1117 : : /* Return number of insns required to perform operation OP by pieces
1118 : : for L bytes. ALIGN (in bits) is maximum alignment we can assume. */
1119 : :
1120 : : unsigned HOST_WIDE_INT
1121 : 1756735 : by_pieces_ninsns (unsigned HOST_WIDE_INT l, unsigned int align,
1122 : : unsigned int max_size, by_pieces_operation op)
1123 : : {
1124 : 1756735 : unsigned HOST_WIDE_INT n_insns = 0;
1125 : 1756735 : fixed_size_mode mode;
1126 : :
1127 : 1756735 : if (targetm.overlap_op_by_pieces_p ())
1128 : : {
1129 : : /* NB: Round up L and ALIGN to the widest integer mode for
1130 : : MAX_SIZE. */
1131 : 1756735 : mode = widest_fixed_size_mode_for_size (max_size, op);
1132 : 1756735 : gcc_assert (optab_handler (mov_optab, mode) != CODE_FOR_nothing);
1133 : 3513470 : unsigned HOST_WIDE_INT up = ROUND_UP (l, GET_MODE_SIZE (mode));
1134 : 1756735 : if (up > l)
1135 : : l = up;
1136 : 1756735 : align = GET_MODE_ALIGNMENT (mode);
1137 : : }
1138 : :
1139 : 1756735 : align = alignment_for_piecewise_move (MOVE_MAX_PIECES, align);
1140 : :
1141 : 5286578 : while (max_size > 1 && l > 0)
1142 : : {
1143 : 1773108 : mode = widest_fixed_size_mode_for_size (max_size, op);
1144 : 1773108 : gcc_assert (optab_handler (mov_optab, mode) != CODE_FOR_nothing);
1145 : :
1146 : 1773108 : unsigned int modesize = GET_MODE_SIZE (mode);
1147 : :
1148 : 1773108 : if (align >= GET_MODE_ALIGNMENT (mode))
1149 : : {
1150 : 1773108 : unsigned HOST_WIDE_INT n_pieces = l / modesize;
1151 : 1773108 : l %= modesize;
1152 : 1773108 : switch (op)
1153 : : {
1154 : 1736537 : default:
1155 : 1736537 : n_insns += n_pieces;
1156 : 1736537 : break;
1157 : :
1158 : 36571 : case COMPARE_BY_PIECES:
1159 : 36571 : int batch = targetm.compare_by_pieces_branch_ratio (mode);
1160 : 36571 : int batch_ops = 4 * batch - 1;
1161 : 36571 : unsigned HOST_WIDE_INT full = n_pieces / batch;
1162 : 36571 : n_insns += full * batch_ops;
1163 : 36571 : if (n_pieces % batch != 0)
1164 : 0 : n_insns++;
1165 : : break;
1166 : :
1167 : : }
1168 : : }
1169 : : max_size = modesize;
1170 : : }
1171 : :
1172 : 1756735 : gcc_assert (!l);
1173 : 1756735 : return n_insns;
1174 : : }
1175 : :
1176 : : /* Used when performing piecewise block operations, holds information
1177 : : about one of the memory objects involved. The member functions
1178 : : can be used to generate code for loading from the object and
1179 : : updating the address when iterating. */
1180 : :
1181 : : class pieces_addr
1182 : : {
1183 : : /* The object being referenced, a MEM. Can be NULL_RTX to indicate
1184 : : stack pushes. */
1185 : : rtx m_obj;
1186 : : /* The address of the object. Can differ from that seen in the
1187 : : MEM rtx if we copied the address to a register. */
1188 : : rtx m_addr;
1189 : : /* Nonzero if the address on the object has an autoincrement already,
1190 : : signifies whether that was an increment or decrement. */
1191 : : signed char m_addr_inc;
1192 : : /* Nonzero if we intend to use autoinc without the address already
1193 : : having autoinc form. We will insert add insns around each memory
1194 : : reference, expecting later passes to form autoinc addressing modes.
1195 : : The only supported options are predecrement and postincrement. */
1196 : : signed char m_explicit_inc;
1197 : : /* True if we have either of the two possible cases of using
1198 : : autoincrement. */
1199 : : bool m_auto;
1200 : : /* True if this is an address to be used for load operations rather
1201 : : than stores. */
1202 : : bool m_is_load;
1203 : :
1204 : : /* Optionally, a function to obtain constants for any given offset into
1205 : : the objects, and data associated with it. */
1206 : : by_pieces_constfn m_constfn;
1207 : : void *m_cfndata;
1208 : : public:
1209 : : pieces_addr (rtx, bool, by_pieces_constfn, void *);
1210 : : rtx adjust (fixed_size_mode, HOST_WIDE_INT, by_pieces_prev * = nullptr);
1211 : : void increment_address (HOST_WIDE_INT);
1212 : : void maybe_predec (HOST_WIDE_INT);
1213 : : void maybe_postinc (HOST_WIDE_INT);
1214 : : void decide_autoinc (machine_mode, bool, HOST_WIDE_INT);
1215 : 678456 : int get_addr_inc ()
1216 : : {
1217 : 678456 : return m_addr_inc;
1218 : : }
1219 : : };
1220 : :
1221 : : /* Initialize a pieces_addr structure from an object OBJ. IS_LOAD is
1222 : : true if the operation to be performed on this object is a load
1223 : : rather than a store. For stores, OBJ can be NULL, in which case we
1224 : : assume the operation is a stack push. For loads, the optional
1225 : : CONSTFN and its associated CFNDATA can be used in place of the
1226 : : memory load. */
1227 : :
1228 : 1356912 : pieces_addr::pieces_addr (rtx obj, bool is_load, by_pieces_constfn constfn,
1229 : 1356912 : void *cfndata)
1230 : 1356912 : : m_obj (obj), m_is_load (is_load), m_constfn (constfn), m_cfndata (cfndata)
1231 : : {
1232 : 1356912 : m_addr_inc = 0;
1233 : 1356912 : m_auto = false;
1234 : 1356912 : if (obj)
1235 : : {
1236 : 1268255 : rtx addr = XEXP (obj, 0);
1237 : 1268255 : rtx_code code = GET_CODE (addr);
1238 : 1268255 : m_addr = addr;
1239 : 1268255 : bool dec = code == PRE_DEC || code == POST_DEC;
1240 : 1268255 : bool inc = code == PRE_INC || code == POST_INC;
1241 : 1268255 : m_auto = inc || dec;
1242 : 1268255 : if (m_auto)
1243 : 0 : m_addr_inc = dec ? -1 : 1;
1244 : :
1245 : : /* While we have always looked for these codes here, the code
1246 : : implementing the memory operation has never handled them.
1247 : : Support could be added later if necessary or beneficial. */
1248 : 1268255 : gcc_assert (code != PRE_INC && code != POST_DEC);
1249 : : }
1250 : : else
1251 : : {
1252 : 88657 : m_addr = NULL_RTX;
1253 : 88657 : if (!is_load)
1254 : : {
1255 : 45 : m_auto = true;
1256 : 45 : if (STACK_GROWS_DOWNWARD)
1257 : 45 : m_addr_inc = -1;
1258 : : else
1259 : : m_addr_inc = 1;
1260 : : }
1261 : : else
1262 : 88612 : gcc_assert (constfn != NULL);
1263 : : }
1264 : 1356912 : m_explicit_inc = 0;
1265 : 1356912 : if (constfn)
1266 : 110459 : gcc_assert (is_load);
1267 : 1356912 : }
1268 : :
1269 : : /* Decide whether to use autoinc for an address involved in a memory op.
1270 : : MODE is the mode of the accesses, REVERSE is true if we've decided to
1271 : : perform the operation starting from the end, and LEN is the length of
1272 : : the operation. Don't override an earlier decision to set m_auto. */
1273 : :
1274 : : void
1275 : 359596 : pieces_addr::decide_autoinc (machine_mode ARG_UNUSED (mode), bool reverse,
1276 : : HOST_WIDE_INT len)
1277 : : {
1278 : 359596 : if (m_auto || m_obj == NULL_RTX)
1279 : : return;
1280 : :
1281 : 337191 : bool use_predec = (m_is_load
1282 : : ? USE_LOAD_PRE_DECREMENT (mode)
1283 : : : USE_STORE_PRE_DECREMENT (mode));
1284 : 337191 : bool use_postinc = (m_is_load
1285 : : ? USE_LOAD_POST_INCREMENT (mode)
1286 : : : USE_STORE_POST_INCREMENT (mode));
1287 : 337191 : machine_mode addr_mode = get_address_mode (m_obj);
1288 : :
1289 : 337191 : if (use_predec && reverse)
1290 : : {
1291 : : m_addr = copy_to_mode_reg (addr_mode,
1292 : : plus_constant (addr_mode,
1293 : : m_addr, len));
1294 : : m_auto = true;
1295 : : m_explicit_inc = -1;
1296 : : }
1297 : 337191 : else if (use_postinc && !reverse)
1298 : : {
1299 : : m_addr = copy_to_mode_reg (addr_mode, m_addr);
1300 : : m_auto = true;
1301 : : m_explicit_inc = 1;
1302 : : }
1303 : 337191 : else if (CONSTANT_P (m_addr))
1304 : 70552 : m_addr = copy_to_mode_reg (addr_mode, m_addr);
1305 : : }
1306 : :
1307 : : /* Adjust the address to refer to the data at OFFSET in MODE. If we
1308 : : are using autoincrement for this address, we don't add the offset,
1309 : : but we still modify the MEM's properties. */
1310 : :
1311 : : rtx
1312 : 3838526 : pieces_addr::adjust (fixed_size_mode mode, HOST_WIDE_INT offset,
1313 : : by_pieces_prev *prev)
1314 : : {
1315 : 3838526 : if (m_constfn)
1316 : : /* Pass the previous data to m_constfn. */
1317 : 261047 : return m_constfn (m_cfndata, prev, offset, mode);
1318 : 3577479 : if (m_obj == NULL_RTX)
1319 : : return NULL_RTX;
1320 : 3577432 : if (m_auto)
1321 : 0 : return adjust_automodify_address (m_obj, mode, m_addr, offset);
1322 : : else
1323 : 3577432 : return adjust_address (m_obj, mode, offset);
1324 : : }
1325 : :
1326 : : /* Emit an add instruction to increment the address by SIZE. */
1327 : :
1328 : : void
1329 : 0 : pieces_addr::increment_address (HOST_WIDE_INT size)
1330 : : {
1331 : 0 : rtx amount = gen_int_mode (size, GET_MODE (m_addr));
1332 : 0 : emit_insn (gen_add2_insn (m_addr, amount));
1333 : 0 : }
1334 : :
1335 : : /* If we are supposed to decrement the address after each access, emit code
1336 : : to do so now. Increment by SIZE (which has should have the correct sign
1337 : : already). */
1338 : :
1339 : : void
1340 : 3837990 : pieces_addr::maybe_predec (HOST_WIDE_INT size)
1341 : : {
1342 : 3837990 : if (m_explicit_inc >= 0)
1343 : 3837990 : return;
1344 : 0 : gcc_assert (HAVE_PRE_DECREMENT);
1345 : : increment_address (size);
1346 : : }
1347 : :
1348 : : /* If we are supposed to decrement the address after each access, emit code
1349 : : to do so now. Increment by SIZE. */
1350 : :
1351 : : void
1352 : 3838013 : pieces_addr::maybe_postinc (HOST_WIDE_INT size)
1353 : : {
1354 : 3838013 : if (m_explicit_inc <= 0)
1355 : 3838013 : return;
1356 : 0 : gcc_assert (HAVE_POST_INCREMENT);
1357 : : increment_address (size);
1358 : : }
1359 : :
1360 : : /* This structure is used by do_op_by_pieces to describe the operation
1361 : : to be performed. */
1362 : :
1363 : : class op_by_pieces_d
1364 : : {
1365 : : private:
1366 : : fixed_size_mode get_usable_mode (fixed_size_mode, unsigned int);
1367 : : fixed_size_mode smallest_fixed_size_mode_for_size (unsigned int);
1368 : :
1369 : : protected:
1370 : : pieces_addr m_to, m_from;
1371 : : /* Make m_len read-only so that smallest_fixed_size_mode_for_size can
1372 : : use it to check the valid mode size. */
1373 : : const unsigned HOST_WIDE_INT m_len;
1374 : : HOST_WIDE_INT m_offset;
1375 : : unsigned int m_align;
1376 : : unsigned int m_max_size;
1377 : : bool m_reverse;
1378 : : /* True if this is a stack push. */
1379 : : bool m_push;
1380 : : /* True if targetm.overlap_op_by_pieces_p () returns true. */
1381 : : bool m_overlap_op_by_pieces;
1382 : : /* The type of operation that we're performing. */
1383 : : by_pieces_operation m_op;
1384 : :
1385 : : /* Virtual functions, overriden by derived classes for the specific
1386 : : operation. */
1387 : : virtual void generate (rtx, rtx, machine_mode) = 0;
1388 : : virtual bool prepare_mode (machine_mode, unsigned int) = 0;
1389 : 1089725 : virtual void finish_mode (machine_mode)
1390 : : {
1391 : 1089725 : }
1392 : :
1393 : : public:
1394 : : op_by_pieces_d (unsigned int, rtx, bool, rtx, bool, by_pieces_constfn,
1395 : : void *, unsigned HOST_WIDE_INT, unsigned int, bool,
1396 : : by_pieces_operation);
1397 : : void run ();
1398 : : };
1399 : :
1400 : : /* The constructor for an op_by_pieces_d structure. We require two
1401 : : objects named TO and FROM, which are identified as loads or stores
1402 : : by TO_LOAD and FROM_LOAD. If FROM is a load, the optional FROM_CFN
1403 : : and its associated FROM_CFN_DATA can be used to replace loads with
1404 : : constant values. MAX_PIECES describes the maximum number of bytes
1405 : : at a time which can be moved efficiently. LEN describes the length
1406 : : of the operation. */
1407 : :
1408 : 678456 : op_by_pieces_d::op_by_pieces_d (unsigned int max_pieces, rtx to,
1409 : : bool to_load, rtx from, bool from_load,
1410 : : by_pieces_constfn from_cfn,
1411 : : void *from_cfn_data,
1412 : : unsigned HOST_WIDE_INT len,
1413 : : unsigned int align, bool push,
1414 : 678456 : by_pieces_operation op)
1415 : 678456 : : m_to (to, to_load, NULL, NULL),
1416 : 678456 : m_from (from, from_load, from_cfn, from_cfn_data),
1417 : 678456 : m_len (len), m_max_size (max_pieces + 1),
1418 : 678456 : m_push (push), m_op (op)
1419 : : {
1420 : 678456 : int toi = m_to.get_addr_inc ();
1421 : 678456 : int fromi = m_from.get_addr_inc ();
1422 : 678456 : if (toi >= 0 && fromi >= 0)
1423 : 678411 : m_reverse = false;
1424 : 45 : else if (toi <= 0 && fromi <= 0)
1425 : 45 : m_reverse = true;
1426 : : else
1427 : 0 : gcc_unreachable ();
1428 : :
1429 : 678456 : m_offset = m_reverse ? len : 0;
1430 : 2536561 : align = MIN (to ? MEM_ALIGN (to) : align,
1431 : : from ? MEM_ALIGN (from) : align);
1432 : :
1433 : : /* If copying requires more than two move insns,
1434 : : copy addresses to registers (to make displacements shorter)
1435 : : and use post-increment if available. */
1436 : 678456 : if (by_pieces_ninsns (len, align, m_max_size, MOVE_BY_PIECES) > 2)
1437 : : {
1438 : : /* Find the mode of the largest comparison. */
1439 : 179798 : fixed_size_mode mode
1440 : 179798 : = widest_fixed_size_mode_for_size (m_max_size, m_op);
1441 : :
1442 : 179798 : m_from.decide_autoinc (mode, m_reverse, len);
1443 : 179798 : m_to.decide_autoinc (mode, m_reverse, len);
1444 : : }
1445 : :
1446 : 678456 : align = alignment_for_piecewise_move (MOVE_MAX_PIECES, align);
1447 : 678456 : m_align = align;
1448 : :
1449 : 678456 : m_overlap_op_by_pieces = targetm.overlap_op_by_pieces_p ();
1450 : 678456 : }
1451 : :
1452 : : /* This function returns the largest usable integer mode for LEN bytes
1453 : : whose size is no bigger than size of MODE. */
1454 : :
1455 : : fixed_size_mode
1456 : 1149911 : op_by_pieces_d::get_usable_mode (fixed_size_mode mode, unsigned int len)
1457 : : {
1458 : 1413575 : unsigned int size;
1459 : 1677239 : do
1460 : : {
1461 : 1413575 : size = GET_MODE_SIZE (mode);
1462 : 1413575 : if (len >= size && prepare_mode (mode, m_align))
1463 : : break;
1464 : : /* widest_fixed_size_mode_for_size checks SIZE > 1. */
1465 : 263664 : mode = widest_fixed_size_mode_for_size (size, m_op);
1466 : : }
1467 : : while (1);
1468 : 1149911 : return mode;
1469 : : }
1470 : :
1471 : : /* Return the smallest integer or QI vector mode that is not narrower
1472 : : than SIZE bytes. */
1473 : :
1474 : : fixed_size_mode
1475 : 471455 : op_by_pieces_d::smallest_fixed_size_mode_for_size (unsigned int size)
1476 : : {
1477 : : /* Use QI vector only for > size of WORD. */
1478 : 482774 : if (can_use_qi_vectors (m_op) && size > UNITS_PER_WORD)
1479 : : {
1480 : 6640 : machine_mode mode;
1481 : 6640 : fixed_size_mode candidate;
1482 : 90059 : FOR_EACH_MODE_IN_CLASS (mode, MODE_VECTOR_INT)
1483 : 90059 : if (is_a<fixed_size_mode> (mode, &candidate)
1484 : 180118 : && GET_MODE_INNER (candidate) == QImode)
1485 : : {
1486 : : /* Don't return a mode wider than M_LEN. */
1487 : 83574 : if (GET_MODE_SIZE (candidate) > m_len)
1488 : : break;
1489 : :
1490 : 40198 : if (GET_MODE_SIZE (candidate) >= size
1491 : 40198 : && by_pieces_mode_supported_p (candidate, m_op))
1492 : 5051 : return candidate;
1493 : : }
1494 : : }
1495 : :
1496 : 466404 : return smallest_int_mode_for_size (size * BITS_PER_UNIT).require ();
1497 : : }
1498 : :
1499 : : /* This function contains the main loop used for expanding a block
1500 : : operation. First move what we can in the largest integer mode,
1501 : : then go to successively smaller modes. For every access, call
1502 : : GENFUN with the two operands and the EXTRA_DATA. */
1503 : :
1504 : : void
1505 : 678456 : op_by_pieces_d::run ()
1506 : : {
1507 : 678456 : if (m_len == 0)
1508 : : return;
1509 : :
1510 : 678456 : unsigned HOST_WIDE_INT length = m_len;
1511 : :
1512 : : /* widest_fixed_size_mode_for_size checks M_MAX_SIZE > 1. */
1513 : 678456 : fixed_size_mode mode
1514 : 678456 : = widest_fixed_size_mode_for_size (m_max_size, m_op);
1515 : 678456 : mode = get_usable_mode (mode, length);
1516 : :
1517 : 678456 : by_pieces_prev to_prev = { nullptr, mode };
1518 : 678456 : by_pieces_prev from_prev = { nullptr, mode };
1519 : :
1520 : 1149911 : do
1521 : : {
1522 : 1149911 : unsigned int size = GET_MODE_SIZE (mode);
1523 : 1149911 : rtx to1 = NULL_RTX, from1;
1524 : :
1525 : 3068906 : while (length >= size)
1526 : : {
1527 : 1918995 : if (m_reverse)
1528 : 47 : m_offset -= size;
1529 : :
1530 : 1918995 : to1 = m_to.adjust (mode, m_offset, &to_prev);
1531 : 1918995 : to_prev.data = to1;
1532 : 1918995 : to_prev.mode = mode;
1533 : 1918995 : from1 = m_from.adjust (mode, m_offset, &from_prev);
1534 : 1918995 : from_prev.data = from1;
1535 : 1918995 : from_prev.mode = mode;
1536 : :
1537 : 1918995 : m_to.maybe_predec (-(HOST_WIDE_INT)size);
1538 : 1918995 : m_from.maybe_predec (-(HOST_WIDE_INT)size);
1539 : :
1540 : 1918995 : generate (to1, from1, mode);
1541 : :
1542 : 1918995 : m_to.maybe_postinc (size);
1543 : 1918995 : m_from.maybe_postinc (size);
1544 : :
1545 : 1918995 : if (!m_reverse)
1546 : 1918948 : m_offset += size;
1547 : :
1548 : 1918995 : length -= size;
1549 : : }
1550 : :
1551 : 1149911 : finish_mode (mode);
1552 : :
1553 : 1149911 : if (length == 0)
1554 : : return;
1555 : :
1556 : 471455 : if (!m_push && m_overlap_op_by_pieces)
1557 : : {
1558 : : /* NB: Generate overlapping operations if it is not a stack
1559 : : push since stack push must not overlap. Get the smallest
1560 : : fixed size mode for M_LEN bytes. */
1561 : 471455 : mode = smallest_fixed_size_mode_for_size (length);
1562 : 942910 : mode = get_usable_mode (mode, GET_MODE_SIZE (mode));
1563 : 471455 : int gap = GET_MODE_SIZE (mode) - length;
1564 : 471455 : if (gap > 0)
1565 : : {
1566 : : /* If size of MODE > M_LEN, generate the last operation
1567 : : in MODE for the remaining bytes with ovelapping memory
1568 : : from the previois operation. */
1569 : 43382 : if (m_reverse)
1570 : 0 : m_offset += gap;
1571 : : else
1572 : 43382 : m_offset -= gap;
1573 : 43382 : length += gap;
1574 : : }
1575 : : }
1576 : : else
1577 : : {
1578 : : /* widest_fixed_size_mode_for_size checks SIZE > 1. */
1579 : 0 : mode = widest_fixed_size_mode_for_size (size, m_op);
1580 : 0 : mode = get_usable_mode (mode, length);
1581 : : }
1582 : : }
1583 : : while (1);
1584 : : }
1585 : :
1586 : : /* Derived class from op_by_pieces_d, providing support for block move
1587 : : operations. */
1588 : :
1589 : : #ifdef PUSH_ROUNDING
1590 : : #define PUSHG_P(to) ((to) == nullptr)
1591 : : #else
1592 : : #define PUSHG_P(to) false
1593 : : #endif
1594 : :
1595 : : class move_by_pieces_d : public op_by_pieces_d
1596 : : {
1597 : : insn_gen_fn m_gen_fun;
1598 : : void generate (rtx, rtx, machine_mode) final override;
1599 : : bool prepare_mode (machine_mode, unsigned int) final override;
1600 : :
1601 : : public:
1602 : 556256 : move_by_pieces_d (rtx to, rtx from, unsigned HOST_WIDE_INT len,
1603 : : unsigned int align)
1604 : 556256 : : op_by_pieces_d (MOVE_MAX_PIECES, to, false, from, true, NULL,
1605 : 1112512 : NULL, len, align, PUSHG_P (to), MOVE_BY_PIECES)
1606 : : {
1607 : 556256 : }
1608 : : rtx finish_retmode (memop_ret);
1609 : : };
1610 : :
1611 : : /* Return true if MODE can be used for a set of copies, given an
1612 : : alignment ALIGN. Prepare whatever data is necessary for later
1613 : : calls to generate. */
1614 : :
1615 : : bool
1616 : 941163 : move_by_pieces_d::prepare_mode (machine_mode mode, unsigned int align)
1617 : : {
1618 : 941163 : insn_code icode = optab_handler (mov_optab, mode);
1619 : 941163 : m_gen_fun = GEN_FCN (icode);
1620 : 941163 : return icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode);
1621 : : }
1622 : :
1623 : : /* A callback used when iterating for a compare_by_pieces_operation.
1624 : : OP0 and OP1 are the values that have been loaded and should be
1625 : : compared in MODE. If OP0 is NULL, this means we should generate a
1626 : : push; otherwise EXTRA_DATA holds a pointer to a pointer to the insn
1627 : : gen function that should be used to generate the mode. */
1628 : :
1629 : : void
1630 : 1638820 : move_by_pieces_d::generate (rtx op0, rtx op1,
1631 : : machine_mode mode ATTRIBUTE_UNUSED)
1632 : : {
1633 : : #ifdef PUSH_ROUNDING
1634 : 1638820 : if (op0 == NULL_RTX)
1635 : : {
1636 : 47 : emit_single_push_insn (mode, op1, NULL);
1637 : 47 : return;
1638 : : }
1639 : : #endif
1640 : 1638773 : emit_insn (m_gen_fun (op0, op1));
1641 : : }
1642 : :
1643 : : /* Perform the final adjustment at the end of a string to obtain the
1644 : : correct return value for the block operation.
1645 : : Return value is based on RETMODE argument. */
1646 : :
1647 : : rtx
1648 : 0 : move_by_pieces_d::finish_retmode (memop_ret retmode)
1649 : : {
1650 : 0 : gcc_assert (!m_reverse);
1651 : 0 : if (retmode == RETURN_END_MINUS_ONE)
1652 : : {
1653 : 0 : m_to.maybe_postinc (-1);
1654 : 0 : --m_offset;
1655 : : }
1656 : 0 : return m_to.adjust (QImode, m_offset);
1657 : : }
1658 : :
1659 : : /* Generate several move instructions to copy LEN bytes from block FROM to
1660 : : block TO. (These are MEM rtx's with BLKmode).
1661 : :
1662 : : If PUSH_ROUNDING is defined and TO is NULL, emit_single_push_insn is
1663 : : used to push FROM to the stack.
1664 : :
1665 : : ALIGN is maximum stack alignment we can assume.
1666 : :
1667 : : Return value is based on RETMODE argument. */
1668 : :
1669 : : rtx
1670 : 556256 : move_by_pieces (rtx to, rtx from, unsigned HOST_WIDE_INT len,
1671 : : unsigned int align, memop_ret retmode)
1672 : : {
1673 : : #ifndef PUSH_ROUNDING
1674 : : if (to == NULL)
1675 : : gcc_unreachable ();
1676 : : #endif
1677 : :
1678 : 556256 : move_by_pieces_d data (to, from, len, align);
1679 : :
1680 : 556256 : data.run ();
1681 : :
1682 : 556256 : if (retmode != RETURN_BEGIN)
1683 : 0 : return data.finish_retmode (retmode);
1684 : : else
1685 : : return to;
1686 : : }
1687 : :
1688 : : /* Derived class from op_by_pieces_d, providing support for block move
1689 : : operations. */
1690 : :
1691 : : class store_by_pieces_d : public op_by_pieces_d
1692 : : {
1693 : : insn_gen_fn m_gen_fun;
1694 : :
1695 : : void generate (rtx, rtx, machine_mode) final override;
1696 : : bool prepare_mode (machine_mode, unsigned int) final override;
1697 : :
1698 : : public:
1699 : 88612 : store_by_pieces_d (rtx to, by_pieces_constfn cfn, void *cfn_data,
1700 : : unsigned HOST_WIDE_INT len, unsigned int align,
1701 : : by_pieces_operation op)
1702 : 88612 : : op_by_pieces_d (STORE_MAX_PIECES, to, false, NULL_RTX, true, cfn,
1703 : 177224 : cfn_data, len, align, false, op)
1704 : : {
1705 : 88612 : }
1706 : : rtx finish_retmode (memop_ret);
1707 : : };
1708 : :
1709 : : /* Return true if MODE can be used for a set of stores, given an
1710 : : alignment ALIGN. Prepare whatever data is necessary for later
1711 : : calls to generate. */
1712 : :
1713 : : bool
1714 : 148562 : store_by_pieces_d::prepare_mode (machine_mode mode, unsigned int align)
1715 : : {
1716 : 148562 : insn_code icode = optab_handler (mov_optab, mode);
1717 : 148562 : m_gen_fun = GEN_FCN (icode);
1718 : 148562 : return icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode);
1719 : : }
1720 : :
1721 : : /* A callback used when iterating for a store_by_pieces_operation.
1722 : : OP0 and OP1 are the values that have been loaded and should be
1723 : : compared in MODE. If OP0 is NULL, this means we should generate a
1724 : : push; otherwise EXTRA_DATA holds a pointer to a pointer to the insn
1725 : : gen function that should be used to generate the mode. */
1726 : :
1727 : : void
1728 : 217278 : store_by_pieces_d::generate (rtx op0, rtx op1, machine_mode)
1729 : : {
1730 : 217278 : emit_insn (m_gen_fun (op0, op1));
1731 : 217278 : }
1732 : :
1733 : : /* Perform the final adjustment at the end of a string to obtain the
1734 : : correct return value for the block operation.
1735 : : Return value is based on RETMODE argument. */
1736 : :
1737 : : rtx
1738 : 536 : store_by_pieces_d::finish_retmode (memop_ret retmode)
1739 : : {
1740 : 536 : gcc_assert (!m_reverse);
1741 : 536 : if (retmode == RETURN_END_MINUS_ONE)
1742 : : {
1743 : 23 : m_to.maybe_postinc (-1);
1744 : 23 : --m_offset;
1745 : : }
1746 : 536 : return m_to.adjust (QImode, m_offset);
1747 : : }
1748 : :
1749 : : /* Determine whether the LEN bytes generated by CONSTFUN can be
1750 : : stored to memory using several move instructions. CONSTFUNDATA is
1751 : : a pointer which will be passed as argument in every CONSTFUN call.
1752 : : ALIGN is maximum alignment we can assume. MEMSETP is true if this is
1753 : : a memset operation and false if it's a copy of a constant string.
1754 : : Return true if a call to store_by_pieces should succeed. */
1755 : :
1756 : : bool
1757 : 62220 : can_store_by_pieces (unsigned HOST_WIDE_INT len,
1758 : : by_pieces_constfn constfun,
1759 : : void *constfundata, unsigned int align, bool memsetp)
1760 : : {
1761 : 62220 : unsigned HOST_WIDE_INT l;
1762 : 62220 : unsigned int max_size;
1763 : 62220 : HOST_WIDE_INT offset = 0;
1764 : 62220 : enum insn_code icode;
1765 : 62220 : int reverse;
1766 : : /* cst is set but not used if LEGITIMATE_CONSTANT doesn't use it. */
1767 : 62220 : rtx cst ATTRIBUTE_UNUSED;
1768 : :
1769 : 62220 : if (len == 0)
1770 : : return true;
1771 : :
1772 : 102878 : if (!targetm.use_by_pieces_infrastructure_p (len, align,
1773 : : memsetp
1774 : : ? SET_BY_PIECES
1775 : : : STORE_BY_PIECES,
1776 : 62176 : optimize_insn_for_speed_p ()))
1777 : : return false;
1778 : :
1779 : 46482 : align = alignment_for_piecewise_move (STORE_MAX_PIECES, align);
1780 : :
1781 : : /* We would first store what we can in the largest integer mode, then go to
1782 : : successively smaller modes. */
1783 : :
1784 : 46482 : for (reverse = 0;
1785 : 92964 : reverse <= (HAVE_PRE_DECREMENT || HAVE_POST_DECREMENT);
1786 : : reverse++)
1787 : : {
1788 : 46482 : l = len;
1789 : 46482 : max_size = STORE_MAX_PIECES + 1;
1790 : 222095 : while (max_size > 1 && l > 0)
1791 : : {
1792 : 175613 : auto op = memsetp ? SET_BY_PIECES : STORE_BY_PIECES;
1793 : 175613 : auto mode = widest_fixed_size_mode_for_size (max_size, op);
1794 : :
1795 : 175613 : icode = optab_handler (mov_optab, mode);
1796 : 175613 : if (icode != CODE_FOR_nothing
1797 : 175613 : && align >= GET_MODE_ALIGNMENT (mode))
1798 : : {
1799 : 175613 : unsigned int size = GET_MODE_SIZE (mode);
1800 : :
1801 : 305178 : while (l >= size)
1802 : : {
1803 : 129565 : if (reverse)
1804 : : offset -= size;
1805 : :
1806 : 129565 : cst = (*constfun) (constfundata, nullptr, offset, mode);
1807 : : /* All CONST_VECTORs can be loaded for memset since
1808 : : vec_duplicate_optab is a precondition to pick a
1809 : : vector mode for the memset expander. */
1810 : 246710 : if (!((memsetp && VECTOR_MODE_P (mode))
1811 : 117145 : || targetm.legitimate_constant_p (mode, cst)))
1812 : 15694 : return false;
1813 : :
1814 : 129565 : if (!reverse)
1815 : 129565 : offset += size;
1816 : :
1817 : 129565 : l -= size;
1818 : : }
1819 : : }
1820 : :
1821 : 351226 : max_size = GET_MODE_SIZE (mode);
1822 : : }
1823 : :
1824 : : /* The code above should have handled everything. */
1825 : 46482 : gcc_assert (!l);
1826 : : }
1827 : :
1828 : : return true;
1829 : : }
1830 : :
1831 : : /* Generate several move instructions to store LEN bytes generated by
1832 : : CONSTFUN to block TO. (A MEM rtx with BLKmode). CONSTFUNDATA is a
1833 : : pointer which will be passed as argument in every CONSTFUN call.
1834 : : ALIGN is maximum alignment we can assume. MEMSETP is true if this is
1835 : : a memset operation and false if it's a copy of a constant string.
1836 : : Return value is based on RETMODE argument. */
1837 : :
1838 : : rtx
1839 : 43965 : store_by_pieces (rtx to, unsigned HOST_WIDE_INT len,
1840 : : by_pieces_constfn constfun,
1841 : : void *constfundata, unsigned int align, bool memsetp,
1842 : : memop_ret retmode)
1843 : : {
1844 : 43965 : if (len == 0)
1845 : : {
1846 : 43 : gcc_assert (retmode != RETURN_END_MINUS_ONE);
1847 : : return to;
1848 : : }
1849 : :
1850 : 80849 : gcc_assert (targetm.use_by_pieces_infrastructure_p
1851 : : (len, align,
1852 : : memsetp ? SET_BY_PIECES : STORE_BY_PIECES,
1853 : : optimize_insn_for_speed_p ()));
1854 : :
1855 : 43922 : store_by_pieces_d data (to, constfun, constfundata, len, align,
1856 : 43922 : memsetp ? SET_BY_PIECES : STORE_BY_PIECES);
1857 : 43922 : data.run ();
1858 : :
1859 : 43922 : if (retmode != RETURN_BEGIN)
1860 : 536 : return data.finish_retmode (retmode);
1861 : : else
1862 : : return to;
1863 : : }
1864 : :
1865 : : void
1866 : 44690 : clear_by_pieces (rtx to, unsigned HOST_WIDE_INT len, unsigned int align)
1867 : : {
1868 : 44690 : if (len == 0)
1869 : 0 : return;
1870 : :
1871 : : /* Use builtin_memset_read_str to support vector mode broadcast. */
1872 : 44690 : char c = 0;
1873 : 44690 : store_by_pieces_d data (to, builtin_memset_read_str, &c, len, align,
1874 : 44690 : CLEAR_BY_PIECES);
1875 : 44690 : data.run ();
1876 : : }
1877 : :
1878 : : /* Context used by compare_by_pieces_genfn. It stores the fail label
1879 : : to jump to in case of miscomparison, and for branch ratios greater than 1,
1880 : : it stores an accumulator and the current and maximum counts before
1881 : : emitting another branch. */
1882 : :
1883 : : class compare_by_pieces_d : public op_by_pieces_d
1884 : : {
1885 : : rtx_code_label *m_fail_label;
1886 : : rtx m_accumulator;
1887 : : int m_count, m_batch;
1888 : :
1889 : : void generate (rtx, rtx, machine_mode) final override;
1890 : : bool prepare_mode (machine_mode, unsigned int) final override;
1891 : : void finish_mode (machine_mode) final override;
1892 : :
1893 : : public:
1894 : 33588 : compare_by_pieces_d (rtx op0, rtx op1, by_pieces_constfn op1_cfn,
1895 : : void *op1_cfn_data, HOST_WIDE_INT len, int align,
1896 : : rtx_code_label *fail_label)
1897 : 33588 : : op_by_pieces_d (COMPARE_MAX_PIECES, op0, true, op1, true, op1_cfn,
1898 : 67176 : op1_cfn_data, len, align, false, COMPARE_BY_PIECES)
1899 : : {
1900 : 33588 : m_fail_label = fail_label;
1901 : 33588 : }
1902 : : };
1903 : :
1904 : : /* A callback used when iterating for a compare_by_pieces_operation.
1905 : : OP0 and OP1 are the values that have been loaded and should be
1906 : : compared in MODE. DATA holds a pointer to the compare_by_pieces_data
1907 : : context structure. */
1908 : :
1909 : : void
1910 : 62897 : compare_by_pieces_d::generate (rtx op0, rtx op1, machine_mode mode)
1911 : : {
1912 : 62897 : if (m_batch > 1)
1913 : : {
1914 : 0 : rtx temp = expand_binop (mode, sub_optab, op0, op1, NULL_RTX,
1915 : : true, OPTAB_LIB_WIDEN);
1916 : 0 : if (m_count != 0)
1917 : 0 : temp = expand_binop (mode, ior_optab, m_accumulator, temp, temp,
1918 : : true, OPTAB_LIB_WIDEN);
1919 : 0 : m_accumulator = temp;
1920 : :
1921 : 0 : if (++m_count < m_batch)
1922 : : return;
1923 : :
1924 : 0 : m_count = 0;
1925 : 0 : op0 = m_accumulator;
1926 : 0 : op1 = const0_rtx;
1927 : 0 : m_accumulator = NULL_RTX;
1928 : : }
1929 : 62897 : do_compare_rtx_and_jump (op0, op1, NE, true, mode, NULL_RTX, NULL,
1930 : : m_fail_label, profile_probability::uninitialized ());
1931 : : }
1932 : :
1933 : : /* Return true if MODE can be used for a set of moves and comparisons,
1934 : : given an alignment ALIGN. Prepare whatever data is necessary for
1935 : : later calls to generate. */
1936 : :
1937 : : bool
1938 : 60186 : compare_by_pieces_d::prepare_mode (machine_mode mode, unsigned int align)
1939 : : {
1940 : 60186 : insn_code icode = optab_handler (mov_optab, mode);
1941 : 60186 : if (icode == CODE_FOR_nothing
1942 : 60186 : || align < GET_MODE_ALIGNMENT (mode)
1943 : 120372 : || !can_compare_p (EQ, mode, ccp_jump))
1944 : 0 : return false;
1945 : 60186 : m_batch = targetm.compare_by_pieces_branch_ratio (mode);
1946 : 60186 : if (m_batch < 0)
1947 : : return false;
1948 : 60186 : m_accumulator = NULL_RTX;
1949 : 60186 : m_count = 0;
1950 : 60186 : return true;
1951 : : }
1952 : :
1953 : : /* Called after expanding a series of comparisons in MODE. If we have
1954 : : accumulated results for which we haven't emitted a branch yet, do
1955 : : so now. */
1956 : :
1957 : : void
1958 : 60186 : compare_by_pieces_d::finish_mode (machine_mode mode)
1959 : : {
1960 : 60186 : if (m_accumulator != NULL_RTX)
1961 : 0 : do_compare_rtx_and_jump (m_accumulator, const0_rtx, NE, true, mode,
1962 : : NULL_RTX, NULL, m_fail_label,
1963 : : profile_probability::uninitialized ());
1964 : 60186 : }
1965 : :
1966 : : /* Generate several move instructions to compare LEN bytes from blocks
1967 : : ARG0 and ARG1. (These are MEM rtx's with BLKmode).
1968 : :
1969 : : If PUSH_ROUNDING is defined and TO is NULL, emit_single_push_insn is
1970 : : used to push FROM to the stack.
1971 : :
1972 : : ALIGN is maximum stack alignment we can assume.
1973 : :
1974 : : Optionally, the caller can pass a constfn and associated data in A1_CFN
1975 : : and A1_CFN_DATA. describing that the second operand being compared is a
1976 : : known constant and how to obtain its data. */
1977 : :
1978 : : static rtx
1979 : 33588 : compare_by_pieces (rtx arg0, rtx arg1, unsigned HOST_WIDE_INT len,
1980 : : rtx target, unsigned int align,
1981 : : by_pieces_constfn a1_cfn, void *a1_cfn_data)
1982 : : {
1983 : 33588 : rtx_code_label *fail_label = gen_label_rtx ();
1984 : 33588 : rtx_code_label *end_label = gen_label_rtx ();
1985 : :
1986 : 33588 : if (target == NULL_RTX
1987 : 33588 : || !REG_P (target) || REGNO (target) < FIRST_PSEUDO_REGISTER)
1988 : 1 : target = gen_reg_rtx (TYPE_MODE (integer_type_node));
1989 : :
1990 : 33588 : compare_by_pieces_d data (arg0, arg1, a1_cfn, a1_cfn_data, len, align,
1991 : 33588 : fail_label);
1992 : :
1993 : 33588 : data.run ();
1994 : :
1995 : 33588 : emit_move_insn (target, const0_rtx);
1996 : 33588 : emit_jump (end_label);
1997 : 33588 : emit_barrier ();
1998 : 33588 : emit_label (fail_label);
1999 : 33588 : emit_move_insn (target, const1_rtx);
2000 : 33588 : emit_label (end_label);
2001 : :
2002 : 33588 : return target;
2003 : : }
2004 : :
2005 : : /* Emit code to move a block Y to a block X. This may be done with
2006 : : string-move instructions, with multiple scalar move instructions,
2007 : : or with a library call.
2008 : :
2009 : : Both X and Y must be MEM rtx's (perhaps inside VOLATILE) with mode BLKmode.
2010 : : SIZE is an rtx that says how long they are.
2011 : : ALIGN is the maximum alignment we can assume they have.
2012 : : METHOD describes what kind of copy this is, and what mechanisms may be used.
2013 : : MIN_SIZE is the minimal size of block to move
2014 : : MAX_SIZE is the maximal size of block to move, if it cannot be represented
2015 : : in unsigned HOST_WIDE_INT, than it is mask of all ones.
2016 : : CTZ_SIZE is the trailing-zeros count of SIZE; even a nonconstant SIZE is
2017 : : known to be a multiple of 1<<CTZ_SIZE.
2018 : :
2019 : : Return the address of the new block, if memcpy is called and returns it,
2020 : : 0 otherwise. */
2021 : :
2022 : : rtx
2023 : 639759 : emit_block_move_hints (rtx x, rtx y, rtx size, enum block_op_methods method,
2024 : : unsigned int expected_align, HOST_WIDE_INT expected_size,
2025 : : unsigned HOST_WIDE_INT min_size,
2026 : : unsigned HOST_WIDE_INT max_size,
2027 : : unsigned HOST_WIDE_INT probable_max_size,
2028 : : bool bail_out_libcall, bool *is_move_done,
2029 : : bool might_overlap, unsigned ctz_size)
2030 : : {
2031 : 639759 : int may_use_call;
2032 : 639759 : rtx retval = 0;
2033 : 639759 : unsigned int align;
2034 : :
2035 : 639759 : if (is_move_done)
2036 : 73176 : *is_move_done = true;
2037 : :
2038 : 639759 : gcc_assert (size);
2039 : 639759 : if (CONST_INT_P (size) && INTVAL (size) == 0)
2040 : : return 0;
2041 : :
2042 : 639482 : switch (method)
2043 : : {
2044 : : case BLOCK_OP_NORMAL:
2045 : : case BLOCK_OP_TAILCALL:
2046 : : may_use_call = 1;
2047 : : break;
2048 : :
2049 : 266107 : case BLOCK_OP_CALL_PARM:
2050 : 266107 : may_use_call = block_move_libcall_safe_for_call_parm ();
2051 : :
2052 : : /* Make inhibit_defer_pop nonzero around the library call
2053 : : to force it to pop the arguments right away. */
2054 : 266107 : NO_DEFER_POP;
2055 : 266107 : break;
2056 : :
2057 : 353 : case BLOCK_OP_NO_LIBCALL:
2058 : 353 : may_use_call = 0;
2059 : 353 : break;
2060 : :
2061 : 1059 : case BLOCK_OP_NO_LIBCALL_RET:
2062 : 1059 : may_use_call = -1;
2063 : 1059 : break;
2064 : :
2065 : 0 : default:
2066 : 0 : gcc_unreachable ();
2067 : : }
2068 : :
2069 : 639482 : gcc_assert (MEM_P (x) && MEM_P (y));
2070 : 639565 : align = MIN (MEM_ALIGN (x), MEM_ALIGN (y));
2071 : 639482 : gcc_assert (align >= BITS_PER_UNIT);
2072 : :
2073 : : /* Make sure we've got BLKmode addresses; store_one_arg can decide that
2074 : : block copy is more efficient for other large modes, e.g. DCmode. */
2075 : 639482 : x = adjust_address (x, BLKmode, 0);
2076 : 639482 : y = adjust_address (y, BLKmode, 0);
2077 : :
2078 : : /* If source and destination are the same, no need to copy anything. */
2079 : 639482 : if (rtx_equal_p (x, y)
2080 : 10 : && !MEM_VOLATILE_P (x)
2081 : 639492 : && !MEM_VOLATILE_P (y))
2082 : : return 0;
2083 : :
2084 : : /* Set MEM_SIZE as appropriate for this block copy. The main place this
2085 : : can be incorrect is coming from __builtin_memcpy. */
2086 : 639472 : poly_int64 const_size;
2087 : 639472 : if (poly_int_rtx_p (size, &const_size))
2088 : : {
2089 : 581997 : x = shallow_copy_rtx (x);
2090 : 581997 : y = shallow_copy_rtx (y);
2091 : 581997 : set_mem_size (x, const_size);
2092 : 581997 : set_mem_size (y, const_size);
2093 : : }
2094 : :
2095 : 639472 : bool pieces_ok = CONST_INT_P (size)
2096 : 639472 : && can_move_by_pieces (INTVAL (size), align);
2097 : 639472 : bool pattern_ok = false;
2098 : :
2099 : 639472 : if (!pieces_ok || might_overlap)
2100 : : {
2101 : 83261 : pattern_ok
2102 : 83261 : = emit_block_move_via_pattern (x, y, size, align,
2103 : : expected_align, expected_size,
2104 : : min_size, max_size, probable_max_size,
2105 : : might_overlap);
2106 : 83261 : if (!pattern_ok && might_overlap)
2107 : : {
2108 : : /* Do not try any of the other methods below as they are not safe
2109 : : for overlapping moves. */
2110 : 14328 : *is_move_done = false;
2111 : 14328 : return retval;
2112 : : }
2113 : : }
2114 : :
2115 : 68933 : bool dynamic_direction = false;
2116 : 68933 : if (!pattern_ok && !pieces_ok && may_use_call
2117 : 71308 : && (flag_inline_stringops & (might_overlap ? ILSOP_MEMMOVE : ILSOP_MEMCPY)))
2118 : : {
2119 : 625144 : may_use_call = 0;
2120 : 625144 : dynamic_direction = might_overlap;
2121 : : }
2122 : :
2123 : 625144 : if (pattern_ok)
2124 : : ;
2125 : 591865 : else if (pieces_ok)
2126 : 556211 : move_by_pieces (x, y, INTVAL (size), align, RETURN_BEGIN);
2127 : 35654 : else if (may_use_call && !might_overlap
2128 : 35606 : && ADDR_SPACE_GENERIC_P (MEM_ADDR_SPACE (x))
2129 : 71260 : && ADDR_SPACE_GENERIC_P (MEM_ADDR_SPACE (y)))
2130 : : {
2131 : 35606 : if (bail_out_libcall)
2132 : : {
2133 : 252 : if (is_move_done)
2134 : 252 : *is_move_done = false;
2135 : 252 : return retval;
2136 : : }
2137 : :
2138 : 35354 : if (may_use_call < 0)
2139 : 0 : return pc_rtx;
2140 : :
2141 : 35354 : retval = emit_block_copy_via_libcall (x, y, size,
2142 : : method == BLOCK_OP_TAILCALL);
2143 : : }
2144 : 48 : else if (dynamic_direction)
2145 : 0 : emit_block_move_via_oriented_loop (x, y, size, align, ctz_size);
2146 : 48 : else if (might_overlap)
2147 : 0 : *is_move_done = false;
2148 : : else
2149 : 48 : emit_block_move_via_sized_loop (x, y, size, align, ctz_size);
2150 : :
2151 : 624892 : if (method == BLOCK_OP_CALL_PARM)
2152 : 266099 : OK_DEFER_POP;
2153 : :
2154 : : return retval;
2155 : : }
2156 : :
2157 : : rtx
2158 : 566583 : emit_block_move (rtx x, rtx y, rtx size, enum block_op_methods method,
2159 : : unsigned int ctz_size)
2160 : : {
2161 : 566583 : unsigned HOST_WIDE_INT max, min = 0;
2162 : 566583 : if (GET_CODE (size) == CONST_INT)
2163 : 566363 : min = max = UINTVAL (size);
2164 : : else
2165 : 220 : max = GET_MODE_MASK (GET_MODE (size));
2166 : 566583 : return emit_block_move_hints (x, y, size, method, 0, -1,
2167 : : min, max, max,
2168 : 566583 : false, NULL, false, ctz_size);
2169 : : }
2170 : :
2171 : : /* A subroutine of emit_block_move. Returns true if calling the
2172 : : block move libcall will not clobber any parameters which may have
2173 : : already been placed on the stack. */
2174 : :
2175 : : static bool
2176 : 266107 : block_move_libcall_safe_for_call_parm (void)
2177 : : {
2178 : 266107 : tree fn;
2179 : :
2180 : : /* If arguments are pushed on the stack, then they're safe. */
2181 : 266107 : if (targetm.calls.push_argument (0))
2182 : : return true;
2183 : :
2184 : : /* If registers go on the stack anyway, any argument is sure to clobber
2185 : : an outgoing argument. */
2186 : : #if defined (REG_PARM_STACK_SPACE)
2187 : 1 : fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
2188 : : /* Avoid set but not used warning if *REG_PARM_STACK_SPACE doesn't
2189 : : depend on its argument. */
2190 : 1 : (void) fn;
2191 : 1 : if (OUTGOING_REG_PARM_STACK_SPACE ((!fn ? NULL_TREE : TREE_TYPE (fn)))
2192 : 1 : && REG_PARM_STACK_SPACE (fn) != 0)
2193 : : return false;
2194 : : #endif
2195 : :
2196 : : /* If any argument goes in memory, then it might clobber an outgoing
2197 : : argument. */
2198 : 1 : {
2199 : 1 : CUMULATIVE_ARGS args_so_far_v;
2200 : 1 : cumulative_args_t args_so_far;
2201 : 1 : tree arg;
2202 : :
2203 : 1 : fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
2204 : 1 : INIT_CUMULATIVE_ARGS (args_so_far_v, TREE_TYPE (fn), NULL_RTX, 0, 3);
2205 : 1 : args_so_far = pack_cumulative_args (&args_so_far_v);
2206 : :
2207 : 1 : arg = TYPE_ARG_TYPES (TREE_TYPE (fn));
2208 : 4 : for ( ; arg != void_list_node ; arg = TREE_CHAIN (arg))
2209 : : {
2210 : 3 : machine_mode mode = TYPE_MODE (TREE_VALUE (arg));
2211 : 3 : function_arg_info arg_info (mode, /*named=*/true);
2212 : 3 : rtx tmp = targetm.calls.function_arg (args_so_far, arg_info);
2213 : 3 : if (!tmp || !REG_P (tmp))
2214 : 0 : return false;
2215 : 3 : if (targetm.calls.arg_partial_bytes (args_so_far, arg_info))
2216 : : return false;
2217 : 3 : targetm.calls.function_arg_advance (args_so_far, arg_info);
2218 : : }
2219 : : }
2220 : 1 : return true;
2221 : : }
2222 : :
2223 : : /* A subroutine of emit_block_move. Expand a cpymem or movmem pattern;
2224 : : return true if successful.
2225 : :
2226 : : X is the destination of the copy or move.
2227 : : Y is the source of the copy or move.
2228 : : SIZE is the size of the block to be moved.
2229 : :
2230 : : MIGHT_OVERLAP indicates this originated with expansion of a
2231 : : builtin_memmove() and the source and destination blocks may
2232 : : overlap.
2233 : : */
2234 : :
2235 : : static bool
2236 : 83261 : emit_block_move_via_pattern (rtx x, rtx y, rtx size, unsigned int align,
2237 : : unsigned int expected_align,
2238 : : HOST_WIDE_INT expected_size,
2239 : : unsigned HOST_WIDE_INT min_size,
2240 : : unsigned HOST_WIDE_INT max_size,
2241 : : unsigned HOST_WIDE_INT probable_max_size,
2242 : : bool might_overlap)
2243 : : {
2244 : 83261 : if (expected_align < align)
2245 : : expected_align = align;
2246 : 83261 : if (expected_size != -1)
2247 : : {
2248 : 12 : if ((unsigned HOST_WIDE_INT)expected_size > probable_max_size)
2249 : 0 : expected_size = probable_max_size;
2250 : 12 : if ((unsigned HOST_WIDE_INT)expected_size < min_size)
2251 : 0 : expected_size = min_size;
2252 : : }
2253 : :
2254 : : /* Since this is a move insn, we don't care about volatility. */
2255 : 83261 : temporary_volatile_ok v (true);
2256 : :
2257 : : /* Try the most limited insn first, because there's no point
2258 : : including more than one in the machine description unless
2259 : : the more limited one has some advantage. */
2260 : :
2261 : 83261 : opt_scalar_int_mode mode_iter;
2262 : 501609 : FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
2263 : : {
2264 : 451627 : scalar_int_mode mode = mode_iter.require ();
2265 : 451627 : enum insn_code code;
2266 : 451627 : if (might_overlap)
2267 : 100296 : code = direct_optab_handler (movmem_optab, mode);
2268 : : else
2269 : 351331 : code = direct_optab_handler (cpymem_optab, mode);
2270 : :
2271 : 451627 : if (code != CODE_FOR_nothing
2272 : : /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
2273 : : here because if SIZE is less than the mode mask, as it is
2274 : : returned by the macro, it will definitely be less than the
2275 : : actual mode mask. Since SIZE is within the Pmode address
2276 : : space, we limit MODE to Pmode. */
2277 : 451627 : && ((CONST_INT_P (size)
2278 : 24324 : && ((unsigned HOST_WIDE_INT) INTVAL (size)
2279 : 24324 : <= (GET_MODE_MASK (mode) >> 1)))
2280 : 80617 : || max_size <= (GET_MODE_MASK (mode) >> 1)
2281 : 106916 : || GET_MODE_BITSIZE (mode) >= GET_MODE_BITSIZE (Pmode)))
2282 : : {
2283 : 70757 : class expand_operand ops[9];
2284 : 70757 : unsigned int nops;
2285 : :
2286 : : /* ??? When called via emit_block_move_for_call, it'd be
2287 : : nice if there were some way to inform the backend, so
2288 : : that it doesn't fail the expansion because it thinks
2289 : : emitting the libcall would be more efficient. */
2290 : 70757 : nops = insn_data[(int) code].n_generator_args;
2291 : 70757 : gcc_assert (nops == 4 || nops == 6 || nops == 8 || nops == 9);
2292 : :
2293 : 70757 : create_fixed_operand (&ops[0], x);
2294 : 70757 : create_fixed_operand (&ops[1], y);
2295 : : /* The check above guarantees that this size conversion is valid. */
2296 : 70757 : create_convert_operand_to (&ops[2], size, mode, true);
2297 : 70757 : create_integer_operand (&ops[3], align / BITS_PER_UNIT);
2298 : 70757 : if (nops >= 6)
2299 : : {
2300 : 70757 : create_integer_operand (&ops[4], expected_align / BITS_PER_UNIT);
2301 : 70757 : create_integer_operand (&ops[5], expected_size);
2302 : : }
2303 : 70757 : if (nops >= 8)
2304 : : {
2305 : 70757 : create_integer_operand (&ops[6], min_size);
2306 : : /* If we cannot represent the maximal size,
2307 : : make parameter NULL. */
2308 : 70757 : if ((HOST_WIDE_INT) max_size != -1)
2309 : 54191 : create_integer_operand (&ops[7], max_size);
2310 : : else
2311 : 16566 : create_fixed_operand (&ops[7], NULL);
2312 : : }
2313 : 70757 : if (nops == 9)
2314 : : {
2315 : : /* If we cannot represent the maximal size,
2316 : : make parameter NULL. */
2317 : 70757 : if ((HOST_WIDE_INT) probable_max_size != -1)
2318 : 55651 : create_integer_operand (&ops[8], probable_max_size);
2319 : : else
2320 : 15106 : create_fixed_operand (&ops[8], NULL);
2321 : : }
2322 : 70757 : if (maybe_expand_insn (code, nops, ops))
2323 : 33279 : return true;
2324 : : }
2325 : : }
2326 : :
2327 : : return false;
2328 : 83261 : }
2329 : :
2330 : : /* Like emit_block_move_via_loop, but choose a suitable INCR based on
2331 : : ALIGN and CTZ_SIZE. */
2332 : :
2333 : : static void
2334 : 48 : emit_block_move_via_sized_loop (rtx x, rtx y, rtx size,
2335 : : unsigned int align,
2336 : : unsigned int ctz_size)
2337 : : {
2338 : 48 : int incr = align / BITS_PER_UNIT;
2339 : :
2340 : 48 : if (CONST_INT_P (size))
2341 : 0 : ctz_size = MAX (ctz_size, (unsigned) wi::ctz (UINTVAL (size)));
2342 : :
2343 : 48 : if (HOST_WIDE_INT_1U << ctz_size < (unsigned HOST_WIDE_INT) incr)
2344 : 0 : incr = HOST_WIDE_INT_1U << ctz_size;
2345 : :
2346 : 48 : while (incr > 1 && !can_move_by_pieces (incr, align))
2347 : 0 : incr >>= 1;
2348 : :
2349 : 48 : gcc_checking_assert (incr);
2350 : :
2351 : 48 : return emit_block_move_via_loop (x, y, size, align, incr);
2352 : : }
2353 : :
2354 : : /* Like emit_block_move_via_sized_loop, but besides choosing INCR so
2355 : : as to ensure safe moves even in case of overlap, output dynamic
2356 : : tests to choose between two loops, one moving downwards, another
2357 : : moving upwards. */
2358 : :
2359 : : static void
2360 : 0 : emit_block_move_via_oriented_loop (rtx x, rtx y, rtx size,
2361 : : unsigned int align,
2362 : : unsigned int ctz_size)
2363 : : {
2364 : 0 : int incr = align / BITS_PER_UNIT;
2365 : :
2366 : 0 : if (CONST_INT_P (size))
2367 : 0 : ctz_size = MAX (ctz_size, (unsigned) wi::ctz (UINTVAL (size)));
2368 : :
2369 : 0 : if (HOST_WIDE_INT_1U << ctz_size < (unsigned HOST_WIDE_INT) incr)
2370 : 0 : incr = HOST_WIDE_INT_1U << ctz_size;
2371 : :
2372 : 0 : while (incr > 1 && !int_mode_for_size (incr, 0).exists ())
2373 : 0 : incr >>= 1;
2374 : :
2375 : 0 : gcc_checking_assert (incr);
2376 : :
2377 : 0 : rtx_code_label *upw_label, *end_label;
2378 : 0 : upw_label = gen_label_rtx ();
2379 : 0 : end_label = gen_label_rtx ();
2380 : :
2381 : 0 : rtx x_addr = force_operand (XEXP (x, 0), NULL_RTX);
2382 : 0 : rtx y_addr = force_operand (XEXP (y, 0), NULL_RTX);
2383 : 0 : do_pending_stack_adjust ();
2384 : :
2385 : 0 : machine_mode mode = GET_MODE (x_addr);
2386 : 0 : if (mode != GET_MODE (y_addr))
2387 : : {
2388 : 0 : scalar_int_mode xmode
2389 : 0 : = smallest_int_mode_for_size (GET_MODE_BITSIZE (mode)).require ();
2390 : 0 : scalar_int_mode ymode
2391 : 0 : = smallest_int_mode_for_size (GET_MODE_BITSIZE
2392 : 0 : (GET_MODE (y_addr))).require ();
2393 : 0 : if (GET_MODE_BITSIZE (xmode) < GET_MODE_BITSIZE (ymode))
2394 : : mode = ymode;
2395 : : else
2396 : 0 : mode = xmode;
2397 : :
2398 : : #ifndef POINTERS_EXTEND_UNSIGNED
2399 : : const int POINTERS_EXTEND_UNSIGNED = 1;
2400 : : #endif
2401 : 0 : x_addr = convert_modes (mode, GET_MODE (x_addr), x_addr,
2402 : : POINTERS_EXTEND_UNSIGNED);
2403 : 0 : y_addr = convert_modes (mode, GET_MODE (y_addr), y_addr,
2404 : : POINTERS_EXTEND_UNSIGNED);
2405 : : }
2406 : :
2407 : : /* Test for overlap: if (x >= y || x + size <= y) goto upw_label. */
2408 : 0 : emit_cmp_and_jump_insns (x_addr, y_addr, GEU, NULL_RTX, mode,
2409 : : true, upw_label,
2410 : 0 : profile_probability::guessed_always ()
2411 : : .apply_scale (5, 10));
2412 : 0 : rtx tmp = convert_modes (GET_MODE (x_addr), GET_MODE (size), size, true);
2413 : 0 : tmp = simplify_gen_binary (PLUS, GET_MODE (x_addr), x_addr, tmp);
2414 : :
2415 : 0 : emit_cmp_and_jump_insns (tmp, y_addr, LEU, NULL_RTX, mode,
2416 : : true, upw_label,
2417 : 0 : profile_probability::guessed_always ()
2418 : : .apply_scale (8, 10));
2419 : :
2420 : 0 : emit_block_move_via_loop (x, y, size, align, -incr);
2421 : :
2422 : 0 : emit_jump (end_label);
2423 : 0 : emit_label (upw_label);
2424 : :
2425 : 0 : emit_block_move_via_loop (x, y, size, align, incr);
2426 : :
2427 : 0 : emit_label (end_label);
2428 : 0 : }
2429 : :
2430 : : /* A subroutine of emit_block_move. Copy the data via an explicit
2431 : : loop. This is used only when libcalls are forbidden, or when
2432 : : inlining is required. INCR is the block size to be copied in each
2433 : : loop iteration. If it is negative, the absolute value is used, and
2434 : : the block is copied backwards. INCR must be a power of two, an
2435 : : exact divisor for SIZE and ALIGN, and imply a mode that can be
2436 : : safely copied per iteration assuming no overlap. */
2437 : :
2438 : : static void
2439 : 48 : emit_block_move_via_loop (rtx x, rtx y, rtx size,
2440 : : unsigned int align, int incr)
2441 : : {
2442 : 48 : rtx_code_label *cmp_label, *top_label;
2443 : 48 : rtx iter, x_addr, y_addr, tmp;
2444 : 48 : machine_mode x_addr_mode = get_address_mode (x);
2445 : 48 : machine_mode y_addr_mode = get_address_mode (y);
2446 : 48 : machine_mode iter_mode;
2447 : :
2448 : 48 : iter_mode = GET_MODE (size);
2449 : 48 : if (iter_mode == VOIDmode)
2450 : 0 : iter_mode = word_mode;
2451 : :
2452 : 48 : top_label = gen_label_rtx ();
2453 : 48 : cmp_label = gen_label_rtx ();
2454 : 48 : iter = gen_reg_rtx (iter_mode);
2455 : :
2456 : 48 : bool downwards = incr < 0;
2457 : 48 : rtx iter_init;
2458 : 48 : rtx_code iter_cond;
2459 : 48 : rtx iter_limit;
2460 : 48 : rtx iter_incr;
2461 : 48 : machine_mode move_mode;
2462 : 48 : if (downwards)
2463 : : {
2464 : 0 : incr = -incr;
2465 : 0 : iter_init = size;
2466 : 0 : iter_cond = GEU;
2467 : 0 : iter_limit = const0_rtx;
2468 : 0 : iter_incr = GEN_INT (incr);
2469 : : }
2470 : : else
2471 : : {
2472 : 48 : iter_init = const0_rtx;
2473 : 48 : iter_cond = LTU;
2474 : 48 : iter_limit = size;
2475 : 48 : iter_incr = GEN_INT (incr);
2476 : : }
2477 : 48 : emit_move_insn (iter, iter_init);
2478 : :
2479 : 48 : opt_scalar_int_mode int_move_mode
2480 : 48 : = int_mode_for_size (incr * BITS_PER_UNIT, 1);
2481 : 48 : if (!int_move_mode.exists (&move_mode)
2482 : 96 : || GET_MODE_BITSIZE (int_move_mode.require ()) != incr * BITS_PER_UNIT)
2483 : : {
2484 : 0 : move_mode = BLKmode;
2485 : 0 : gcc_checking_assert (can_move_by_pieces (incr, align));
2486 : : }
2487 : :
2488 : 48 : x_addr = force_operand (XEXP (x, 0), NULL_RTX);
2489 : 48 : y_addr = force_operand (XEXP (y, 0), NULL_RTX);
2490 : 48 : do_pending_stack_adjust ();
2491 : :
2492 : 48 : emit_jump (cmp_label);
2493 : 48 : emit_label (top_label);
2494 : :
2495 : 48 : tmp = convert_modes (x_addr_mode, iter_mode, iter, true);
2496 : 48 : x_addr = simplify_gen_binary (PLUS, x_addr_mode, x_addr, tmp);
2497 : :
2498 : 48 : if (x_addr_mode != y_addr_mode)
2499 : 0 : tmp = convert_modes (y_addr_mode, iter_mode, iter, true);
2500 : 48 : y_addr = simplify_gen_binary (PLUS, y_addr_mode, y_addr, tmp);
2501 : :
2502 : 48 : x = change_address (x, move_mode, x_addr);
2503 : 48 : y = change_address (y, move_mode, y_addr);
2504 : :
2505 : 48 : if (move_mode == BLKmode)
2506 : : {
2507 : 0 : bool done;
2508 : 0 : emit_block_move_hints (x, y, iter_incr, BLOCK_OP_NO_LIBCALL,
2509 : : align, incr, incr, incr, incr,
2510 : : false, &done, false);
2511 : 0 : gcc_checking_assert (done);
2512 : : }
2513 : : else
2514 : 48 : emit_move_insn (x, y);
2515 : :
2516 : 48 : if (downwards)
2517 : 0 : emit_label (cmp_label);
2518 : :
2519 : 48 : tmp = expand_simple_binop (iter_mode, PLUS, iter, iter_incr, iter,
2520 : : true, OPTAB_LIB_WIDEN);
2521 : 48 : if (tmp != iter)
2522 : 0 : emit_move_insn (iter, tmp);
2523 : :
2524 : 48 : if (!downwards)
2525 : 48 : emit_label (cmp_label);
2526 : :
2527 : 48 : emit_cmp_and_jump_insns (iter, iter_limit, iter_cond, NULL_RTX, iter_mode,
2528 : : true, top_label,
2529 : 48 : profile_probability::guessed_always ()
2530 : : .apply_scale (9, 10));
2531 : 48 : }
2532 : :
2533 : : /* Expand a call to memcpy or memmove or memcmp, and return the result.
2534 : : TAILCALL is true if this is a tail call. */
2535 : :
2536 : : rtx
2537 : 35357 : emit_block_op_via_libcall (enum built_in_function fncode, rtx dst, rtx src,
2538 : : rtx size, bool tailcall)
2539 : : {
2540 : 35357 : rtx dst_addr, src_addr;
2541 : 35357 : tree call_expr, dst_tree, src_tree, size_tree;
2542 : 35357 : machine_mode size_mode;
2543 : :
2544 : : /* Since dst and src are passed to a libcall, mark the corresponding
2545 : : tree EXPR as addressable. */
2546 : 35357 : tree dst_expr = MEM_EXPR (dst);
2547 : 35357 : tree src_expr = MEM_EXPR (src);
2548 : 35357 : if (dst_expr)
2549 : 35055 : mark_addressable (dst_expr);
2550 : 35357 : if (src_expr)
2551 : 35319 : mark_addressable (src_expr);
2552 : :
2553 : 35357 : dst_addr = copy_addr_to_reg (XEXP (dst, 0));
2554 : 35357 : dst_addr = convert_memory_address (ptr_mode, dst_addr);
2555 : 35357 : dst_tree = make_tree (ptr_type_node, dst_addr);
2556 : :
2557 : 35357 : src_addr = copy_addr_to_reg (XEXP (src, 0));
2558 : 35357 : src_addr = convert_memory_address (ptr_mode, src_addr);
2559 : 35357 : src_tree = make_tree (ptr_type_node, src_addr);
2560 : :
2561 : 35357 : size_mode = TYPE_MODE (sizetype);
2562 : 35357 : size = convert_to_mode (size_mode, size, 1);
2563 : 35357 : size = copy_to_mode_reg (size_mode, size);
2564 : 35357 : size_tree = make_tree (sizetype, size);
2565 : :
2566 : : /* It is incorrect to use the libcall calling conventions for calls to
2567 : : memcpy/memmove/memcmp because they can be provided by the user. */
2568 : 35357 : tree fn = builtin_decl_implicit (fncode);
2569 : 35357 : call_expr = build_call_expr (fn, 3, dst_tree, src_tree, size_tree);
2570 : 35357 : CALL_EXPR_TAILCALL (call_expr) = tailcall;
2571 : :
2572 : 35357 : return expand_call (call_expr, NULL_RTX, false);
2573 : : }
2574 : :
2575 : : /* Try to expand cmpstrn or cmpmem operation ICODE with the given operands.
2576 : : ARG3_TYPE is the type of ARG3_RTX. Return the result rtx on success,
2577 : : otherwise return null. */
2578 : :
2579 : : rtx
2580 : 204235 : expand_cmpstrn_or_cmpmem (insn_code icode, rtx target, rtx arg1_rtx,
2581 : : rtx arg2_rtx, tree arg3_type, rtx arg3_rtx,
2582 : : HOST_WIDE_INT align)
2583 : : {
2584 : 204235 : machine_mode insn_mode = insn_data[icode].operand[0].mode;
2585 : :
2586 : 204235 : if (target && (!REG_P (target) || HARD_REGISTER_P (target)))
2587 : : target = NULL_RTX;
2588 : :
2589 : 204235 : class expand_operand ops[5];
2590 : 204235 : create_output_operand (&ops[0], target, insn_mode);
2591 : 204235 : create_fixed_operand (&ops[1], arg1_rtx);
2592 : 204235 : create_fixed_operand (&ops[2], arg2_rtx);
2593 : 204235 : create_convert_operand_from (&ops[3], arg3_rtx, TYPE_MODE (arg3_type),
2594 : 204235 : TYPE_UNSIGNED (arg3_type));
2595 : 204235 : create_integer_operand (&ops[4], align);
2596 : 204235 : if (maybe_expand_insn (icode, 5, ops))
2597 : 5718 : return ops[0].value;
2598 : : return NULL_RTX;
2599 : : }
2600 : :
2601 : : /* Expand a block compare between X and Y with length LEN using the
2602 : : cmpmem optab, placing the result in TARGET. LEN_TYPE is the type
2603 : : of the expression that was used to calculate the length. ALIGN
2604 : : gives the known minimum common alignment. */
2605 : :
2606 : : static rtx
2607 : 76641 : emit_block_cmp_via_cmpmem (rtx x, rtx y, rtx len, tree len_type, rtx target,
2608 : : unsigned align)
2609 : : {
2610 : : /* Note: The cmpstrnsi pattern, if it exists, is not suitable for
2611 : : implementing memcmp because it will stop if it encounters two
2612 : : zero bytes. */
2613 : 76641 : insn_code icode = direct_optab_handler (cmpmem_optab, SImode);
2614 : :
2615 : 76641 : if (icode == CODE_FOR_nothing)
2616 : : return NULL_RTX;
2617 : :
2618 : 76641 : return expand_cmpstrn_or_cmpmem (icode, target, x, y, len_type, len, align);
2619 : : }
2620 : :
2621 : : /* Emit code to compare a block Y to a block X. This may be done with
2622 : : string-compare instructions, with multiple scalar instructions,
2623 : : or with a library call.
2624 : :
2625 : : Both X and Y must be MEM rtx's. LEN is an rtx that says how long
2626 : : they are. LEN_TYPE is the type of the expression that was used to
2627 : : calculate it, and CTZ_LEN is the known trailing-zeros count of LEN,
2628 : : so LEN must be a multiple of 1<<CTZ_LEN even if it's not constant.
2629 : :
2630 : : If EQUALITY_ONLY is true, it means we don't have to return the tri-state
2631 : : value of a normal memcmp call, instead we can just compare for equality.
2632 : : If FORCE_LIBCALL is true, we should emit a call to memcmp rather than
2633 : : returning NULL_RTX.
2634 : :
2635 : : Optionally, the caller can pass a constfn and associated data in Y_CFN
2636 : : and Y_CFN_DATA. describing that the second operand being compared is a
2637 : : known constant and how to obtain its data.
2638 : : Return the result of the comparison, or NULL_RTX if we failed to
2639 : : perform the operation. */
2640 : :
2641 : : rtx
2642 : 110234 : emit_block_cmp_hints (rtx x, rtx y, rtx len, tree len_type, rtx target,
2643 : : bool equality_only, by_pieces_constfn y_cfn,
2644 : : void *y_cfndata, unsigned ctz_len)
2645 : : {
2646 : 110234 : rtx result = 0;
2647 : :
2648 : 110234 : if (CONST_INT_P (len) && INTVAL (len) == 0)
2649 : 6 : return const0_rtx;
2650 : :
2651 : 110228 : gcc_assert (MEM_P (x) && MEM_P (y));
2652 : 110228 : unsigned int align = MIN (MEM_ALIGN (x), MEM_ALIGN (y));
2653 : 110228 : gcc_assert (align >= BITS_PER_UNIT);
2654 : :
2655 : 110228 : x = adjust_address (x, BLKmode, 0);
2656 : 110228 : y = adjust_address (y, BLKmode, 0);
2657 : :
2658 : 110228 : if (equality_only
2659 : 56958 : && CONST_INT_P (len)
2660 : 146753 : && can_do_by_pieces (INTVAL (len), align, COMPARE_BY_PIECES))
2661 : 33587 : result = compare_by_pieces (x, y, INTVAL (len), target, align,
2662 : : y_cfn, y_cfndata);
2663 : : else
2664 : 76641 : result = emit_block_cmp_via_cmpmem (x, y, len, len_type, target, align);
2665 : :
2666 : 110228 : if (!result && (flag_inline_stringops & ILSOP_MEMCMP))
2667 : 361 : result = emit_block_cmp_via_loop (x, y, len, len_type,
2668 : : target, equality_only,
2669 : : align, ctz_len);
2670 : :
2671 : : return result;
2672 : : }
2673 : :
2674 : : /* Like emit_block_cmp_hints, but with known alignment and no support
2675 : : for constats. Always expand to a loop with iterations that compare
2676 : : blocks of the largest compare-by-pieces size that divides both len
2677 : : and align, and then, if !EQUALITY_ONLY, identify the word and then
2678 : : the unit that first differs to return the result. */
2679 : :
2680 : : rtx
2681 : 403 : emit_block_cmp_via_loop (rtx x, rtx y, rtx len, tree len_type, rtx target,
2682 : : bool equality_only, unsigned align, unsigned ctz_len)
2683 : : {
2684 : 403 : unsigned incr = align / BITS_PER_UNIT;
2685 : :
2686 : 403 : if (CONST_INT_P (len))
2687 : 319 : ctz_len = MAX (ctz_len, (unsigned) wi::ctz (UINTVAL (len)));
2688 : :
2689 : 403 : if (HOST_WIDE_INT_1U << ctz_len < (unsigned HOST_WIDE_INT) incr)
2690 : 148 : incr = HOST_WIDE_INT_1U << ctz_len;
2691 : :
2692 : : while (incr > 1
2693 : 407 : && !can_do_by_pieces (incr, align, COMPARE_BY_PIECES))
2694 : 4 : incr >>= 1;
2695 : :
2696 : 403 : rtx_code_label *cmp_label, *top_label, *ne_label, *res_label;
2697 : 403 : rtx iter, x_addr, y_addr, tmp;
2698 : 403 : machine_mode x_addr_mode = get_address_mode (x);
2699 : 403 : machine_mode y_addr_mode = get_address_mode (y);
2700 : 403 : machine_mode iter_mode;
2701 : :
2702 : 403 : iter_mode = GET_MODE (len);
2703 : 403 : if (iter_mode == VOIDmode)
2704 : 319 : iter_mode = word_mode;
2705 : :
2706 : 403 : rtx iter_init = const0_rtx;
2707 : 403 : rtx_code iter_cond = LTU;
2708 : 403 : rtx_code entry_cond = GEU;
2709 : 403 : rtx iter_limit = len;
2710 : 403 : rtx iter_incr = GEN_INT (incr);
2711 : 403 : machine_mode cmp_mode;
2712 : :
2713 : : /* We can drop the loop back edge if we know there's exactly one
2714 : : iteration. */
2715 : 403 : top_label = (!rtx_equal_p (len, iter_incr)
2716 : 403 : ? gen_label_rtx ()
2717 : : : NULL);
2718 : : /* We need not test before entering the loop if len is known
2719 : : nonzero. ??? This could be even stricter, testing whether a
2720 : : nonconstant LEN could possibly be zero. */
2721 : 319 : cmp_label = (!CONSTANT_P (len) || rtx_equal_p (len, iter_init)
2722 : 403 : ? gen_label_rtx ()
2723 : : : NULL);
2724 : 403 : ne_label = gen_label_rtx ();
2725 : 403 : res_label = gen_label_rtx ();
2726 : :
2727 : 403 : iter = gen_reg_rtx (iter_mode);
2728 : 403 : emit_move_insn (iter, iter_init);
2729 : :
2730 : 403 : opt_scalar_int_mode int_cmp_mode
2731 : 403 : = int_mode_for_size (incr * BITS_PER_UNIT, 1);
2732 : 403 : if (!int_cmp_mode.exists (&cmp_mode)
2733 : 1206 : || GET_MODE_BITSIZE (int_cmp_mode.require ()) != incr * BITS_PER_UNIT
2734 : 402 : || !can_compare_p (NE, cmp_mode, ccp_jump))
2735 : : {
2736 : 1 : cmp_mode = BLKmode;
2737 : 1 : gcc_checking_assert (incr != 1);
2738 : : }
2739 : :
2740 : : /* Save the base addresses. */
2741 : 403 : x_addr = force_operand (XEXP (x, 0), NULL_RTX);
2742 : 403 : y_addr = force_operand (XEXP (y, 0), NULL_RTX);
2743 : 403 : do_pending_stack_adjust ();
2744 : :
2745 : 403 : if (cmp_label)
2746 : : {
2747 : 84 : if (top_label)
2748 : 84 : emit_jump (cmp_label);
2749 : : else
2750 : 0 : emit_cmp_and_jump_insns (iter, iter_limit, entry_cond,
2751 : : NULL_RTX, iter_mode,
2752 : : true, cmp_label,
2753 : 0 : profile_probability::guessed_always ()
2754 : : .apply_scale (1, 10));
2755 : : }
2756 : 403 : if (top_label)
2757 : 386 : emit_label (top_label);
2758 : :
2759 : : /* Offset the base addresses by ITER. */
2760 : 403 : tmp = convert_modes (x_addr_mode, iter_mode, iter, true);
2761 : 403 : x_addr = simplify_gen_binary (PLUS, x_addr_mode, x_addr, tmp);
2762 : :
2763 : 403 : if (x_addr_mode != y_addr_mode)
2764 : 0 : tmp = convert_modes (y_addr_mode, iter_mode, iter, true);
2765 : 403 : y_addr = simplify_gen_binary (PLUS, y_addr_mode, y_addr, tmp);
2766 : :
2767 : 403 : x = change_address (x, cmp_mode, x_addr);
2768 : 403 : y = change_address (y, cmp_mode, y_addr);
2769 : :
2770 : : /* Compare one block. */
2771 : 403 : rtx part_res;
2772 : 403 : if (cmp_mode == BLKmode)
2773 : 1 : part_res = compare_by_pieces (x, y, incr, target, align, 0, 0);
2774 : : else
2775 : 402 : part_res = expand_binop (cmp_mode, sub_optab, x, y, NULL_RTX,
2776 : : true, OPTAB_LIB_WIDEN);
2777 : :
2778 : : /* Stop if we found a difference. */
2779 : 806 : emit_cmp_and_jump_insns (part_res, GEN_INT (0), NE, NULL_RTX,
2780 : 403 : GET_MODE (part_res), true, ne_label,
2781 : 403 : profile_probability::guessed_always ()
2782 : : .apply_scale (1, 10));
2783 : :
2784 : : /* Increment ITER. */
2785 : 403 : tmp = expand_simple_binop (iter_mode, PLUS, iter, iter_incr, iter,
2786 : : true, OPTAB_LIB_WIDEN);
2787 : 403 : if (tmp != iter)
2788 : 0 : emit_move_insn (iter, tmp);
2789 : :
2790 : 403 : if (cmp_label)
2791 : 84 : emit_label (cmp_label);
2792 : : /* Loop until we reach the limit. */
2793 : :
2794 : 403 : if (top_label)
2795 : 386 : emit_cmp_and_jump_insns (iter, iter_limit, iter_cond, NULL_RTX, iter_mode,
2796 : : true, top_label,
2797 : 772 : profile_probability::guessed_always ()
2798 : : .apply_scale (9, 10));
2799 : :
2800 : : /* We got to the end without differences, so the result is zero. */
2801 : 403 : if (target == NULL_RTX
2802 : 403 : || !REG_P (target) || REGNO (target) < FIRST_PSEUDO_REGISTER)
2803 : 49 : target = gen_reg_rtx (TYPE_MODE (integer_type_node));
2804 : :
2805 : 403 : emit_move_insn (target, const0_rtx);
2806 : 403 : emit_jump (res_label);
2807 : :
2808 : 403 : emit_label (ne_label);
2809 : :
2810 : : /* Return nonzero, or pinpoint the difference to return the expected
2811 : : result for non-equality tests. */
2812 : 403 : if (equality_only)
2813 : 0 : emit_move_insn (target, const1_rtx);
2814 : : else
2815 : : {
2816 : 403 : if (incr > UNITS_PER_WORD)
2817 : : /* ??? Re-compare the block found to be different one word at a
2818 : : time. */
2819 : 5 : part_res = emit_block_cmp_via_loop (x, y, GEN_INT (incr), len_type,
2820 : : target, equality_only,
2821 : : BITS_PER_WORD, 0);
2822 : 398 : else if (incr > 1)
2823 : : /* ??? Re-compare the block found to be different one byte at a
2824 : : time. We could do better using part_res, and being careful
2825 : : about endianness. */
2826 : 37 : part_res = emit_block_cmp_via_loop (x, y, GEN_INT (incr), len_type,
2827 : : target, equality_only,
2828 : : BITS_PER_UNIT, 0);
2829 : 1083 : else if (known_gt (GET_MODE_BITSIZE (GET_MODE (target)),
2830 : : GET_MODE_BITSIZE (cmp_mode)))
2831 : 361 : part_res = expand_binop (GET_MODE (target), sub_optab, x, y, target,
2832 : : true, OPTAB_LIB_WIDEN);
2833 : : else
2834 : : {
2835 : : /* In the odd chance target is QImode, we can't count on
2836 : : widening subtract to capture the result of the unsigned
2837 : : compares. */
2838 : 0 : rtx_code_label *ltu_label;
2839 : 0 : ltu_label = gen_label_rtx ();
2840 : 0 : emit_cmp_and_jump_insns (x, y, LTU, NULL_RTX,
2841 : : cmp_mode, true, ltu_label,
2842 : 0 : profile_probability::guessed_always ()
2843 : : .apply_scale (5, 10));
2844 : :
2845 : 0 : emit_move_insn (target, const1_rtx);
2846 : 0 : emit_jump (res_label);
2847 : :
2848 : 0 : emit_label (ltu_label);
2849 : 0 : emit_move_insn (target, constm1_rtx);
2850 : 0 : part_res = target;
2851 : : }
2852 : :
2853 : 403 : if (target != part_res)
2854 : 0 : convert_move (target, part_res, false);
2855 : : }
2856 : :
2857 : 403 : emit_label (res_label);
2858 : :
2859 : 403 : return target;
2860 : : }
2861 : :
2862 : :
2863 : : /* Copy all or part of a value X into registers starting at REGNO.
2864 : : The number of registers to be filled is NREGS. */
2865 : :
2866 : : void
2867 : 317 : move_block_to_reg (int regno, rtx x, int nregs, machine_mode mode)
2868 : : {
2869 : 317 : if (nregs == 0)
2870 : : return;
2871 : :
2872 : 303 : if (CONSTANT_P (x) && !targetm.legitimate_constant_p (mode, x))
2873 : 0 : x = validize_mem (force_const_mem (mode, x));
2874 : :
2875 : : /* See if the machine can do this with a load multiple insn. */
2876 : 303 : if (targetm.have_load_multiple ())
2877 : : {
2878 : 0 : rtx_insn *last = get_last_insn ();
2879 : 0 : rtx first = gen_rtx_REG (word_mode, regno);
2880 : 0 : if (rtx_insn *pat = targetm.gen_load_multiple (first, x,
2881 : : GEN_INT (nregs)))
2882 : : {
2883 : 0 : emit_insn (pat);
2884 : 0 : return;
2885 : : }
2886 : : else
2887 : 0 : delete_insns_since (last);
2888 : : }
2889 : :
2890 : 606 : for (int i = 0; i < nregs; i++)
2891 : 303 : emit_move_insn (gen_rtx_REG (word_mode, regno + i),
2892 : 303 : operand_subword_force (x, i, mode));
2893 : : }
2894 : :
2895 : : /* Copy all or part of a BLKmode value X out of registers starting at REGNO.
2896 : : The number of registers to be filled is NREGS. */
2897 : :
2898 : : void
2899 : 1166 : move_block_from_reg (int regno, rtx x, int nregs)
2900 : : {
2901 : 1166 : if (nregs == 0)
2902 : : return;
2903 : :
2904 : : /* See if the machine can do this with a store multiple insn. */
2905 : 1166 : if (targetm.have_store_multiple ())
2906 : : {
2907 : 0 : rtx_insn *last = get_last_insn ();
2908 : 0 : rtx first = gen_rtx_REG (word_mode, regno);
2909 : 0 : if (rtx_insn *pat = targetm.gen_store_multiple (x, first,
2910 : : GEN_INT (nregs)))
2911 : : {
2912 : 0 : emit_insn (pat);
2913 : 0 : return;
2914 : : }
2915 : : else
2916 : 0 : delete_insns_since (last);
2917 : : }
2918 : :
2919 : 2332 : for (int i = 0; i < nregs; i++)
2920 : : {
2921 : 1166 : rtx tem = operand_subword (x, i, 1, BLKmode);
2922 : :
2923 : 1166 : gcc_assert (tem);
2924 : :
2925 : 1166 : emit_move_insn (tem, gen_rtx_REG (word_mode, regno + i));
2926 : : }
2927 : : }
2928 : :
2929 : : /* Generate a PARALLEL rtx for a new non-consecutive group of registers from
2930 : : ORIG, where ORIG is a non-consecutive group of registers represented by
2931 : : a PARALLEL. The clone is identical to the original except in that the
2932 : : original set of registers is replaced by a new set of pseudo registers.
2933 : : The new set has the same modes as the original set. */
2934 : :
2935 : : rtx
2936 : 2858 : gen_group_rtx (rtx orig)
2937 : : {
2938 : 2858 : int i, length;
2939 : 2858 : rtx *tmps;
2940 : :
2941 : 2858 : gcc_assert (GET_CODE (orig) == PARALLEL);
2942 : :
2943 : 2858 : length = XVECLEN (orig, 0);
2944 : 2858 : tmps = XALLOCAVEC (rtx, length);
2945 : :
2946 : : /* Skip a NULL entry in first slot. */
2947 : 2858 : i = XEXP (XVECEXP (orig, 0, 0), 0) ? 0 : 1;
2948 : :
2949 : 2858 : if (i)
2950 : 0 : tmps[0] = 0;
2951 : :
2952 : 6995 : for (; i < length; i++)
2953 : : {
2954 : 4137 : machine_mode mode = GET_MODE (XEXP (XVECEXP (orig, 0, i), 0));
2955 : 4137 : rtx offset = XEXP (XVECEXP (orig, 0, i), 1);
2956 : :
2957 : 4137 : tmps[i] = gen_rtx_EXPR_LIST (VOIDmode, gen_reg_rtx (mode), offset);
2958 : : }
2959 : :
2960 : 2858 : return gen_rtx_PARALLEL (GET_MODE (orig), gen_rtvec_v (length, tmps));
2961 : : }
2962 : :
2963 : : /* A subroutine of emit_group_load. Arguments as for emit_group_load,
2964 : : except that values are placed in TMPS[i], and must later be moved
2965 : : into corresponding XEXP (XVECEXP (DST, 0, i), 0) element. */
2966 : :
2967 : : static void
2968 : 267711 : emit_group_load_1 (rtx *tmps, rtx dst, rtx orig_src, tree type,
2969 : : poly_int64 ssize)
2970 : : {
2971 : 267714 : rtx src;
2972 : 267714 : int start, i;
2973 : 267714 : machine_mode m = GET_MODE (orig_src);
2974 : :
2975 : 267714 : gcc_assert (GET_CODE (dst) == PARALLEL);
2976 : :
2977 : 267714 : if (m != VOIDmode
2978 : 254853 : && !SCALAR_INT_MODE_P (m)
2979 : 17289 : && !MEM_P (orig_src)
2980 : 4231 : && GET_CODE (orig_src) != CONCAT)
2981 : : {
2982 : 3 : scalar_int_mode imode;
2983 : 3 : if (int_mode_for_mode (GET_MODE (orig_src)).exists (&imode))
2984 : : {
2985 : 3 : src = gen_reg_rtx (imode);
2986 : 3 : emit_move_insn (gen_lowpart (GET_MODE (orig_src), src), orig_src);
2987 : : }
2988 : : else
2989 : : {
2990 : 0 : src = assign_stack_temp (GET_MODE (orig_src), ssize);
2991 : 0 : emit_move_insn (src, orig_src);
2992 : : }
2993 : 3 : emit_group_load_1 (tmps, dst, src, type, ssize);
2994 : : return;
2995 : : }
2996 : :
2997 : : /* Check for a NULL entry, used to indicate that the parameter goes
2998 : : both on the stack and in registers. */
2999 : 267711 : if (XEXP (XVECEXP (dst, 0, 0), 0))
3000 : : start = 0;
3001 : : else
3002 : 0 : start = 1;
3003 : :
3004 : : /* Process the pieces. */
3005 : 792548 : for (i = start; i < XVECLEN (dst, 0); i++)
3006 : : {
3007 : 524837 : machine_mode mode = GET_MODE (XEXP (XVECEXP (dst, 0, i), 0));
3008 : 524837 : poly_int64 bytepos = rtx_to_poly_int64 (XEXP (XVECEXP (dst, 0, i), 1));
3009 : 1049674 : poly_int64 bytelen = GET_MODE_SIZE (mode);
3010 : 524837 : poly_int64 shift = 0;
3011 : :
3012 : : /* Handle trailing fragments that run over the size of the struct.
3013 : : It's the target's responsibility to make sure that the fragment
3014 : : cannot be strictly smaller in some cases and strictly larger
3015 : : in others. */
3016 : 524837 : gcc_checking_assert (ordered_p (bytepos + bytelen, ssize));
3017 : 524837 : if (known_size_p (ssize) && maybe_gt (bytepos + bytelen, ssize))
3018 : : {
3019 : : /* Arrange to shift the fragment to where it belongs.
3020 : : extract_bit_field loads to the lsb of the reg. */
3021 : : if (
3022 : : #ifdef BLOCK_REG_PADDING
3023 : : BLOCK_REG_PADDING (GET_MODE (orig_src), type, i == start)
3024 : : == (BYTES_BIG_ENDIAN ? PAD_UPWARD : PAD_DOWNWARD)
3025 : : #else
3026 : : BYTES_BIG_ENDIAN
3027 : : #endif
3028 : : )
3029 : : shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
3030 : 1767 : bytelen = ssize - bytepos;
3031 : 1767 : gcc_assert (maybe_gt (bytelen, 0));
3032 : : }
3033 : :
3034 : : /* If we won't be loading directly from memory, protect the real source
3035 : : from strange tricks we might play; but make sure that the source can
3036 : : be loaded directly into the destination. */
3037 : 524837 : src = orig_src;
3038 : 524837 : if (!MEM_P (orig_src)
3039 : 437571 : && (!REG_P (orig_src) || HARD_REGISTER_P (orig_src))
3040 : 557004 : && !CONSTANT_P (orig_src))
3041 : : {
3042 : 6445 : gcc_assert (GET_MODE (orig_src) != VOIDmode);
3043 : 6445 : src = force_reg (GET_MODE (orig_src), orig_src);
3044 : : }
3045 : :
3046 : : /* Optimize the access just a bit. */
3047 : 524837 : if (MEM_P (src)
3048 : 87266 : && (! targetm.slow_unaligned_access (mode, MEM_ALIGN (src))
3049 : 0 : || MEM_ALIGN (src) >= GET_MODE_ALIGNMENT (mode))
3050 : 174532 : && multiple_p (bytepos * BITS_PER_UNIT, GET_MODE_ALIGNMENT (mode))
3051 : 612103 : && known_eq (bytelen, GET_MODE_SIZE (mode)))
3052 : : {
3053 : 85518 : tmps[i] = gen_reg_rtx (mode);
3054 : 85518 : emit_move_insn (tmps[i], adjust_address (src, mode, bytepos));
3055 : : }
3056 : 439319 : else if (COMPLEX_MODE_P (mode)
3057 : 0 : && GET_MODE (src) == mode
3058 : 439319 : && known_eq (bytelen, GET_MODE_SIZE (mode)))
3059 : : /* Let emit_move_complex do the bulk of the work. */
3060 : 0 : tmps[i] = src;
3061 : 439319 : else if (GET_CODE (src) == CONCAT)
3062 : : {
3063 : 12890 : poly_int64 slen = GET_MODE_SIZE (GET_MODE (src));
3064 : 12890 : poly_int64 slen0 = GET_MODE_SIZE (GET_MODE (XEXP (src, 0)));
3065 : 6445 : unsigned int elt;
3066 : 6445 : poly_int64 subpos;
3067 : :
3068 : 6445 : if (can_div_trunc_p (bytepos, slen0, &elt, &subpos)
3069 : 6445 : && known_le (subpos + bytelen, slen0))
3070 : : {
3071 : : /* The following assumes that the concatenated objects all
3072 : : have the same size. In this case, a simple calculation
3073 : : can be used to determine the object and the bit field
3074 : : to be extracted. */
3075 : 4434 : tmps[i] = XEXP (src, elt);
3076 : 4434 : if (maybe_ne (subpos, 0)
3077 : 4434 : || maybe_ne (subpos + bytelen, slen0)
3078 : 8868 : || (!CONSTANT_P (tmps[i])
3079 : 4434 : && (!REG_P (tmps[i]) || GET_MODE (tmps[i]) != mode)))
3080 : 0 : tmps[i] = extract_bit_field (tmps[i], bytelen * BITS_PER_UNIT,
3081 : 0 : subpos * BITS_PER_UNIT,
3082 : : 1, NULL_RTX, mode, mode, false,
3083 : : NULL);
3084 : : }
3085 : : else
3086 : : {
3087 : 2011 : rtx mem;
3088 : :
3089 : 2011 : gcc_assert (known_eq (bytepos, 0));
3090 : 2011 : mem = assign_stack_temp (GET_MODE (src), slen);
3091 : 2011 : emit_move_insn (mem, src);
3092 : 2011 : tmps[i] = extract_bit_field (mem, bytelen * BITS_PER_UNIT,
3093 : 2011 : 0, 1, NULL_RTX, mode, mode, false,
3094 : : NULL);
3095 : : }
3096 : : }
3097 : 432874 : else if (CONSTANT_P (src) && GET_MODE (dst) != BLKmode
3098 : 25722 : && XVECLEN (dst, 0) > 1)
3099 : 25722 : tmps[i] = force_subreg (mode, src, GET_MODE (dst), bytepos);
3100 : 407152 : else if (CONSTANT_P (src))
3101 : : {
3102 : 0 : if (known_eq (bytelen, ssize))
3103 : 0 : tmps[i] = src;
3104 : : else
3105 : : {
3106 : : rtx first, second;
3107 : :
3108 : : /* TODO: const_wide_int can have sizes other than this... */
3109 : 0 : gcc_assert (known_eq (2 * bytelen, ssize));
3110 : 0 : split_double (src, &first, &second);
3111 : 0 : if (i)
3112 : 0 : tmps[i] = second;
3113 : : else
3114 : 0 : tmps[i] = first;
3115 : : }
3116 : : }
3117 : 407152 : else if (REG_P (src) && GET_MODE (src) == mode)
3118 : 0 : tmps[i] = src;
3119 : : else
3120 : 407152 : tmps[i] = extract_bit_field (src, bytelen * BITS_PER_UNIT,
3121 : 407152 : bytepos * BITS_PER_UNIT, 1, NULL_RTX,
3122 : : mode, mode, false, NULL);
3123 : :
3124 : 524837 : if (maybe_ne (shift, 0))
3125 : : tmps[i] = expand_shift (LSHIFT_EXPR, mode, tmps[i],
3126 : : shift, tmps[i], 0);
3127 : : }
3128 : : }
3129 : :
3130 : : /* Emit code to move a block SRC of type TYPE to a block DST,
3131 : : where DST is non-consecutive registers represented by a PARALLEL.
3132 : : SSIZE represents the total size of block ORIG_SRC in bytes, or -1
3133 : : if not known. */
3134 : :
3135 : : void
3136 : 10492 : emit_group_load (rtx dst, rtx src, tree type, poly_int64 ssize)
3137 : : {
3138 : 10492 : rtx *tmps;
3139 : 10492 : int i;
3140 : :
3141 : 10492 : tmps = XALLOCAVEC (rtx, XVECLEN (dst, 0));
3142 : 10492 : emit_group_load_1 (tmps, dst, src, type, ssize);
3143 : :
3144 : : /* Copy the extracted pieces into the proper (probable) hard regs. */
3145 : 29582 : for (i = 0; i < XVECLEN (dst, 0); i++)
3146 : : {
3147 : 19090 : rtx d = XEXP (XVECEXP (dst, 0, i), 0);
3148 : 19090 : if (d == NULL)
3149 : 0 : continue;
3150 : 19090 : emit_move_insn (d, tmps[i]);
3151 : : }
3152 : 10492 : }
3153 : :
3154 : : /* Similar, but load SRC into new pseudos in a format that looks like
3155 : : PARALLEL. This can later be fed to emit_group_move to get things
3156 : : in the right place. */
3157 : :
3158 : : rtx
3159 : 257219 : emit_group_load_into_temps (rtx parallel, rtx src, tree type, poly_int64 ssize)
3160 : : {
3161 : 257219 : rtvec vec;
3162 : 257219 : int i;
3163 : :
3164 : 257219 : vec = rtvec_alloc (XVECLEN (parallel, 0));
3165 : 257219 : emit_group_load_1 (&RTVEC_ELT (vec, 0), parallel, src, type, ssize);
3166 : :
3167 : : /* Convert the vector to look just like the original PARALLEL, except
3168 : : with the computed values. */
3169 : 762966 : for (i = 0; i < XVECLEN (parallel, 0); i++)
3170 : : {
3171 : 505747 : rtx e = XVECEXP (parallel, 0, i);
3172 : 505747 : rtx d = XEXP (e, 0);
3173 : :
3174 : 505747 : if (d)
3175 : : {
3176 : 505747 : d = force_reg (GET_MODE (d), RTVEC_ELT (vec, i));
3177 : 505747 : e = alloc_EXPR_LIST (REG_NOTE_KIND (e), d, XEXP (e, 1));
3178 : : }
3179 : 505747 : RTVEC_ELT (vec, i) = e;
3180 : : }
3181 : :
3182 : 257219 : return gen_rtx_PARALLEL (GET_MODE (parallel), vec);
3183 : : }
3184 : :
3185 : : /* Emit code to move a block SRC to block DST, where SRC and DST are
3186 : : non-consecutive groups of registers, each represented by a PARALLEL. */
3187 : :
3188 : : void
3189 : 260077 : emit_group_move (rtx dst, rtx src)
3190 : : {
3191 : 260077 : int i;
3192 : :
3193 : 260077 : gcc_assert (GET_CODE (src) == PARALLEL
3194 : : && GET_CODE (dst) == PARALLEL
3195 : : && XVECLEN (src, 0) == XVECLEN (dst, 0));
3196 : :
3197 : : /* Skip first entry if NULL. */
3198 : 769961 : for (i = XEXP (XVECEXP (src, 0, 0), 0) ? 0 : 1; i < XVECLEN (src, 0); i++)
3199 : 509884 : emit_move_insn (XEXP (XVECEXP (dst, 0, i), 0),
3200 : 509884 : XEXP (XVECEXP (src, 0, i), 0));
3201 : 260077 : }
3202 : :
3203 : : /* Move a group of registers represented by a PARALLEL into pseudos. */
3204 : :
3205 : : rtx
3206 : 5054 : emit_group_move_into_temps (rtx src)
3207 : : {
3208 : 5054 : rtvec vec = rtvec_alloc (XVECLEN (src, 0));
3209 : 5054 : int i;
3210 : :
3211 : 12039 : for (i = 0; i < XVECLEN (src, 0); i++)
3212 : : {
3213 : 6985 : rtx e = XVECEXP (src, 0, i);
3214 : 6985 : rtx d = XEXP (e, 0);
3215 : :
3216 : 6985 : if (d)
3217 : 6985 : e = alloc_EXPR_LIST (REG_NOTE_KIND (e), copy_to_reg (d), XEXP (e, 1));
3218 : 6985 : RTVEC_ELT (vec, i) = e;
3219 : : }
3220 : :
3221 : 5054 : return gen_rtx_PARALLEL (GET_MODE (src), vec);
3222 : : }
3223 : :
3224 : : /* Emit code to move a block SRC to a block ORIG_DST of type TYPE,
3225 : : where SRC is non-consecutive registers represented by a PARALLEL.
3226 : : SSIZE represents the total size of block ORIG_DST, or -1 if not
3227 : : known. */
3228 : :
3229 : : void
3230 : 59842 : emit_group_store (rtx orig_dst, rtx src, tree type ATTRIBUTE_UNUSED,
3231 : : poly_int64 ssize)
3232 : : {
3233 : 59842 : rtx *tmps, dst;
3234 : 59842 : int start, finish, i;
3235 : 59842 : machine_mode m = GET_MODE (orig_dst);
3236 : :
3237 : 59842 : gcc_assert (GET_CODE (src) == PARALLEL);
3238 : :
3239 : 59842 : if (!SCALAR_INT_MODE_P (m)
3240 : 12169 : && !MEM_P (orig_dst) && GET_CODE (orig_dst) != CONCAT)
3241 : : {
3242 : 0 : scalar_int_mode imode;
3243 : 0 : if (int_mode_for_mode (GET_MODE (orig_dst)).exists (&imode))
3244 : : {
3245 : 0 : dst = gen_reg_rtx (imode);
3246 : 0 : emit_group_store (dst, src, type, ssize);
3247 : 0 : dst = gen_lowpart (GET_MODE (orig_dst), dst);
3248 : : }
3249 : : else
3250 : : {
3251 : 0 : dst = assign_stack_temp (GET_MODE (orig_dst), ssize);
3252 : 0 : emit_group_store (dst, src, type, ssize);
3253 : : }
3254 : 0 : emit_move_insn (orig_dst, dst);
3255 : 0 : return;
3256 : : }
3257 : :
3258 : : /* Check for a NULL entry, used to indicate that the parameter goes
3259 : : both on the stack and in registers. */
3260 : 59842 : if (XEXP (XVECEXP (src, 0, 0), 0))
3261 : : start = 0;
3262 : : else
3263 : 0 : start = 1;
3264 : 59842 : finish = XVECLEN (src, 0);
3265 : :
3266 : 59842 : tmps = XALLOCAVEC (rtx, finish);
3267 : :
3268 : : /* Copy the (probable) hard regs into pseudos. */
3269 : 172684 : for (i = start; i < finish; i++)
3270 : : {
3271 : 112842 : rtx reg = XEXP (XVECEXP (src, 0, i), 0);
3272 : 112842 : if (!REG_P (reg) || REGNO (reg) < FIRST_PSEUDO_REGISTER)
3273 : : {
3274 : 105857 : tmps[i] = gen_reg_rtx (GET_MODE (reg));
3275 : 105857 : emit_move_insn (tmps[i], reg);
3276 : : }
3277 : : else
3278 : 6985 : tmps[i] = reg;
3279 : : }
3280 : :
3281 : : /* If we won't be storing directly into memory, protect the real destination
3282 : : from strange tricks we might play. */
3283 : 59842 : dst = orig_dst;
3284 : 59842 : if (GET_CODE (dst) == PARALLEL)
3285 : : {
3286 : 0 : rtx temp;
3287 : :
3288 : : /* We can get a PARALLEL dst if there is a conditional expression in
3289 : : a return statement. In that case, the dst and src are the same,
3290 : : so no action is necessary. */
3291 : 0 : if (rtx_equal_p (dst, src))
3292 : : return;
3293 : :
3294 : : /* It is unclear if we can ever reach here, but we may as well handle
3295 : : it. Allocate a temporary, and split this into a store/load to/from
3296 : : the temporary. */
3297 : 0 : temp = assign_stack_temp (GET_MODE (dst), ssize);
3298 : 0 : emit_group_store (temp, src, type, ssize);
3299 : 0 : emit_group_load (dst, temp, type, ssize);
3300 : 0 : return;
3301 : : }
3302 : 59842 : else if (!MEM_P (dst) && GET_CODE (dst) != CONCAT)
3303 : : {
3304 : 47059 : machine_mode outer = GET_MODE (dst);
3305 : 47059 : machine_mode inner;
3306 : 47059 : poly_int64 bytepos;
3307 : 47059 : bool done = false;
3308 : 47059 : rtx temp;
3309 : :
3310 : 47059 : if (!REG_P (dst) || REGNO (dst) < FIRST_PSEUDO_REGISTER)
3311 : 0 : dst = gen_reg_rtx (outer);
3312 : :
3313 : : /* Make life a bit easier for combine: if the first element of the
3314 : : vector is the low part of the destination mode, use a paradoxical
3315 : : subreg to initialize the destination. */
3316 : 47059 : if (start < finish)
3317 : : {
3318 : 47059 : inner = GET_MODE (tmps[start]);
3319 : 47059 : bytepos = subreg_lowpart_offset (inner, outer);
3320 : 47059 : if (known_eq (rtx_to_poly_int64 (XEXP (XVECEXP (src, 0, start), 1)),
3321 : : bytepos))
3322 : : {
3323 : 47035 : temp = force_subreg (outer, tmps[start], inner, 0);
3324 : 47035 : if (temp)
3325 : : {
3326 : 46390 : emit_move_insn (dst, temp);
3327 : 46390 : done = true;
3328 : 46390 : start++;
3329 : : }
3330 : : }
3331 : : }
3332 : :
3333 : : /* If the first element wasn't the low part, try the last. */
3334 : 46390 : if (!done
3335 : 669 : && start < finish - 1)
3336 : : {
3337 : 602 : inner = GET_MODE (tmps[finish - 1]);
3338 : 602 : bytepos = subreg_lowpart_offset (inner, outer);
3339 : 602 : if (known_eq (rtx_to_poly_int64 (XEXP (XVECEXP (src, 0,
3340 : : finish - 1), 1)),
3341 : : bytepos))
3342 : : {
3343 : 0 : temp = force_subreg (outer, tmps[finish - 1], inner, 0);
3344 : 0 : if (temp)
3345 : : {
3346 : 0 : emit_move_insn (dst, temp);
3347 : 0 : done = true;
3348 : 0 : finish--;
3349 : : }
3350 : : }
3351 : : }
3352 : :
3353 : : /* Otherwise, simply initialize the result to zero. */
3354 : 46390 : if (!done)
3355 : 669 : emit_move_insn (dst, CONST0_RTX (outer));
3356 : : }
3357 : :
3358 : : /* Process the pieces. */
3359 : 123583 : for (i = start; i < finish; i++)
3360 : : {
3361 : 66452 : poly_int64 bytepos = rtx_to_poly_int64 (XEXP (XVECEXP (src, 0, i), 1));
3362 : 66452 : machine_mode mode = GET_MODE (tmps[i]);
3363 : 132904 : poly_int64 bytelen = GET_MODE_SIZE (mode);
3364 : 66452 : poly_uint64 adj_bytelen;
3365 : 66452 : rtx dest = dst;
3366 : :
3367 : : /* Handle trailing fragments that run over the size of the struct.
3368 : : It's the target's responsibility to make sure that the fragment
3369 : : cannot be strictly smaller in some cases and strictly larger
3370 : : in others. */
3371 : 66452 : gcc_checking_assert (ordered_p (bytepos + bytelen, ssize));
3372 : 132093 : if (known_size_p (ssize) && maybe_gt (bytepos + bytelen, ssize))
3373 : 811 : adj_bytelen = ssize - bytepos;
3374 : : else
3375 : 66452 : adj_bytelen = bytelen;
3376 : :
3377 : : /* Deal with destination CONCATs by either storing into one of the parts
3378 : : or doing a copy after storing into a register or stack temporary. */
3379 : 66452 : if (GET_CODE (dst) == CONCAT)
3380 : : {
3381 : 24050 : if (known_le (bytepos + adj_bytelen,
3382 : : GET_MODE_SIZE (GET_MODE (XEXP (dst, 0)))))
3383 : : dest = XEXP (dst, 0);
3384 : :
3385 : 14736 : else if (known_ge (bytepos, GET_MODE_SIZE (GET_MODE (XEXP (dst, 0)))))
3386 : : {
3387 : 9314 : bytepos -= GET_MODE_SIZE (GET_MODE (XEXP (dst, 0)));
3388 : 4657 : dest = XEXP (dst, 1);
3389 : : }
3390 : :
3391 : : else
3392 : : {
3393 : 2711 : machine_mode dest_mode = GET_MODE (dest);
3394 : 2711 : machine_mode tmp_mode = GET_MODE (tmps[i]);
3395 : 2711 : scalar_int_mode dest_imode;
3396 : :
3397 : 2711 : gcc_assert (known_eq (bytepos, 0) && XVECLEN (src, 0));
3398 : :
3399 : : /* If the source is a single scalar integer register, and the
3400 : : destination has a complex mode for which a same-sized integer
3401 : : mode exists, then we can take the left-justified part of the
3402 : : source in the complex mode. */
3403 : 2711 : if (finish == start + 1
3404 : 2711 : && REG_P (tmps[i])
3405 : 2711 : && SCALAR_INT_MODE_P (tmp_mode)
3406 : 2711 : && COMPLEX_MODE_P (dest_mode)
3407 : 5422 : && int_mode_for_mode (dest_mode).exists (&dest_imode))
3408 : : {
3409 : 2711 : const scalar_int_mode tmp_imode
3410 : 2711 : = as_a <scalar_int_mode> (tmp_mode);
3411 : :
3412 : 5422 : if (GET_MODE_BITSIZE (dest_imode)
3413 : 2711 : < GET_MODE_BITSIZE (tmp_imode))
3414 : : {
3415 : 59 : dest = gen_reg_rtx (dest_imode);
3416 : 59 : if (BYTES_BIG_ENDIAN)
3417 : : tmps[i] = expand_shift (RSHIFT_EXPR, tmp_mode, tmps[i],
3418 : : GET_MODE_BITSIZE (tmp_imode)
3419 : : - GET_MODE_BITSIZE (dest_imode),
3420 : : NULL_RTX, 1);
3421 : 59 : emit_move_insn (dest, gen_lowpart (dest_imode, tmps[i]));
3422 : 59 : dst = gen_lowpart (dest_mode, dest);
3423 : : }
3424 : : else
3425 : 2652 : dst = gen_lowpart (dest_mode, tmps[i]);
3426 : : }
3427 : :
3428 : : /* Otherwise spill the source onto the stack using the more
3429 : : aligned of the two modes. */
3430 : 0 : else if (GET_MODE_ALIGNMENT (dest_mode)
3431 : 0 : >= GET_MODE_ALIGNMENT (tmp_mode))
3432 : : {
3433 : 0 : dest = assign_stack_temp (dest_mode,
3434 : 0 : GET_MODE_SIZE (dest_mode));
3435 : 0 : emit_move_insn (adjust_address (dest, tmp_mode, bytepos),
3436 : : tmps[i]);
3437 : 0 : dst = dest;
3438 : : }
3439 : :
3440 : : else
3441 : : {
3442 : 0 : dest = assign_stack_temp (tmp_mode,
3443 : 0 : GET_MODE_SIZE (tmp_mode));
3444 : 0 : emit_move_insn (dest, tmps[i]);
3445 : 0 : dst = adjust_address (dest, dest_mode, bytepos);
3446 : : }
3447 : :
3448 : : break;
3449 : : }
3450 : : }
3451 : :
3452 : : /* Handle trailing fragments that run over the size of the struct. */
3453 : 63741 : if (known_size_p (ssize) && maybe_gt (bytepos + bytelen, ssize))
3454 : : {
3455 : : /* store_bit_field always takes its value from the lsb.
3456 : : Move the fragment to the lsb if it's not already there. */
3457 : 752 : if (
3458 : : #ifdef BLOCK_REG_PADDING
3459 : : BLOCK_REG_PADDING (GET_MODE (orig_dst), type, i == start)
3460 : : == (BYTES_BIG_ENDIAN ? PAD_UPWARD : PAD_DOWNWARD)
3461 : : #else
3462 : : BYTES_BIG_ENDIAN
3463 : : #endif
3464 : : )
3465 : : {
3466 : : poly_int64 shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
3467 : : tmps[i] = expand_shift (RSHIFT_EXPR, mode, tmps[i],
3468 : : shift, tmps[i], 0);
3469 : : }
3470 : :
3471 : : /* Make sure not to write past the end of the struct. */
3472 : 2256 : store_bit_field (dest,
3473 : 752 : adj_bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
3474 : 1504 : bytepos * BITS_PER_UNIT, ssize * BITS_PER_UNIT - 1,
3475 : : VOIDmode, tmps[i], false, false);
3476 : : }
3477 : :
3478 : : /* Optimize the access just a bit. */
3479 : 62989 : else if (MEM_P (dest)
3480 : 6843 : && (!targetm.slow_unaligned_access (mode, MEM_ALIGN (dest))
3481 : 0 : || MEM_ALIGN (dest) >= GET_MODE_ALIGNMENT (mode))
3482 : 13686 : && multiple_p (bytepos * BITS_PER_UNIT,
3483 : : GET_MODE_ALIGNMENT (mode))
3484 : 69832 : && known_eq (bytelen, GET_MODE_SIZE (mode)))
3485 : 6843 : emit_move_insn (adjust_address (dest, mode, bytepos), tmps[i]);
3486 : :
3487 : : else
3488 : 56146 : store_bit_field (dest, bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
3489 : 56146 : 0, 0, mode, tmps[i], false, false);
3490 : : }
3491 : :
3492 : : /* Copy from the pseudo into the (probable) hard reg. */
3493 : 59842 : if (orig_dst != dst)
3494 : 2711 : emit_move_insn (orig_dst, dst);
3495 : : }
3496 : :
3497 : : /* Return a form of X that does not use a PARALLEL. TYPE is the type
3498 : : of the value stored in X. */
3499 : :
3500 : : rtx
3501 : 325614 : maybe_emit_group_store (rtx x, tree type)
3502 : : {
3503 : 325614 : machine_mode mode = TYPE_MODE (type);
3504 : 325614 : gcc_checking_assert (GET_MODE (x) == VOIDmode || GET_MODE (x) == mode);
3505 : 325614 : if (GET_CODE (x) == PARALLEL)
3506 : : {
3507 : 0 : rtx result = gen_reg_rtx (mode);
3508 : 0 : emit_group_store (result, x, type, int_size_in_bytes (type));
3509 : 0 : return result;
3510 : : }
3511 : : return x;
3512 : : }
3513 : :
3514 : : /* Copy a BLKmode object of TYPE out of a register SRCREG into TARGET.
3515 : :
3516 : : This is used on targets that return BLKmode values in registers. */
3517 : :
3518 : : static void
3519 : 251 : copy_blkmode_from_reg (rtx target, rtx srcreg, tree type)
3520 : : {
3521 : 251 : unsigned HOST_WIDE_INT bytes = int_size_in_bytes (type);
3522 : 251 : rtx src = NULL, dst = NULL;
3523 : 251 : unsigned HOST_WIDE_INT bitsize = MIN (TYPE_ALIGN (type), BITS_PER_WORD);
3524 : 251 : unsigned HOST_WIDE_INT bitpos, xbitpos, padding_correction = 0;
3525 : : /* No current ABI uses variable-sized modes to pass a BLKmnode type. */
3526 : 251 : fixed_size_mode mode = as_a <fixed_size_mode> (GET_MODE (srcreg));
3527 : 251 : fixed_size_mode tmode = as_a <fixed_size_mode> (GET_MODE (target));
3528 : 251 : fixed_size_mode copy_mode;
3529 : :
3530 : : /* BLKmode registers created in the back-end shouldn't have survived. */
3531 : 251 : gcc_assert (mode != BLKmode);
3532 : :
3533 : : /* If the structure doesn't take up a whole number of words, see whether
3534 : : SRCREG is padded on the left or on the right. If it's on the left,
3535 : : set PADDING_CORRECTION to the number of bits to skip.
3536 : :
3537 : : In most ABIs, the structure will be returned at the least end of
3538 : : the register, which translates to right padding on little-endian
3539 : : targets and left padding on big-endian targets. The opposite
3540 : : holds if the structure is returned at the most significant
3541 : : end of the register. */
3542 : 251 : if (bytes % UNITS_PER_WORD != 0
3543 : 251 : && (targetm.calls.return_in_msb (type)
3544 : 217 : ? !BYTES_BIG_ENDIAN
3545 : : : BYTES_BIG_ENDIAN))
3546 : 0 : padding_correction
3547 : 0 : = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD) * BITS_PER_UNIT));
3548 : :
3549 : : /* We can use a single move if we have an exact mode for the size. */
3550 : 251 : else if (MEM_P (target)
3551 : 251 : && (!targetm.slow_unaligned_access (mode, MEM_ALIGN (target))
3552 : 0 : || MEM_ALIGN (target) >= GET_MODE_ALIGNMENT (mode))
3553 : 502 : && bytes == GET_MODE_SIZE (mode))
3554 : : {
3555 : 41 : emit_move_insn (adjust_address (target, mode, 0), srcreg);
3556 : 41 : return;
3557 : : }
3558 : :
3559 : : /* And if we additionally have the same mode for a register. */
3560 : 210 : else if (REG_P (target)
3561 : 0 : && GET_MODE (target) == mode
3562 : 210 : && bytes == GET_MODE_SIZE (mode))
3563 : : {
3564 : 0 : emit_move_insn (target, srcreg);
3565 : 0 : return;
3566 : : }
3567 : :
3568 : : /* This code assumes srcreg is at least a full word. If it isn't, copy it
3569 : : into a new pseudo which is a full word. */
3570 : 420 : if (GET_MODE_SIZE (mode) < UNITS_PER_WORD)
3571 : : {
3572 : 77 : srcreg = convert_to_mode (word_mode, srcreg, TYPE_UNSIGNED (type));
3573 : 77 : mode = word_mode;
3574 : : }
3575 : :
3576 : : /* Copy the structure BITSIZE bits at a time. If the target lives in
3577 : : memory, take care of not reading/writing past its end by selecting
3578 : : a copy mode suited to BITSIZE. This should always be possible given
3579 : : how it is computed.
3580 : :
3581 : : If the target lives in register, make sure not to select a copy mode
3582 : : larger than the mode of the register.
3583 : :
3584 : : We could probably emit more efficient code for machines which do not use
3585 : : strict alignment, but it doesn't seem worth the effort at the current
3586 : : time. */
3587 : :
3588 : 210 : copy_mode = word_mode;
3589 : 210 : if (MEM_P (target))
3590 : : {
3591 : 210 : opt_scalar_int_mode mem_mode = int_mode_for_size (bitsize, 1);
3592 : 210 : if (mem_mode.exists ())
3593 : 210 : copy_mode = mem_mode.require ();
3594 : : }
3595 : 0 : else if (REG_P (target) && GET_MODE_BITSIZE (tmode) < BITS_PER_WORD)
3596 : : copy_mode = tmode;
3597 : :
3598 : 210 : for (bitpos = 0, xbitpos = padding_correction;
3599 : 1029 : bitpos < bytes * BITS_PER_UNIT;
3600 : 819 : bitpos += bitsize, xbitpos += bitsize)
3601 : : {
3602 : : /* We need a new source operand each time xbitpos is on a
3603 : : word boundary and when xbitpos == padding_correction
3604 : : (the first time through). */
3605 : 819 : if (xbitpos % BITS_PER_WORD == 0 || xbitpos == padding_correction)
3606 : 210 : src = operand_subword_force (srcreg, xbitpos / BITS_PER_WORD, mode);
3607 : :
3608 : : /* We need a new destination operand each time bitpos is on
3609 : : a word boundary. */
3610 : 819 : if (REG_P (target) && GET_MODE_BITSIZE (tmode) < BITS_PER_WORD)
3611 : : dst = target;
3612 : 819 : else if (bitpos % BITS_PER_WORD == 0)
3613 : 210 : dst = operand_subword (target, bitpos / BITS_PER_WORD, 1, tmode);
3614 : :
3615 : : /* Use xbitpos for the source extraction (right justified) and
3616 : : bitpos for the destination store (left justified). */
3617 : 819 : store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, 0, 0, copy_mode,
3618 : 819 : extract_bit_field (src, bitsize,
3619 : 819 : xbitpos % BITS_PER_WORD, 1,
3620 : : NULL_RTX, copy_mode, copy_mode,
3621 : : false, NULL),
3622 : : false, false);
3623 : : }
3624 : : }
3625 : :
3626 : : /* Copy BLKmode value SRC into a register of mode MODE_IN. Return the
3627 : : register if it contains any data, otherwise return null.
3628 : :
3629 : : This is used on targets that return BLKmode values in registers. */
3630 : :
3631 : : rtx
3632 : 3225 : copy_blkmode_to_reg (machine_mode mode_in, tree src)
3633 : : {
3634 : 3225 : int i, n_regs;
3635 : 3225 : unsigned HOST_WIDE_INT bitpos, xbitpos, padding_correction = 0, bytes;
3636 : 3225 : unsigned int bitsize;
3637 : 3225 : rtx *dst_words, dst, x, src_word = NULL_RTX, dst_word = NULL_RTX;
3638 : : /* No current ABI uses variable-sized modes to pass a BLKmnode type. */
3639 : 3225 : fixed_size_mode mode = as_a <fixed_size_mode> (mode_in);
3640 : 3225 : fixed_size_mode dst_mode;
3641 : 3225 : scalar_int_mode min_mode;
3642 : :
3643 : 3225 : gcc_assert (TYPE_MODE (TREE_TYPE (src)) == BLKmode);
3644 : :
3645 : 3225 : x = expand_normal (src);
3646 : :
3647 : 3225 : bytes = arg_int_size_in_bytes (TREE_TYPE (src));
3648 : 3225 : if (bytes == 0)
3649 : : return NULL_RTX;
3650 : :
3651 : : /* If the structure doesn't take up a whole number of words, see
3652 : : whether the register value should be padded on the left or on
3653 : : the right. Set PADDING_CORRECTION to the number of padding
3654 : : bits needed on the left side.
3655 : :
3656 : : In most ABIs, the structure will be returned at the least end of
3657 : : the register, which translates to right padding on little-endian
3658 : : targets and left padding on big-endian targets. The opposite
3659 : : holds if the structure is returned at the most significant
3660 : : end of the register. */
3661 : 1220 : if (bytes % UNITS_PER_WORD != 0
3662 : 1220 : && (targetm.calls.return_in_msb (TREE_TYPE (src))
3663 : 1185 : ? !BYTES_BIG_ENDIAN
3664 : : : BYTES_BIG_ENDIAN))
3665 : 0 : padding_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
3666 : 0 : * BITS_PER_UNIT));
3667 : :
3668 : 1220 : n_regs = (bytes + UNITS_PER_WORD - 1) / UNITS_PER_WORD;
3669 : 1220 : dst_words = XALLOCAVEC (rtx, n_regs);
3670 : 1220 : bitsize = MIN (TYPE_ALIGN (TREE_TYPE (src)), BITS_PER_WORD);
3671 : 1220 : min_mode = smallest_int_mode_for_size (bitsize).require ();
3672 : :
3673 : : /* Copy the structure BITSIZE bits at a time. */
3674 : 1220 : for (bitpos = 0, xbitpos = padding_correction;
3675 : 3963 : bitpos < bytes * BITS_PER_UNIT;
3676 : 2743 : bitpos += bitsize, xbitpos += bitsize)
3677 : : {
3678 : : /* We need a new destination pseudo each time xbitpos is
3679 : : on a word boundary and when xbitpos == padding_correction
3680 : : (the first time through). */
3681 : 2743 : if (xbitpos % BITS_PER_WORD == 0
3682 : 1520 : || xbitpos == padding_correction)
3683 : : {
3684 : : /* Generate an appropriate register. */
3685 : 1223 : dst_word = gen_reg_rtx (word_mode);
3686 : 1223 : dst_words[xbitpos / BITS_PER_WORD] = dst_word;
3687 : :
3688 : : /* Clear the destination before we move anything into it. */
3689 : 1223 : emit_move_insn (dst_word, CONST0_RTX (word_mode));
3690 : : }
3691 : :
3692 : : /* Find the largest integer mode that can be used to copy all or as
3693 : : many bits as possible of the structure if the target supports larger
3694 : : copies. There are too many corner cases here w.r.t to alignments on
3695 : : the read/writes. So if there is any padding just use single byte
3696 : : operations. */
3697 : 2743 : opt_scalar_int_mode mode_iter;
3698 : 2743 : if (padding_correction == 0 && !STRICT_ALIGNMENT)
3699 : : {
3700 : 7467 : FOR_EACH_MODE_FROM (mode_iter, min_mode)
3701 : : {
3702 : 7467 : unsigned int msize = GET_MODE_BITSIZE (mode_iter.require ());
3703 : 7467 : if (msize <= ((bytes * BITS_PER_UNIT) - bitpos)
3704 : 4727 : && msize <= BITS_PER_WORD)
3705 : 4724 : bitsize = msize;
3706 : : else
3707 : : break;
3708 : : }
3709 : : }
3710 : :
3711 : : /* We need a new source operand each time bitpos is on a word
3712 : : boundary. */
3713 : 2743 : if (bitpos % BITS_PER_WORD == 0)
3714 : 1223 : src_word = operand_subword_force (x, bitpos / BITS_PER_WORD, BLKmode);
3715 : :
3716 : : /* Use bitpos for the source extraction (left justified) and
3717 : : xbitpos for the destination store (right justified). */
3718 : 2743 : store_bit_field (dst_word, bitsize, xbitpos % BITS_PER_WORD,
3719 : 2743 : 0, 0, word_mode,
3720 : 2743 : extract_bit_field (src_word, bitsize,
3721 : 2743 : bitpos % BITS_PER_WORD, 1,
3722 : : NULL_RTX, word_mode, word_mode,
3723 : : false, NULL),
3724 : : false, false);
3725 : : }
3726 : :
3727 : 1220 : if (mode == BLKmode)
3728 : : {
3729 : : /* Find the smallest integer mode large enough to hold the
3730 : : entire structure. */
3731 : 0 : opt_scalar_int_mode mode_iter;
3732 : 0 : FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
3733 : 0 : if (GET_MODE_SIZE (mode_iter.require ()) >= bytes)
3734 : : break;
3735 : :
3736 : : /* A suitable mode should have been found. */
3737 : 0 : mode = mode_iter.require ();
3738 : : }
3739 : :
3740 : 3660 : if (GET_MODE_SIZE (mode) < GET_MODE_SIZE (word_mode))
3741 : : dst_mode = word_mode;
3742 : : else
3743 : 494 : dst_mode = mode;
3744 : 1220 : dst = gen_reg_rtx (dst_mode);
3745 : :
3746 : 3663 : for (i = 0; i < n_regs; i++)
3747 : 1223 : emit_move_insn (operand_subword (dst, i, 0, dst_mode), dst_words[i]);
3748 : :
3749 : 1220 : if (mode != dst_mode)
3750 : 726 : dst = gen_lowpart (mode, dst);
3751 : :
3752 : : return dst;
3753 : : }
3754 : :
3755 : : /* Add a USE expression for REG to the (possibly empty) list pointed
3756 : : to by CALL_FUSAGE. REG must denote a hard register. */
3757 : :
3758 : : void
3759 : 10717277 : use_reg_mode (rtx *call_fusage, rtx reg, machine_mode mode)
3760 : : {
3761 : 10717277 : gcc_assert (REG_P (reg));
3762 : :
3763 : 10717277 : if (!HARD_REGISTER_P (reg))
3764 : : return;
3765 : :
3766 : 10717277 : *call_fusage
3767 : 10717277 : = gen_rtx_EXPR_LIST (mode, gen_rtx_USE (VOIDmode, reg), *call_fusage);
3768 : : }
3769 : :
3770 : : /* Add a CLOBBER expression for REG to the (possibly empty) list pointed
3771 : : to by CALL_FUSAGE. REG must denote a hard register. */
3772 : :
3773 : : void
3774 : 797463 : clobber_reg_mode (rtx *call_fusage, rtx reg, machine_mode mode)
3775 : : {
3776 : 797463 : gcc_assert (REG_P (reg) && REGNO (reg) < FIRST_PSEUDO_REGISTER);
3777 : :
3778 : 797463 : *call_fusage
3779 : 797463 : = gen_rtx_EXPR_LIST (mode, gen_rtx_CLOBBER (VOIDmode, reg), *call_fusage);
3780 : 797463 : }
3781 : :
3782 : : /* Add USE expressions to *CALL_FUSAGE for each of NREGS consecutive regs,
3783 : : starting at REGNO. All of these registers must be hard registers. */
3784 : :
3785 : : void
3786 : 1574 : use_regs (rtx *call_fusage, int regno, int nregs)
3787 : : {
3788 : 1574 : int i;
3789 : :
3790 : 1574 : gcc_assert (regno + nregs <= FIRST_PSEUDO_REGISTER);
3791 : :
3792 : 3148 : for (i = 0; i < nregs; i++)
3793 : 1574 : use_reg (call_fusage, regno_reg_rtx[regno + i]);
3794 : 1574 : }
3795 : :
3796 : : /* Add USE expressions to *CALL_FUSAGE for each REG contained in the
3797 : : PARALLEL REGS. This is for calls that pass values in multiple
3798 : : non-contiguous locations. The Irix 6 ABI has examples of this. */
3799 : :
3800 : : void
3801 : 264225 : use_group_regs (rtx *call_fusage, rtx regs)
3802 : : {
3803 : 264225 : int i;
3804 : :
3805 : 783984 : for (i = 0; i < XVECLEN (regs, 0); i++)
3806 : : {
3807 : 519759 : rtx reg = XEXP (XVECEXP (regs, 0, i), 0);
3808 : :
3809 : : /* A NULL entry means the parameter goes both on the stack and in
3810 : : registers. This can also be a MEM for targets that pass values
3811 : : partially on the stack and partially in registers. */
3812 : 519759 : if (reg != 0 && REG_P (reg))
3813 : 519759 : use_reg (call_fusage, reg);
3814 : : }
3815 : 264225 : }
3816 : :
3817 : : /* Return the defining gimple statement for SSA_NAME NAME if it is an
3818 : : assigment and the code of the expresion on the RHS is CODE. Return
3819 : : NULL otherwise. */
3820 : :
3821 : : static gimple *
3822 : 10582671 : get_def_for_expr (tree name, enum tree_code code)
3823 : : {
3824 : 10582671 : gimple *def_stmt;
3825 : :
3826 : 10582671 : if (TREE_CODE (name) != SSA_NAME)
3827 : : return NULL;
3828 : :
3829 : 8404303 : def_stmt = get_gimple_for_ssa_name (name);
3830 : 8404303 : if (!def_stmt
3831 : 1831975 : || !is_gimple_assign (def_stmt)
3832 : 10235003 : || gimple_assign_rhs_code (def_stmt) != code)
3833 : : return NULL;
3834 : :
3835 : : return def_stmt;
3836 : : }
3837 : :
3838 : : /* Return the defining gimple statement for SSA_NAME NAME if it is an
3839 : : assigment and the class of the expresion on the RHS is CLASS. Return
3840 : : NULL otherwise. */
3841 : :
3842 : : static gimple *
3843 : 15784 : get_def_for_expr_class (tree name, enum tree_code_class tclass)
3844 : : {
3845 : 15784 : gimple *def_stmt;
3846 : :
3847 : 15784 : if (TREE_CODE (name) != SSA_NAME)
3848 : : return NULL;
3849 : :
3850 : 15784 : def_stmt = get_gimple_for_ssa_name (name);
3851 : 15784 : if (!def_stmt
3852 : 13672 : || !is_gimple_assign (def_stmt)
3853 : 29456 : || TREE_CODE_CLASS (gimple_assign_rhs_code (def_stmt)) != tclass)
3854 : : return NULL;
3855 : :
3856 : : return def_stmt;
3857 : : }
3858 : :
3859 : : /* Write zeros through the storage of OBJECT. If OBJECT has BLKmode, SIZE is
3860 : : its length in bytes. */
3861 : :
3862 : : rtx
3863 : 123730 : clear_storage_hints (rtx object, rtx size, enum block_op_methods method,
3864 : : unsigned int expected_align, HOST_WIDE_INT expected_size,
3865 : : unsigned HOST_WIDE_INT min_size,
3866 : : unsigned HOST_WIDE_INT max_size,
3867 : : unsigned HOST_WIDE_INT probable_max_size,
3868 : : unsigned ctz_size)
3869 : : {
3870 : 123730 : machine_mode mode = GET_MODE (object);
3871 : 123730 : unsigned int align;
3872 : :
3873 : 123730 : gcc_assert (method == BLOCK_OP_NORMAL || method == BLOCK_OP_TAILCALL);
3874 : :
3875 : : /* If OBJECT is not BLKmode and SIZE is the same size as its mode,
3876 : : just move a zero. Otherwise, do this a piece at a time. */
3877 : 123730 : poly_int64 size_val;
3878 : 123730 : if (mode != BLKmode
3879 : 53764 : && poly_int_rtx_p (size, &size_val)
3880 : 177494 : && known_eq (size_val, GET_MODE_SIZE (mode)))
3881 : : {
3882 : 53764 : rtx zero = CONST0_RTX (mode);
3883 : 53764 : if (zero != NULL)
3884 : : {
3885 : 53764 : emit_move_insn (object, zero);
3886 : 53764 : return NULL;
3887 : : }
3888 : :
3889 : 0 : if (COMPLEX_MODE_P (mode))
3890 : : {
3891 : 0 : zero = CONST0_RTX (GET_MODE_INNER (mode));
3892 : 0 : if (zero != NULL)
3893 : : {
3894 : 0 : write_complex_part (object, zero, 0, true);
3895 : 0 : write_complex_part (object, zero, 1, false);
3896 : 0 : return NULL;
3897 : : }
3898 : : }
3899 : : }
3900 : :
3901 : 69966 : if (size == const0_rtx)
3902 : : return NULL;
3903 : :
3904 : 69966 : align = MEM_ALIGN (object);
3905 : :
3906 : 69966 : if (CONST_INT_P (size)
3907 : 133474 : && targetm.use_by_pieces_infrastructure_p (INTVAL (size), align,
3908 : : CLEAR_BY_PIECES,
3909 : 63508 : optimize_insn_for_speed_p ()))
3910 : 44690 : clear_by_pieces (object, INTVAL (size), align);
3911 : 25276 : else if (set_storage_via_setmem (object, size, const0_rtx, align,
3912 : : expected_align, expected_size,
3913 : : min_size, max_size, probable_max_size))
3914 : : ;
3915 : 5296 : else if (try_store_by_multiple_pieces (object, size, ctz_size,
3916 : : min_size, max_size,
3917 : : NULL_RTX, 0, align))
3918 : : ;
3919 : 5241 : else if (ADDR_SPACE_GENERIC_P (MEM_ADDR_SPACE (object)))
3920 : 5241 : return set_storage_via_libcall (object, size, const0_rtx,
3921 : 5241 : method == BLOCK_OP_TAILCALL);
3922 : : else
3923 : 0 : gcc_unreachable ();
3924 : :
3925 : : return NULL;
3926 : : }
3927 : :
3928 : : rtx
3929 : 103328 : clear_storage (rtx object, rtx size, enum block_op_methods method)
3930 : : {
3931 : 103328 : unsigned HOST_WIDE_INT max, min = 0;
3932 : 103328 : if (GET_CODE (size) == CONST_INT)
3933 : 103328 : min = max = UINTVAL (size);
3934 : : else
3935 : 0 : max = GET_MODE_MASK (GET_MODE (size));
3936 : 103328 : return clear_storage_hints (object, size, method, 0, -1, min, max, max, 0);
3937 : : }
3938 : :
3939 : :
3940 : : /* A subroutine of clear_storage. Expand a call to memset.
3941 : : Return the return value of memset, 0 otherwise. */
3942 : :
3943 : : rtx
3944 : 5245 : set_storage_via_libcall (rtx object, rtx size, rtx val, bool tailcall)
3945 : : {
3946 : 5245 : tree call_expr, fn, object_tree, size_tree, val_tree;
3947 : 5245 : machine_mode size_mode;
3948 : :
3949 : 5245 : object = copy_addr_to_reg (XEXP (object, 0));
3950 : 5245 : object_tree = make_tree (ptr_type_node, object);
3951 : :
3952 : 5245 : if (!CONST_INT_P (val))
3953 : 3 : val = convert_to_mode (TYPE_MODE (integer_type_node), val, 1);
3954 : 5245 : val_tree = make_tree (integer_type_node, val);
3955 : :
3956 : 5245 : size_mode = TYPE_MODE (sizetype);
3957 : 5245 : size = convert_to_mode (size_mode, size, 1);
3958 : 5245 : size = copy_to_mode_reg (size_mode, size);
3959 : 5245 : size_tree = make_tree (sizetype, size);
3960 : :
3961 : : /* It is incorrect to use the libcall calling conventions for calls to
3962 : : memset because it can be provided by the user. */
3963 : 5245 : fn = builtin_decl_implicit (BUILT_IN_MEMSET);
3964 : 5245 : call_expr = build_call_expr (fn, 3, object_tree, val_tree, size_tree);
3965 : 5245 : CALL_EXPR_TAILCALL (call_expr) = tailcall;
3966 : :
3967 : 5245 : return expand_call (call_expr, NULL_RTX, false);
3968 : : }
3969 : :
3970 : : /* Expand a setmem pattern; return true if successful. */
3971 : :
3972 : : bool
3973 : 33045 : set_storage_via_setmem (rtx object, rtx size, rtx val, unsigned int align,
3974 : : unsigned int expected_align, HOST_WIDE_INT expected_size,
3975 : : unsigned HOST_WIDE_INT min_size,
3976 : : unsigned HOST_WIDE_INT max_size,
3977 : : unsigned HOST_WIDE_INT probable_max_size)
3978 : : {
3979 : : /* Try the most limited insn first, because there's no point
3980 : : including more than one in the machine description unless
3981 : : the more limited one has some advantage. */
3982 : :
3983 : 33045 : if (expected_align < align)
3984 : : expected_align = align;
3985 : 33045 : if (expected_size != -1)
3986 : : {
3987 : 5 : if ((unsigned HOST_WIDE_INT)expected_size > max_size)
3988 : 0 : expected_size = max_size;
3989 : 5 : if ((unsigned HOST_WIDE_INT)expected_size < min_size)
3990 : 0 : expected_size = min_size;
3991 : : }
3992 : :
3993 : 33045 : opt_scalar_int_mode mode_iter;
3994 : 155741 : FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
3995 : : {
3996 : 144557 : scalar_int_mode mode = mode_iter.require ();
3997 : 144557 : enum insn_code code = direct_optab_handler (setmem_optab, mode);
3998 : :
3999 : 144557 : if (code != CODE_FOR_nothing
4000 : : /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
4001 : : here because if SIZE is less than the mode mask, as it is
4002 : : returned by the macro, it will definitely be less than the
4003 : : actual mode mask. Since SIZE is within the Pmode address
4004 : : space, we limit MODE to Pmode. */
4005 : 144557 : && ((CONST_INT_P (size)
4006 : 20079 : && ((unsigned HOST_WIDE_INT) INTVAL (size)
4007 : 20079 : <= (GET_MODE_MASK (mode) >> 1)))
4008 : 23915 : || max_size <= (GET_MODE_MASK (mode) >> 1)
4009 : 30952 : || GET_MODE_BITSIZE (mode) >= GET_MODE_BITSIZE (Pmode)))
4010 : : {
4011 : 34159 : class expand_operand ops[9];
4012 : 34159 : unsigned int nops;
4013 : :
4014 : 34159 : nops = insn_data[(int) code].n_generator_args;
4015 : 34159 : gcc_assert (nops == 4 || nops == 6 || nops == 8 || nops == 9);
4016 : :
4017 : 34159 : create_fixed_operand (&ops[0], object);
4018 : : /* The check above guarantees that this size conversion is valid. */
4019 : 34159 : create_convert_operand_to (&ops[1], size, mode, true);
4020 : 34159 : create_convert_operand_from (&ops[2], val, byte_mode, true);
4021 : 34159 : create_integer_operand (&ops[3], align / BITS_PER_UNIT);
4022 : 34159 : if (nops >= 6)
4023 : : {
4024 : 34159 : create_integer_operand (&ops[4], expected_align / BITS_PER_UNIT);
4025 : 34159 : create_integer_operand (&ops[5], expected_size);
4026 : : }
4027 : 34159 : if (nops >= 8)
4028 : : {
4029 : 34159 : create_integer_operand (&ops[6], min_size);
4030 : : /* If we cannot represent the maximal size,
4031 : : make parameter NULL. */
4032 : 34159 : if ((HOST_WIDE_INT) max_size != -1)
4033 : 29548 : create_integer_operand (&ops[7], max_size);
4034 : : else
4035 : 4611 : create_fixed_operand (&ops[7], NULL);
4036 : : }
4037 : 34159 : if (nops == 9)
4038 : : {
4039 : : /* If we cannot represent the maximal size,
4040 : : make parameter NULL. */
4041 : 34159 : if ((HOST_WIDE_INT) probable_max_size != -1)
4042 : 29707 : create_integer_operand (&ops[8], probable_max_size);
4043 : : else
4044 : 4452 : create_fixed_operand (&ops[8], NULL);
4045 : : }
4046 : 34159 : if (maybe_expand_insn (code, nops, ops))
4047 : 21861 : return true;
4048 : : }
4049 : : }
4050 : :
4051 : : return false;
4052 : : }
4053 : :
4054 : :
4055 : : /* Write to one of the components of the complex value CPLX. Write VAL to
4056 : : the real part if IMAG_P is false, and the imaginary part if its true.
4057 : : If UNDEFINED_P then the value in CPLX is currently undefined. */
4058 : :
4059 : : void
4060 : 484395 : write_complex_part (rtx cplx, rtx val, bool imag_p, bool undefined_p)
4061 : : {
4062 : 484395 : machine_mode cmode;
4063 : 484395 : scalar_mode imode;
4064 : 484395 : unsigned ibitsize;
4065 : :
4066 : 484395 : if (GET_CODE (cplx) == CONCAT)
4067 : : {
4068 : 428965 : emit_move_insn (XEXP (cplx, imag_p), val);
4069 : 428965 : return;
4070 : : }
4071 : :
4072 : 55430 : cmode = GET_MODE (cplx);
4073 : 55430 : imode = GET_MODE_INNER (cmode);
4074 : 55430 : ibitsize = GET_MODE_BITSIZE (imode);
4075 : :
4076 : : /* For MEMs simplify_gen_subreg may generate an invalid new address
4077 : : because, e.g., the original address is considered mode-dependent
4078 : : by the target, which restricts simplify_subreg from invoking
4079 : : adjust_address_nv. Instead of preparing fallback support for an
4080 : : invalid address, we call adjust_address_nv directly. */
4081 : 55430 : if (MEM_P (cplx))
4082 : : {
4083 : 66348 : emit_move_insn (adjust_address_nv (cplx, imode,
4084 : : imag_p ? GET_MODE_SIZE (imode) : 0),
4085 : : val);
4086 : 44232 : return;
4087 : : }
4088 : :
4089 : : /* If the sub-object is at least word sized, then we know that subregging
4090 : : will work. This special case is important, since store_bit_field
4091 : : wants to operate on integer modes, and there's rarely an OImode to
4092 : : correspond to TCmode. */
4093 : 11198 : if (ibitsize >= BITS_PER_WORD
4094 : : /* For hard regs we have exact predicates. Assume we can split
4095 : : the original object if it spans an even number of hard regs.
4096 : : This special case is important for SCmode on 64-bit platforms
4097 : : where the natural size of floating-point regs is 32-bit. */
4098 : 11198 : || (REG_P (cplx)
4099 : 7304 : && REGNO (cplx) < FIRST_PSEUDO_REGISTER
4100 : 7120 : && REG_NREGS (cplx) % 2 == 0))
4101 : : {
4102 : 3910 : rtx part = simplify_gen_subreg (imode, cplx, cmode,
4103 : 5865 : imag_p ? GET_MODE_SIZE (imode) : 0);
4104 : 3910 : if (part)
4105 : : {
4106 : 3910 : emit_move_insn (part, val);
4107 : 3910 : return;
4108 : : }
4109 : : else
4110 : : /* simplify_gen_subreg may fail for sub-word MEMs. */
4111 : 0 : gcc_assert (MEM_P (cplx) && ibitsize < BITS_PER_WORD);
4112 : : }
4113 : :
4114 : 10932 : store_bit_field (cplx, ibitsize, imag_p ? ibitsize : 0, 0, 0, imode, val,
4115 : : false, undefined_p);
4116 : : }
4117 : :
4118 : : /* Extract one of the components of the complex value CPLX. Extract the
4119 : : real part if IMAG_P is false, and the imaginary part if it's true. */
4120 : :
4121 : : rtx
4122 : 490712 : read_complex_part (rtx cplx, bool imag_p)
4123 : : {
4124 : 490712 : machine_mode cmode;
4125 : 490712 : scalar_mode imode;
4126 : 490712 : unsigned ibitsize;
4127 : :
4128 : 490712 : if (GET_CODE (cplx) == CONCAT)
4129 : 315070 : return XEXP (cplx, imag_p);
4130 : :
4131 : 175642 : cmode = GET_MODE (cplx);
4132 : 175642 : imode = GET_MODE_INNER (cmode);
4133 : 175642 : ibitsize = GET_MODE_BITSIZE (imode);
4134 : :
4135 : : /* Special case reads from complex constants that got spilled to memory. */
4136 : 175642 : if (MEM_P (cplx) && GET_CODE (XEXP (cplx, 0)) == SYMBOL_REF)
4137 : : {
4138 : 37829 : tree decl = SYMBOL_REF_DECL (XEXP (cplx, 0));
4139 : 37829 : if (decl && TREE_CODE (decl) == COMPLEX_CST)
4140 : : {
4141 : 0 : tree part = imag_p ? TREE_IMAGPART (decl) : TREE_REALPART (decl);
4142 : 0 : if (CONSTANT_CLASS_P (part))
4143 : 0 : return expand_expr (part, NULL_RTX, imode, EXPAND_NORMAL);
4144 : : }
4145 : : }
4146 : :
4147 : : /* For MEMs simplify_gen_subreg may generate an invalid new address
4148 : : because, e.g., the original address is considered mode-dependent
4149 : : by the target, which restricts simplify_subreg from invoking
4150 : : adjust_address_nv. Instead of preparing fallback support for an
4151 : : invalid address, we call adjust_address_nv directly. */
4152 : 175642 : if (MEM_P (cplx))
4153 : 235599 : return adjust_address_nv (cplx, imode,
4154 : : imag_p ? GET_MODE_SIZE (imode) : 0);
4155 : :
4156 : : /* If the sub-object is at least word sized, then we know that subregging
4157 : : will work. This special case is important, since extract_bit_field
4158 : : wants to operate on integer modes, and there's rarely an OImode to
4159 : : correspond to TCmode. */
4160 : 18425 : if (ibitsize >= BITS_PER_WORD
4161 : : /* For hard regs we have exact predicates. Assume we can split
4162 : : the original object if it spans an even number of hard regs.
4163 : : This special case is important for SCmode on 64-bit platforms
4164 : : where the natural size of floating-point regs is 32-bit. */
4165 : 18425 : || (REG_P (cplx)
4166 : 338 : && REGNO (cplx) < FIRST_PSEUDO_REGISTER
4167 : 292 : && REG_NREGS (cplx) % 2 == 0))
4168 : : {
4169 : 9173 : rtx ret = simplify_gen_subreg (imode, cplx, cmode,
4170 : 13759 : imag_p ? GET_MODE_SIZE (imode) : 0);
4171 : 9173 : if (ret)
4172 : : return ret;
4173 : : else
4174 : : /* simplify_gen_subreg may fail for sub-word MEMs. */
4175 : 0 : gcc_assert (MEM_P (cplx) && ibitsize < BITS_PER_WORD);
4176 : : }
4177 : :
4178 : 13878 : return extract_bit_field (cplx, ibitsize, imag_p ? ibitsize : 0,
4179 : : true, NULL_RTX, imode, imode, false, NULL);
4180 : : }
4181 : :
4182 : : /* A subroutine of emit_move_insn_1. Yet another lowpart generator.
4183 : : NEW_MODE and OLD_MODE are the same size. Return NULL if X cannot be
4184 : : represented in NEW_MODE. If FORCE is true, this will never happen, as
4185 : : we'll force-create a SUBREG if needed. */
4186 : :
4187 : : static rtx
4188 : 243040 : emit_move_change_mode (machine_mode new_mode,
4189 : : machine_mode old_mode, rtx x, bool force)
4190 : : {
4191 : 243040 : rtx ret;
4192 : :
4193 : 243040 : if (push_operand (x, GET_MODE (x)))
4194 : : {
4195 : 1318 : ret = gen_rtx_MEM (new_mode, XEXP (x, 0));
4196 : 1318 : MEM_COPY_ATTRIBUTES (ret, x);
4197 : : }
4198 : 241722 : else if (MEM_P (x))
4199 : : {
4200 : : /* We don't have to worry about changing the address since the
4201 : : size in bytes is supposed to be the same. */
4202 : 52949 : if (reload_in_progress)
4203 : : {
4204 : : /* Copy the MEM to change the mode and move any
4205 : : substitutions from the old MEM to the new one. */
4206 : 0 : ret = adjust_address_nv (x, new_mode, 0);
4207 : 0 : copy_replacements (x, ret);
4208 : : }
4209 : : else
4210 : 52949 : ret = adjust_address (x, new_mode, 0);
4211 : : }
4212 : : else
4213 : : {
4214 : : /* Note that we do want simplify_subreg's behavior of validating
4215 : : that the new mode is ok for a hard register. If we were to use
4216 : : simplify_gen_subreg, we would create the subreg, but would
4217 : : probably run into the target not being able to implement it. */
4218 : : /* Except, of course, when FORCE is true, when this is exactly what
4219 : : we want. Which is needed for CCmodes on some targets. */
4220 : 188773 : if (force)
4221 : 188773 : ret = simplify_gen_subreg (new_mode, x, old_mode, 0);
4222 : : else
4223 : 0 : ret = simplify_subreg (new_mode, x, old_mode, 0);
4224 : : }
4225 : :
4226 : 243040 : return ret;
4227 : : }
4228 : :
4229 : : /* A subroutine of emit_move_insn_1. Generate a move from Y into X using
4230 : : an integer mode of the same size as MODE. Returns the instruction
4231 : : emitted, or NULL if such a move could not be generated. */
4232 : :
4233 : : static rtx_insn *
4234 : 121520 : emit_move_via_integer (machine_mode mode, rtx x, rtx y, bool force)
4235 : : {
4236 : 121520 : scalar_int_mode imode;
4237 : 121520 : enum insn_code code;
4238 : :
4239 : : /* There must exist a mode of the exact size we require. */
4240 : 121520 : if (!int_mode_for_mode (mode).exists (&imode))
4241 : 0 : return NULL;
4242 : :
4243 : : /* The target must support moves in this mode. */
4244 : 121520 : code = optab_handler (mov_optab, imode);
4245 : 121520 : if (code == CODE_FOR_nothing)
4246 : : return NULL;
4247 : :
4248 : 121520 : x = emit_move_change_mode (imode, mode, x, force);
4249 : 121520 : if (x == NULL_RTX)
4250 : : return NULL;
4251 : 121520 : y = emit_move_change_mode (imode, mode, y, force);
4252 : 121520 : if (y == NULL_RTX)
4253 : : return NULL;
4254 : 121520 : return emit_insn (GEN_FCN (code) (x, y));
4255 : : }
4256 : :
4257 : : /* A subroutine of emit_move_insn_1. X is a push_operand in MODE.
4258 : : Return an equivalent MEM that does not use an auto-increment. */
4259 : :
4260 : : rtx
4261 : 3593 : emit_move_resolve_push (machine_mode mode, rtx x)
4262 : : {
4263 : 3593 : enum rtx_code code = GET_CODE (XEXP (x, 0));
4264 : 3593 : rtx temp;
4265 : :
4266 : 7186 : poly_int64 adjust = GET_MODE_SIZE (mode);
4267 : : #ifdef PUSH_ROUNDING
4268 : 3593 : adjust = PUSH_ROUNDING (adjust);
4269 : : #endif
4270 : 3593 : if (code == PRE_DEC || code == POST_DEC)
4271 : 3197 : adjust = -adjust;
4272 : 396 : else if (code == PRE_MODIFY || code == POST_MODIFY)
4273 : : {
4274 : 396 : rtx expr = XEXP (XEXP (x, 0), 1);
4275 : :
4276 : 396 : gcc_assert (GET_CODE (expr) == PLUS || GET_CODE (expr) == MINUS);
4277 : 396 : poly_int64 val = rtx_to_poly_int64 (XEXP (expr, 1));
4278 : 396 : if (GET_CODE (expr) == MINUS)
4279 : 0 : val = -val;
4280 : 396 : gcc_assert (known_eq (adjust, val) || known_eq (adjust, -val));
4281 : : adjust = val;
4282 : : }
4283 : :
4284 : : /* Do not use anti_adjust_stack, since we don't want to update
4285 : : stack_pointer_delta. */
4286 : 3593 : temp = expand_simple_binop (Pmode, PLUS, stack_pointer_rtx,
4287 : 3593 : gen_int_mode (adjust, Pmode), stack_pointer_rtx,
4288 : : 0, OPTAB_LIB_WIDEN);
4289 : 3593 : if (temp != stack_pointer_rtx)
4290 : 0 : emit_move_insn (stack_pointer_rtx, temp);
4291 : :
4292 : 3593 : switch (code)
4293 : : {
4294 : 3593 : case PRE_INC:
4295 : 3593 : case PRE_DEC:
4296 : 3593 : case PRE_MODIFY:
4297 : 3593 : temp = stack_pointer_rtx;
4298 : 3593 : break;
4299 : : case POST_INC:
4300 : : case POST_DEC:
4301 : : case POST_MODIFY:
4302 : 0 : temp = plus_constant (Pmode, stack_pointer_rtx, -adjust);
4303 : 0 : break;
4304 : 0 : default:
4305 : 0 : gcc_unreachable ();
4306 : : }
4307 : :
4308 : 3593 : return replace_equiv_address (x, temp);
4309 : : }
4310 : :
4311 : : /* A subroutine of emit_move_complex. Generate a move from Y into X.
4312 : : X is known to satisfy push_operand, and MODE is known to be complex.
4313 : : Returns the last instruction emitted. */
4314 : :
4315 : : rtx_insn *
4316 : 5238 : emit_move_complex_push (machine_mode mode, rtx x, rtx y)
4317 : : {
4318 : 5238 : scalar_mode submode = GET_MODE_INNER (mode);
4319 : 5238 : bool imag_first;
4320 : :
4321 : : #ifdef PUSH_ROUNDING
4322 : 10476 : poly_int64 submodesize = GET_MODE_SIZE (submode);
4323 : :
4324 : : /* In case we output to the stack, but the size is smaller than the
4325 : : machine can push exactly, we need to use move instructions. */
4326 : 5238 : if (maybe_ne (PUSH_ROUNDING (submodesize), submodesize))
4327 : : {
4328 : 718 : x = emit_move_resolve_push (mode, x);
4329 : 718 : return emit_move_insn (x, y);
4330 : : }
4331 : : #endif
4332 : :
4333 : : /* Note that the real part always precedes the imag part in memory
4334 : : regardless of machine's endianness. */
4335 : 4520 : switch (GET_CODE (XEXP (x, 0)))
4336 : : {
4337 : : case PRE_DEC:
4338 : : case POST_DEC:
4339 : : imag_first = true;
4340 : : break;
4341 : 0 : case PRE_INC:
4342 : 0 : case POST_INC:
4343 : 0 : imag_first = false;
4344 : 0 : break;
4345 : 0 : default:
4346 : 0 : gcc_unreachable ();
4347 : : }
4348 : :
4349 : 4520 : emit_move_insn (gen_rtx_MEM (submode, XEXP (x, 0)),
4350 : : read_complex_part (y, imag_first));
4351 : 4520 : return emit_move_insn (gen_rtx_MEM (submode, XEXP (x, 0)),
4352 : 9040 : read_complex_part (y, !imag_first));
4353 : : }
4354 : :
4355 : : /* A subroutine of emit_move_complex. Perform the move from Y to X
4356 : : via two moves of the parts. Returns the last instruction emitted. */
4357 : :
4358 : : rtx_insn *
4359 : 76433 : emit_move_complex_parts (rtx x, rtx y)
4360 : : {
4361 : : /* Show the output dies here. This is necessary for SUBREGs
4362 : : of pseudos since we cannot track their lifetimes correctly;
4363 : : hard regs shouldn't appear here except as return values. */
4364 : 76433 : if (!reload_completed && !reload_in_progress
4365 : 152866 : && REG_P (x) && !reg_overlap_mentioned_p (x, y))
4366 : 5592 : emit_clobber (x);
4367 : :
4368 : 76433 : write_complex_part (x, read_complex_part (y, false), false, true);
4369 : 76433 : write_complex_part (x, read_complex_part (y, true), true, false);
4370 : :
4371 : 76433 : return get_last_insn ();
4372 : : }
4373 : :
4374 : : /* A subroutine of emit_move_insn_1. Generate a move from Y into X.
4375 : : MODE is known to be complex. Returns the last instruction emitted. */
4376 : :
4377 : : static rtx_insn *
4378 : 80668 : emit_move_complex (machine_mode mode, rtx x, rtx y)
4379 : : {
4380 : 80668 : bool try_int;
4381 : :
4382 : : /* Need to take special care for pushes, to maintain proper ordering
4383 : : of the data, and possibly extra padding. */
4384 : 80668 : if (push_operand (x, mode))
4385 : 4630 : return emit_move_complex_push (mode, x, y);
4386 : :
4387 : : /* See if we can coerce the target into moving both values at once, except
4388 : : for floating point where we favor moving as parts if this is easy. */
4389 : 76038 : if (GET_MODE_CLASS (mode) == MODE_COMPLEX_FLOAT
4390 : 67837 : && optab_handler (mov_optab, GET_MODE_INNER (mode)) != CODE_FOR_nothing
4391 : 67837 : && !(REG_P (x)
4392 : 1687 : && HARD_REGISTER_P (x)
4393 : 300 : && REG_NREGS (x) == 1)
4394 : 143875 : && !(REG_P (y)
4395 : 2778 : && HARD_REGISTER_P (y)
4396 : 1389 : && REG_NREGS (y) == 1))
4397 : : try_int = false;
4398 : : /* Not possible if the values are inherently not adjacent. */
4399 : 8201 : else if (GET_CODE (x) == CONCAT || GET_CODE (y) == CONCAT)
4400 : : try_int = false;
4401 : : /* Is possible if both are registers (or subregs of registers). */
4402 : 754 : else if (register_operand (x, mode) && register_operand (y, mode))
4403 : : try_int = true;
4404 : : /* If one of the operands is a memory, and alignment constraints
4405 : : are friendly enough, we may be able to do combined memory operations.
4406 : : We do not attempt this if Y is a constant because that combination is
4407 : : usually better with the by-parts thing below. */
4408 : 633 : else if ((MEM_P (x) ? !CONSTANT_P (y) : MEM_P (y))
4409 : : && (!STRICT_ALIGNMENT
4410 : : || get_mode_alignment (mode) == BIGGEST_ALIGNMENT))
4411 : : try_int = true;
4412 : : else
4413 : : try_int = false;
4414 : :
4415 : : if (try_int)
4416 : : {
4417 : 754 : rtx_insn *ret;
4418 : :
4419 : : /* For memory to memory moves, optimal behavior can be had with the
4420 : : existing block move logic. But use normal expansion if optimizing
4421 : : for size. */
4422 : 754 : if (MEM_P (x) && MEM_P (y))
4423 : : {
4424 : 724 : emit_block_move (x, y, gen_int_mode (GET_MODE_SIZE (mode), Pmode),
4425 : 359 : (optimize_insn_for_speed_p()
4426 : : ? BLOCK_OP_NO_LIBCALL : BLOCK_OP_NORMAL));
4427 : 359 : return get_last_insn ();
4428 : : }
4429 : :
4430 : 395 : ret = emit_move_via_integer (mode, x, y, true);
4431 : 395 : if (ret)
4432 : : return ret;
4433 : : }
4434 : :
4435 : 75284 : return emit_move_complex_parts (x, y);
4436 : : }
4437 : :
4438 : : /* A subroutine of emit_move_insn_1. Generate a move from Y into X.
4439 : : MODE is known to be MODE_CC. Returns the last instruction emitted. */
4440 : :
4441 : : static rtx_insn *
4442 : 0 : emit_move_ccmode (machine_mode mode, rtx x, rtx y)
4443 : : {
4444 : 0 : rtx_insn *ret;
4445 : :
4446 : : /* Assume all MODE_CC modes are equivalent; if we have movcc, use it. */
4447 : 0 : if (mode != CCmode)
4448 : : {
4449 : 0 : enum insn_code code = optab_handler (mov_optab, CCmode);
4450 : 0 : if (code != CODE_FOR_nothing)
4451 : : {
4452 : 0 : x = emit_move_change_mode (CCmode, mode, x, true);
4453 : 0 : y = emit_move_change_mode (CCmode, mode, y, true);
4454 : 0 : return emit_insn (GEN_FCN (code) (x, y));
4455 : : }
4456 : : }
4457 : :
4458 : : /* Otherwise, find the MODE_INT mode of the same width. */
4459 : 0 : ret = emit_move_via_integer (mode, x, y, false);
4460 : 0 : gcc_assert (ret != NULL);
4461 : : return ret;
4462 : : }
4463 : :
4464 : : /* Return true if word I of OP lies entirely in the
4465 : : undefined bits of a paradoxical subreg. */
4466 : :
4467 : : static bool
4468 : 0 : undefined_operand_subword_p (const_rtx op, int i)
4469 : : {
4470 : 0 : if (GET_CODE (op) != SUBREG)
4471 : : return false;
4472 : 0 : machine_mode innermostmode = GET_MODE (SUBREG_REG (op));
4473 : 0 : poly_int64 offset = i * UNITS_PER_WORD + subreg_memory_offset (op);
4474 : 0 : return (known_ge (offset, GET_MODE_SIZE (innermostmode))
4475 : 0 : || known_le (offset, -UNITS_PER_WORD));
4476 : : }
4477 : :
4478 : : /* A subroutine of emit_move_insn_1. Generate a move from Y into X.
4479 : : MODE is any multi-word or full-word mode that lacks a move_insn
4480 : : pattern. Note that you will get better code if you define such
4481 : : patterns, even if they must turn into multiple assembler instructions. */
4482 : :
4483 : : static rtx_insn *
4484 : 0 : emit_move_multi_word (machine_mode mode, rtx x, rtx y)
4485 : : {
4486 : 0 : rtx_insn *last_insn = 0;
4487 : 0 : rtx_insn *seq;
4488 : 0 : rtx inner;
4489 : 0 : bool need_clobber;
4490 : 0 : int i, mode_size;
4491 : :
4492 : : /* This function can only handle cases where the number of words is
4493 : : known at compile time. */
4494 : 0 : mode_size = GET_MODE_SIZE (mode).to_constant ();
4495 : 0 : gcc_assert (mode_size >= UNITS_PER_WORD);
4496 : :
4497 : : /* If X is a push on the stack, do the push now and replace
4498 : : X with a reference to the stack pointer. */
4499 : 0 : if (push_operand (x, mode))
4500 : 0 : x = emit_move_resolve_push (mode, x);
4501 : :
4502 : : /* If we are in reload, see if either operand is a MEM whose address
4503 : : is scheduled for replacement. */
4504 : 0 : if (reload_in_progress && MEM_P (x)
4505 : 0 : && (inner = find_replacement (&XEXP (x, 0))) != XEXP (x, 0))
4506 : 0 : x = replace_equiv_address_nv (x, inner);
4507 : 0 : if (reload_in_progress && MEM_P (y)
4508 : 0 : && (inner = find_replacement (&XEXP (y, 0))) != XEXP (y, 0))
4509 : 0 : y = replace_equiv_address_nv (y, inner);
4510 : :
4511 : 0 : start_sequence ();
4512 : :
4513 : 0 : need_clobber = false;
4514 : 0 : for (i = 0; i < CEIL (mode_size, UNITS_PER_WORD); i++)
4515 : : {
4516 : : /* Do not generate code for a move if it would go entirely
4517 : : to the non-existing bits of a paradoxical subreg. */
4518 : 0 : if (undefined_operand_subword_p (x, i))
4519 : 0 : continue;
4520 : :
4521 : 0 : rtx xpart = operand_subword (x, i, 1, mode);
4522 : 0 : rtx ypart;
4523 : :
4524 : : /* Do not generate code for a move if it would come entirely
4525 : : from the undefined bits of a paradoxical subreg. */
4526 : 0 : if (undefined_operand_subword_p (y, i))
4527 : 0 : continue;
4528 : :
4529 : 0 : ypart = operand_subword (y, i, 1, mode);
4530 : :
4531 : : /* If we can't get a part of Y, put Y into memory if it is a
4532 : : constant. Otherwise, force it into a register. Then we must
4533 : : be able to get a part of Y. */
4534 : 0 : if (ypart == 0 && CONSTANT_P (y))
4535 : : {
4536 : 0 : y = use_anchored_address (force_const_mem (mode, y));
4537 : 0 : ypart = operand_subword (y, i, 1, mode);
4538 : : }
4539 : 0 : else if (ypart == 0)
4540 : 0 : ypart = operand_subword_force (y, i, mode);
4541 : :
4542 : 0 : gcc_assert (xpart && ypart);
4543 : :
4544 : 0 : need_clobber |= (GET_CODE (xpart) == SUBREG);
4545 : :
4546 : 0 : last_insn = emit_move_insn (xpart, ypart);
4547 : : }
4548 : :
4549 : 0 : seq = get_insns ();
4550 : 0 : end_sequence ();
4551 : :
4552 : : /* Show the output dies here. This is necessary for SUBREGs
4553 : : of pseudos since we cannot track their lifetimes correctly;
4554 : : hard regs shouldn't appear here except as return values.
4555 : : We never want to emit such a clobber after reload. */
4556 : 0 : if (x != y
4557 : 0 : && ! (reload_in_progress || reload_completed)
4558 : 0 : && need_clobber != 0)
4559 : 0 : emit_clobber (x);
4560 : :
4561 : 0 : emit_insn (seq);
4562 : :
4563 : 0 : return last_insn;
4564 : : }
4565 : :
4566 : : /* Low level part of emit_move_insn.
4567 : : Called just like emit_move_insn, but assumes X and Y
4568 : : are basically valid. */
4569 : :
4570 : : rtx_insn *
4571 : 73844097 : emit_move_insn_1 (rtx x, rtx y)
4572 : : {
4573 : 73844097 : machine_mode mode = GET_MODE (x);
4574 : 73844097 : enum insn_code code;
4575 : :
4576 : 73844097 : gcc_assert ((unsigned int) mode < (unsigned int) MAX_MACHINE_MODE);
4577 : :
4578 : 73844097 : code = optab_handler (mov_optab, mode);
4579 : 73844097 : if (code != CODE_FOR_nothing)
4580 : 73642304 : return emit_insn (GEN_FCN (code) (x, y));
4581 : :
4582 : : /* Expand complex moves by moving real part and imag part. */
4583 : 201793 : if (COMPLEX_MODE_P (mode))
4584 : 80668 : return emit_move_complex (mode, x, y);
4585 : :
4586 : : if (GET_MODE_CLASS (mode) == MODE_DECIMAL_FLOAT
4587 : : || ALL_FIXED_POINT_MODE_P (mode))
4588 : : {
4589 : 121125 : rtx_insn *result = emit_move_via_integer (mode, x, y, true);
4590 : :
4591 : : /* If we can't find an integer mode, use multi words. */
4592 : 121125 : if (result)
4593 : : return result;
4594 : : else
4595 : 0 : return emit_move_multi_word (mode, x, y);
4596 : : }
4597 : :
4598 : : if (GET_MODE_CLASS (mode) == MODE_CC)
4599 : 0 : return emit_move_ccmode (mode, x, y);
4600 : :
4601 : : /* Try using a move pattern for the corresponding integer mode. This is
4602 : : only safe when simplify_subreg can convert MODE constants into integer
4603 : : constants. At present, it can only do this reliably if the value
4604 : : fits within a HOST_WIDE_INT. */
4605 : 0 : if (!CONSTANT_P (y)
4606 : 0 : || known_le (GET_MODE_BITSIZE (mode), HOST_BITS_PER_WIDE_INT))
4607 : : {
4608 : 0 : rtx_insn *ret = emit_move_via_integer (mode, x, y, lra_in_progress);
4609 : :
4610 : 0 : if (ret)
4611 : : {
4612 : 0 : if (! lra_in_progress || recog (PATTERN (ret), ret, 0) >= 0)
4613 : 0 : return ret;
4614 : : }
4615 : : }
4616 : :
4617 : 0 : return emit_move_multi_word (mode, x, y);
4618 : : }
4619 : :
4620 : : /* Generate code to copy Y into X.
4621 : : Both Y and X must have the same mode, except that
4622 : : Y can be a constant with VOIDmode.
4623 : : This mode cannot be BLKmode; use emit_block_move for that.
4624 : :
4625 : : Return the last instruction emitted. */
4626 : :
4627 : : rtx_insn *
4628 : 66592298 : emit_move_insn (rtx x, rtx y)
4629 : : {
4630 : 66592298 : machine_mode mode = GET_MODE (x);
4631 : 66592298 : rtx y_cst = NULL_RTX;
4632 : 66592298 : rtx_insn *last_insn;
4633 : 66592298 : rtx set;
4634 : :
4635 : 66592298 : gcc_assert (mode != BLKmode
4636 : : && (GET_MODE (y) == mode || GET_MODE (y) == VOIDmode));
4637 : :
4638 : : /* If we have a copy that looks like one of the following patterns:
4639 : : (set (subreg:M1 (reg:M2 ...)) (subreg:M1 (reg:M2 ...)))
4640 : : (set (subreg:M1 (reg:M2 ...)) (mem:M1 ADDR))
4641 : : (set (mem:M1 ADDR) (subreg:M1 (reg:M2 ...)))
4642 : : (set (subreg:M1 (reg:M2 ...)) (constant C))
4643 : : where mode M1 is equal in size to M2, try to detect whether the
4644 : : mode change involves an implicit round trip through memory.
4645 : : If so, see if we can avoid that by removing the subregs and
4646 : : doing the move in mode M2 instead. */
4647 : :
4648 : 66592298 : rtx x_inner = NULL_RTX;
4649 : 66592298 : rtx y_inner = NULL_RTX;
4650 : :
4651 : 69334440 : auto candidate_subreg_p = [&](rtx subreg) {
4652 : 2742142 : return (REG_P (SUBREG_REG (subreg))
4653 : 8224713 : && known_eq (GET_MODE_SIZE (GET_MODE (SUBREG_REG (subreg))),
4654 : : GET_MODE_SIZE (GET_MODE (subreg)))
4655 : 3048759 : && optab_handler (mov_optab, GET_MODE (SUBREG_REG (subreg)))
4656 : 2742142 : != CODE_FOR_nothing);
4657 : : };
4658 : :
4659 : 66598156 : auto candidate_mem_p = [&](machine_mode innermode, rtx mem) {
4660 : 5858 : return (!targetm.can_change_mode_class (innermode, GET_MODE (mem), ALL_REGS)
4661 : 5858 : && !push_operand (mem, GET_MODE (mem))
4662 : : /* Not a candiate if innermode requires too much alignment. */
4663 : 11656 : && (MEM_ALIGN (mem) >= GET_MODE_ALIGNMENT (innermode)
4664 : 246 : || targetm.slow_unaligned_access (GET_MODE (mem),
4665 : 123 : MEM_ALIGN (mem))
4666 : 246 : || !targetm.slow_unaligned_access (innermode,
4667 : 123 : MEM_ALIGN (mem))));
4668 : : };
4669 : :
4670 : 66592298 : if (SUBREG_P (x) && candidate_subreg_p (x))
4671 : 9337 : x_inner = SUBREG_REG (x);
4672 : :
4673 : 66592298 : if (SUBREG_P (y) && candidate_subreg_p (y))
4674 : 296160 : y_inner = SUBREG_REG (y);
4675 : :
4676 : 66592298 : if (x_inner != NULL_RTX
4677 : 66592298 : && y_inner != NULL_RTX
4678 : 1088 : && GET_MODE (x_inner) == GET_MODE (y_inner)
4679 : 66592981 : && !targetm.can_change_mode_class (GET_MODE (x_inner), mode, ALL_REGS))
4680 : : {
4681 : 683 : x = x_inner;
4682 : 683 : y = y_inner;
4683 : 683 : mode = GET_MODE (x_inner);
4684 : : }
4685 : 66591615 : else if (x_inner != NULL_RTX
4686 : 8654 : && MEM_P (y)
4687 : 66591949 : && candidate_mem_p (GET_MODE (x_inner), y))
4688 : : {
4689 : 334 : x = x_inner;
4690 : 334 : y = adjust_address (y, GET_MODE (x_inner), 0);
4691 : 334 : mode = GET_MODE (x_inner);
4692 : : }
4693 : 66591281 : else if (y_inner != NULL_RTX
4694 : 295477 : && MEM_P (x)
4695 : 66596805 : && candidate_mem_p (GET_MODE (y_inner), x))
4696 : : {
4697 : 5464 : x = adjust_address (x, GET_MODE (y_inner), 0);
4698 : 5464 : y = y_inner;
4699 : 5464 : mode = GET_MODE (y_inner);
4700 : : }
4701 : 66585817 : else if (x_inner != NULL_RTX
4702 : 8320 : && CONSTANT_P (y)
4703 : 433 : && !targetm.can_change_mode_class (GET_MODE (x_inner),
4704 : : mode, ALL_REGS)
4705 : 66586250 : && (y_inner = simplify_subreg (GET_MODE (x_inner), y, mode, 0)))
4706 : : {
4707 : 433 : x = x_inner;
4708 : 433 : y = y_inner;
4709 : 433 : mode = GET_MODE (x_inner);
4710 : : }
4711 : :
4712 : 66592298 : if (CONSTANT_P (y))
4713 : : {
4714 : 15589266 : if (optimize
4715 : 12221396 : && SCALAR_FLOAT_MODE_P (GET_MODE (x))
4716 : 16348667 : && (last_insn = compress_float_constant (x, y)))
4717 : : return last_insn;
4718 : :
4719 : 15520504 : y_cst = y;
4720 : :
4721 : 15520504 : if (!targetm.legitimate_constant_p (mode, y))
4722 : : {
4723 : 479343 : y = force_const_mem (mode, y);
4724 : :
4725 : : /* If the target's cannot_force_const_mem prevented the spill,
4726 : : assume that the target's move expanders will also take care
4727 : : of the non-legitimate constant. */
4728 : 479343 : if (!y)
4729 : : y = y_cst;
4730 : : else
4731 : 459817 : y = use_anchored_address (y);
4732 : : }
4733 : : }
4734 : :
4735 : : /* If X or Y are memory references, verify that their addresses are valid
4736 : : for the machine. */
4737 : 66523536 : if (MEM_P (x)
4738 : 81640674 : && (! memory_address_addr_space_p (GET_MODE (x), XEXP (x, 0),
4739 : 12896683 : MEM_ADDR_SPACE (x))
4740 : 2220622 : && ! push_operand (x, GET_MODE (x))))
4741 : 167 : x = validize_mem (x);
4742 : :
4743 : 66523536 : if (MEM_P (y)
4744 : 83062244 : && ! memory_address_addr_space_p (GET_MODE (y), XEXP (y, 0),
4745 : 16538708 : MEM_ADDR_SPACE (y)))
4746 : 9212 : y = validize_mem (y);
4747 : :
4748 : 66523536 : gcc_assert (mode != BLKmode);
4749 : :
4750 : 66523536 : last_insn = emit_move_insn_1 (x, y);
4751 : :
4752 : 15520504 : if (y_cst && REG_P (x)
4753 : 11506793 : && (set = single_set (last_insn)) != NULL_RTX
4754 : 11506793 : && SET_DEST (set) == x
4755 : 78015972 : && ! rtx_equal_p (y_cst, SET_SRC (set)))
4756 : 1199498 : set_unique_reg_note (last_insn, REG_EQUAL, copy_rtx (y_cst));
4757 : :
4758 : : return last_insn;
4759 : : }
4760 : :
4761 : : /* Generate the body of an instruction to copy Y into X.
4762 : : It may be a list of insns, if one insn isn't enough. */
4763 : :
4764 : : rtx_insn *
4765 : 7320481 : gen_move_insn (rtx x, rtx y)
4766 : : {
4767 : 7320481 : rtx_insn *seq;
4768 : :
4769 : 7320481 : start_sequence ();
4770 : 7320481 : emit_move_insn_1 (x, y);
4771 : 7320481 : seq = get_insns ();
4772 : 7320481 : end_sequence ();
4773 : 7320481 : return seq;
4774 : : }
4775 : :
4776 : : /* If Y is representable exactly in a narrower mode, and the target can
4777 : : perform the extension directly from constant or memory, then emit the
4778 : : move as an extension. */
4779 : :
4780 : : static rtx_insn *
4781 : 759401 : compress_float_constant (rtx x, rtx y)
4782 : : {
4783 : 759401 : machine_mode dstmode = GET_MODE (x);
4784 : 759401 : machine_mode orig_srcmode = GET_MODE (y);
4785 : 759401 : machine_mode srcmode;
4786 : 759401 : const REAL_VALUE_TYPE *r;
4787 : 759401 : int oldcost, newcost;
4788 : 759401 : bool speed = optimize_insn_for_speed_p ();
4789 : :
4790 : 759401 : r = CONST_DOUBLE_REAL_VALUE (y);
4791 : :
4792 : 759401 : if (targetm.legitimate_constant_p (dstmode, y))
4793 : 758068 : oldcost = set_src_cost (y, orig_srcmode, speed);
4794 : : else
4795 : 1333 : oldcost = set_src_cost (force_const_mem (dstmode, y), dstmode, speed);
4796 : :
4797 : 2680728 : FOR_EACH_MODE_UNTIL (srcmode, orig_srcmode)
4798 : : {
4799 : 1990089 : enum insn_code ic;
4800 : 1990089 : rtx trunc_y;
4801 : 1990089 : rtx_insn *last_insn;
4802 : :
4803 : : /* Skip if the target can't extend this way. */
4804 : 1990089 : ic = can_extend_p (dstmode, srcmode, 0);
4805 : 1990089 : if (ic == CODE_FOR_nothing)
4806 : 1584388 : continue;
4807 : :
4808 : : /* Skip if the narrowed value isn't exact. */
4809 : 405701 : if (! exact_real_truncate (srcmode, r))
4810 : 50876 : continue;
4811 : :
4812 : 354825 : trunc_y = const_double_from_real_value (*r, srcmode);
4813 : :
4814 : 354825 : if (targetm.legitimate_constant_p (srcmode, trunc_y))
4815 : : {
4816 : : /* Skip if the target needs extra instructions to perform
4817 : : the extension. */
4818 : 351064 : if (!insn_operand_matches (ic, 1, trunc_y))
4819 : 3441 : continue;
4820 : : /* This is valid, but may not be cheaper than the original. */
4821 : 347623 : newcost = set_src_cost (gen_rtx_FLOAT_EXTEND (dstmode, trunc_y),
4822 : : dstmode, speed);
4823 : 347623 : if (oldcost < newcost)
4824 : 278861 : continue;
4825 : : }
4826 : 3761 : else if (float_extend_from_mem[dstmode][srcmode])
4827 : : {
4828 : 0 : trunc_y = force_const_mem (srcmode, trunc_y);
4829 : : /* This is valid, but may not be cheaper than the original. */
4830 : 0 : newcost = set_src_cost (gen_rtx_FLOAT_EXTEND (dstmode, trunc_y),
4831 : : dstmode, speed);
4832 : 0 : if (oldcost < newcost)
4833 : 0 : continue;
4834 : 0 : trunc_y = validize_mem (trunc_y);
4835 : : }
4836 : : else
4837 : 3761 : continue;
4838 : :
4839 : : /* For CSE's benefit, force the compressed constant pool entry
4840 : : into a new pseudo. This constant may be used in different modes,
4841 : : and if not, combine will put things back together for us. */
4842 : 68762 : trunc_y = force_reg (srcmode, trunc_y);
4843 : :
4844 : : /* If x is a hard register, perform the extension into a pseudo,
4845 : : so that e.g. stack realignment code is aware of it. */
4846 : 68762 : rtx target = x;
4847 : 68762 : if (REG_P (x) && HARD_REGISTER_P (x))
4848 : 1 : target = gen_reg_rtx (dstmode);
4849 : :
4850 : 68762 : emit_unop_insn (ic, target, trunc_y, UNKNOWN);
4851 : 68762 : last_insn = get_last_insn ();
4852 : :
4853 : 68762 : if (REG_P (target))
4854 : 58146 : set_unique_reg_note (last_insn, REG_EQUAL, y);
4855 : :
4856 : 68762 : if (target != x)
4857 : 1 : return emit_move_insn (x, target);
4858 : : return last_insn;
4859 : : }
4860 : :
4861 : : return NULL;
4862 : : }
4863 : :
4864 : : /* Pushing data onto the stack. */
4865 : :
4866 : : /* Push a block of length SIZE (perhaps variable)
4867 : : and return an rtx to address the beginning of the block.
4868 : : The value may be virtual_outgoing_args_rtx.
4869 : :
4870 : : EXTRA is the number of bytes of padding to push in addition to SIZE.
4871 : : BELOW nonzero means this padding comes at low addresses;
4872 : : otherwise, the padding comes at high addresses. */
4873 : :
4874 : : rtx
4875 : 266062 : push_block (rtx size, poly_int64 extra, int below)
4876 : : {
4877 : 266062 : rtx temp;
4878 : :
4879 : 266062 : size = convert_modes (Pmode, ptr_mode, size, 1);
4880 : 266062 : if (CONSTANT_P (size))
4881 : 266062 : anti_adjust_stack (plus_constant (Pmode, size, extra));
4882 : 0 : else if (REG_P (size) && known_eq (extra, 0))
4883 : 0 : anti_adjust_stack (size);
4884 : : else
4885 : : {
4886 : 0 : temp = copy_to_mode_reg (Pmode, size);
4887 : 0 : if (maybe_ne (extra, 0))
4888 : 0 : temp = expand_binop (Pmode, add_optab, temp,
4889 : 0 : gen_int_mode (extra, Pmode),
4890 : : temp, 0, OPTAB_LIB_WIDEN);
4891 : 0 : anti_adjust_stack (temp);
4892 : : }
4893 : :
4894 : 266062 : if (STACK_GROWS_DOWNWARD)
4895 : : {
4896 : 266062 : temp = virtual_outgoing_args_rtx;
4897 : 266062 : if (maybe_ne (extra, 0) && below)
4898 : 0 : temp = plus_constant (Pmode, temp, extra);
4899 : : }
4900 : : else
4901 : : {
4902 : : poly_int64 csize;
4903 : : if (poly_int_rtx_p (size, &csize))
4904 : : temp = plus_constant (Pmode, virtual_outgoing_args_rtx,
4905 : : -csize - (below ? 0 : extra));
4906 : : else if (maybe_ne (extra, 0) && !below)
4907 : : temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
4908 : : negate_rtx (Pmode, plus_constant (Pmode, size,
4909 : : extra)));
4910 : : else
4911 : : temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
4912 : : negate_rtx (Pmode, size));
4913 : : }
4914 : :
4915 : 266062 : return memory_address (NARROWEST_INT_MODE, temp);
4916 : : }
4917 : :
4918 : : /* A utility routine that returns the base of an auto-inc memory, or NULL. */
4919 : :
4920 : : static rtx
4921 : 2560172 : mem_autoinc_base (rtx mem)
4922 : : {
4923 : 0 : if (MEM_P (mem))
4924 : : {
4925 : 1555460 : rtx addr = XEXP (mem, 0);
4926 : 1555460 : if (GET_RTX_CLASS (GET_CODE (addr)) == RTX_AUTOINC)
4927 : 1022375 : return XEXP (addr, 0);
4928 : : }
4929 : : return NULL;
4930 : : }
4931 : :
4932 : : /* A utility routine used here, in reload, and in try_split. The insns
4933 : : after PREV up to and including LAST are known to adjust the stack,
4934 : : with a final value of END_ARGS_SIZE. Iterate backward from LAST
4935 : : placing notes as appropriate. PREV may be NULL, indicating the
4936 : : entire insn sequence prior to LAST should be scanned.
4937 : :
4938 : : The set of allowed stack pointer modifications is small:
4939 : : (1) One or more auto-inc style memory references (aka pushes),
4940 : : (2) One or more addition/subtraction with the SP as destination,
4941 : : (3) A single move insn with the SP as destination,
4942 : : (4) A call_pop insn,
4943 : : (5) Noreturn call insns if !ACCUMULATE_OUTGOING_ARGS.
4944 : :
4945 : : Insns in the sequence that do not modify the SP are ignored,
4946 : : except for noreturn calls.
4947 : :
4948 : : The return value is the amount of adjustment that can be trivially
4949 : : verified, via immediate operand or auto-inc. If the adjustment
4950 : : cannot be trivially extracted, the return value is HOST_WIDE_INT_MIN. */
4951 : :
4952 : : poly_int64
4953 : 4295888 : find_args_size_adjust (rtx_insn *insn)
4954 : : {
4955 : 4295888 : rtx dest, set, pat;
4956 : 4295888 : int i;
4957 : :
4958 : 4295888 : pat = PATTERN (insn);
4959 : 4295888 : set = NULL;
4960 : :
4961 : : /* Look for a call_pop pattern. */
4962 : 4295888 : if (CALL_P (insn))
4963 : : {
4964 : : /* We have to allow non-call_pop patterns for the case
4965 : : of emit_single_push_insn of a TLS address. */
4966 : 2672258 : if (GET_CODE (pat) != PARALLEL)
4967 : 2658761 : return 0;
4968 : :
4969 : : /* All call_pop have a stack pointer adjust in the parallel.
4970 : : The call itself is always first, and the stack adjust is
4971 : : usually last, so search from the end. */
4972 : 13497 : for (i = XVECLEN (pat, 0) - 1; i > 0; --i)
4973 : : {
4974 : 13497 : set = XVECEXP (pat, 0, i);
4975 : 13497 : if (GET_CODE (set) != SET)
4976 : 0 : continue;
4977 : 13497 : dest = SET_DEST (set);
4978 : 13497 : if (dest == stack_pointer_rtx)
4979 : : break;
4980 : : }
4981 : : /* We'd better have found the stack pointer adjust. */
4982 : 13497 : if (i == 0)
4983 : 0 : return 0;
4984 : : /* Fall through to process the extracted SET and DEST
4985 : : as if it was a standalone insn. */
4986 : : }
4987 : 1623630 : else if (GET_CODE (pat) == SET)
4988 : : set = pat;
4989 : 242321 : else if ((set = single_set (insn)) != NULL)
4990 : : ;
4991 : 47177 : else if (GET_CODE (pat) == PARALLEL)
4992 : : {
4993 : : /* ??? Some older ports use a parallel with a stack adjust
4994 : : and a store for a PUSH_ROUNDING pattern, rather than a
4995 : : PRE/POST_MODIFY rtx. Don't force them to update yet... */
4996 : : /* ??? See h8300 and m68k, pushqi1. */
4997 : 0 : for (i = XVECLEN (pat, 0) - 1; i >= 0; --i)
4998 : : {
4999 : 0 : set = XVECEXP (pat, 0, i);
5000 : 0 : if (GET_CODE (set) != SET)
5001 : 0 : continue;
5002 : 0 : dest = SET_DEST (set);
5003 : 0 : if (dest == stack_pointer_rtx)
5004 : : break;
5005 : :
5006 : : /* We do not expect an auto-inc of the sp in the parallel. */
5007 : 0 : gcc_checking_assert (mem_autoinc_base (dest) != stack_pointer_rtx);
5008 : 0 : gcc_checking_assert (mem_autoinc_base (SET_SRC (set))
5009 : : != stack_pointer_rtx);
5010 : : }
5011 : 0 : if (i < 0)
5012 : 0 : return 0;
5013 : : }
5014 : : else
5015 : 47177 : return 0;
5016 : :
5017 : 1589950 : dest = SET_DEST (set);
5018 : :
5019 : : /* Look for direct modifications of the stack pointer. */
5020 : 1589950 : if (REG_P (dest) && REGNO (dest) == STACK_POINTER_REGNUM)
5021 : : {
5022 : : /* Look for a trivial adjustment, otherwise assume nothing. */
5023 : : /* Note that the SPU restore_stack_block pattern refers to
5024 : : the stack pointer in V4SImode. Consider that non-trivial. */
5025 : 309864 : poly_int64 offset;
5026 : 309864 : if (SCALAR_INT_MODE_P (GET_MODE (dest))
5027 : 309864 : && strip_offset (SET_SRC (set), &offset) == stack_pointer_rtx)
5028 : 307578 : return offset;
5029 : : /* ??? Reload can generate no-op moves, which will be cleaned
5030 : : up later. Recognize it and continue searching. */
5031 : 2286 : else if (rtx_equal_p (dest, SET_SRC (set)))
5032 : 0 : return 0;
5033 : : else
5034 : 2286 : return HOST_WIDE_INT_MIN;
5035 : : }
5036 : : else
5037 : : {
5038 : 1280086 : rtx mem, addr;
5039 : :
5040 : : /* Otherwise only think about autoinc patterns. */
5041 : 2316768 : if (mem_autoinc_base (dest) == stack_pointer_rtx)
5042 : : {
5043 : 915822 : mem = dest;
5044 : 1260108 : gcc_checking_assert (mem_autoinc_base (SET_SRC (set))
5045 : : != stack_pointer_rtx);
5046 : : }
5047 : 538756 : else if (mem_autoinc_base (SET_SRC (set)) == stack_pointer_rtx)
5048 : : mem = SET_SRC (set);
5049 : : else
5050 : 257711 : return 0;
5051 : :
5052 : 1022375 : addr = XEXP (mem, 0);
5053 : 1022375 : switch (GET_CODE (addr))
5054 : : {
5055 : 106553 : case PRE_INC:
5056 : 106553 : case POST_INC:
5057 : 213106 : return GET_MODE_SIZE (GET_MODE (mem));
5058 : 896492 : case PRE_DEC:
5059 : 896492 : case POST_DEC:
5060 : 1792984 : return -GET_MODE_SIZE (GET_MODE (mem));
5061 : 19330 : case PRE_MODIFY:
5062 : 19330 : case POST_MODIFY:
5063 : 19330 : addr = XEXP (addr, 1);
5064 : 19330 : gcc_assert (GET_CODE (addr) == PLUS);
5065 : 19330 : gcc_assert (XEXP (addr, 0) == stack_pointer_rtx);
5066 : 19330 : return rtx_to_poly_int64 (XEXP (addr, 1));
5067 : 0 : default:
5068 : 0 : gcc_unreachable ();
5069 : : }
5070 : : }
5071 : : }
5072 : :
5073 : : poly_int64
5074 : 660736 : fixup_args_size_notes (rtx_insn *prev, rtx_insn *last,
5075 : : poly_int64 end_args_size)
5076 : : {
5077 : 660736 : poly_int64 args_size = end_args_size;
5078 : 660736 : bool saw_unknown = false;
5079 : 660736 : rtx_insn *insn;
5080 : :
5081 : 1888952 : for (insn = last; insn != prev; insn = PREV_INSN (insn))
5082 : : {
5083 : 1228216 : if (!NONDEBUG_INSN_P (insn))
5084 : 0 : continue;
5085 : :
5086 : : /* We might have existing REG_ARGS_SIZE notes, e.g. when pushing
5087 : : a call argument containing a TLS address that itself requires
5088 : : a call to __tls_get_addr. The handling of stack_pointer_delta
5089 : : in emit_single_push_insn is supposed to ensure that any such
5090 : : notes are already correct. */
5091 : 1228216 : rtx note = find_reg_note (insn, REG_ARGS_SIZE, NULL_RTX);
5092 : 1228216 : gcc_assert (!note || known_eq (args_size, get_args_size (note)));
5093 : :
5094 : 1228216 : poly_int64 this_delta = find_args_size_adjust (insn);
5095 : 1228216 : if (known_eq (this_delta, 0))
5096 : : {
5097 : 606699 : if (!CALL_P (insn)
5098 : 5 : || ACCUMULATE_OUTGOING_ARGS
5099 : 303357 : || find_reg_note (insn, REG_NORETURN, NULL_RTX) == NULL_RTX)
5100 : 303347 : continue;
5101 : : }
5102 : :
5103 : 924869 : gcc_assert (!saw_unknown);
5104 : 924869 : if (known_eq (this_delta, HOST_WIDE_INT_MIN))
5105 : 2264 : saw_unknown = true;
5106 : :
5107 : 924869 : if (!note)
5108 : 924869 : add_args_size_note (insn, args_size);
5109 : : if (STACK_GROWS_DOWNWARD)
5110 : 924869 : this_delta = -poly_uint64 (this_delta);
5111 : :
5112 : 924869 : if (saw_unknown)
5113 : : args_size = HOST_WIDE_INT_MIN;
5114 : : else
5115 : 1228216 : args_size -= this_delta;
5116 : : }
5117 : :
5118 : 660736 : return args_size;
5119 : : }
5120 : :
5121 : : #ifdef PUSH_ROUNDING
5122 : : /* Emit single push insn. */
5123 : :
5124 : : static void
5125 : 1806847 : emit_single_push_insn_1 (machine_mode mode, rtx x, tree type)
5126 : : {
5127 : 1806847 : rtx dest_addr;
5128 : 3613694 : poly_int64 rounded_size = PUSH_ROUNDING (GET_MODE_SIZE (mode));
5129 : 1806847 : rtx dest;
5130 : 1806847 : enum insn_code icode;
5131 : :
5132 : : /* If there is push pattern, use it. Otherwise try old way of throwing
5133 : : MEM representing push operation to move expander. */
5134 : 1806847 : icode = optab_handler (push_optab, mode);
5135 : 1806847 : if (icode != CODE_FOR_nothing)
5136 : : {
5137 : 0 : class expand_operand ops[1];
5138 : :
5139 : 0 : create_input_operand (&ops[0], x, mode);
5140 : 0 : if (maybe_expand_insn (icode, 1, ops))
5141 : 0 : return;
5142 : : }
5143 : 3613694 : if (known_eq (GET_MODE_SIZE (mode), rounded_size))
5144 : 1692636 : dest_addr = gen_rtx_fmt_e (STACK_PUSH_CODE, Pmode, stack_pointer_rtx);
5145 : : /* If we are to pad downward, adjust the stack pointer first and
5146 : : then store X into the stack location using an offset. This is
5147 : : because emit_move_insn does not know how to pad; it does not have
5148 : : access to type. */
5149 : 114211 : else if (targetm.calls.function_arg_padding (mode, type) == PAD_DOWNWARD)
5150 : : {
5151 : 0 : emit_move_insn (stack_pointer_rtx,
5152 : 0 : expand_binop (Pmode,
5153 : : STACK_GROWS_DOWNWARD ? sub_optab
5154 : : : add_optab,
5155 : : stack_pointer_rtx,
5156 : 0 : gen_int_mode (rounded_size, Pmode),
5157 : : NULL_RTX, 0, OPTAB_LIB_WIDEN));
5158 : :
5159 : 0 : poly_int64 offset = rounded_size - GET_MODE_SIZE (mode);
5160 : 0 : if (STACK_GROWS_DOWNWARD && STACK_PUSH_CODE == POST_DEC)
5161 : : /* We have already decremented the stack pointer, so get the
5162 : : previous value. */
5163 : : offset += rounded_size;
5164 : :
5165 : 0 : if (!STACK_GROWS_DOWNWARD && STACK_PUSH_CODE == POST_INC)
5166 : : /* We have already incremented the stack pointer, so get the
5167 : : previous value. */
5168 : : offset -= rounded_size;
5169 : :
5170 : 0 : dest_addr = plus_constant (Pmode, stack_pointer_rtx, offset);
5171 : : }
5172 : : else
5173 : : {
5174 : : if (STACK_GROWS_DOWNWARD)
5175 : : /* ??? This seems wrong if STACK_PUSH_CODE == POST_DEC. */
5176 : 114211 : dest_addr = plus_constant (Pmode, stack_pointer_rtx, -rounded_size);
5177 : : else
5178 : : /* ??? This seems wrong if STACK_PUSH_CODE == POST_INC. */
5179 : : dest_addr = plus_constant (Pmode, stack_pointer_rtx, rounded_size);
5180 : :
5181 : 114211 : dest_addr = gen_rtx_PRE_MODIFY (Pmode, stack_pointer_rtx, dest_addr);
5182 : : }
5183 : :
5184 : 1806847 : dest = gen_rtx_MEM (mode, dest_addr);
5185 : :
5186 : 1806847 : if (type != 0)
5187 : : {
5188 : 1806800 : set_mem_attributes (dest, type, 1);
5189 : :
5190 : 1806800 : if (cfun->tail_call_marked)
5191 : : /* Function incoming arguments may overlap with sibling call
5192 : : outgoing arguments and we cannot allow reordering of reads
5193 : : from function arguments with stores to outgoing arguments
5194 : : of sibling calls. */
5195 : 137298 : set_mem_alias_set (dest, 0);
5196 : : }
5197 : 1806847 : emit_move_insn (dest, x);
5198 : : }
5199 : :
5200 : : /* Emit and annotate a single push insn. */
5201 : :
5202 : : static void
5203 : 1806847 : emit_single_push_insn (machine_mode mode, rtx x, tree type)
5204 : : {
5205 : 1806847 : poly_int64 delta, old_delta = stack_pointer_delta;
5206 : 1806847 : rtx_insn *prev = get_last_insn ();
5207 : 1806847 : rtx_insn *last;
5208 : :
5209 : 1806847 : emit_single_push_insn_1 (mode, x, type);
5210 : :
5211 : : /* Adjust stack_pointer_delta to describe the situation after the push
5212 : : we just performed. Note that we must do this after the push rather
5213 : : than before the push in case calculating X needs pushes and pops of
5214 : : its own (e.g. if calling __tls_get_addr). The REG_ARGS_SIZE notes
5215 : : for such pushes and pops must not include the effect of the future
5216 : : push of X. */
5217 : 3613694 : stack_pointer_delta += PUSH_ROUNDING (GET_MODE_SIZE (mode));
5218 : :
5219 : 1806847 : last = get_last_insn ();
5220 : :
5221 : : /* Notice the common case where we emitted exactly one insn. */
5222 : 1806847 : if (PREV_INSN (last) == prev)
5223 : : {
5224 : 1698395 : add_args_size_note (last, stack_pointer_delta);
5225 : 1698395 : return;
5226 : : }
5227 : :
5228 : 108452 : delta = fixup_args_size_notes (prev, last, stack_pointer_delta);
5229 : 108452 : gcc_assert (known_eq (delta, HOST_WIDE_INT_MIN)
5230 : : || known_eq (delta, old_delta));
5231 : : }
5232 : : #endif
5233 : :
5234 : : /* If reading SIZE bytes from X will end up reading from
5235 : : Y return the number of bytes that overlap. Return -1
5236 : : if there is no overlap or -2 if we can't determine
5237 : : (for example when X and Y have different base registers). */
5238 : :
5239 : : static int
5240 : 0 : memory_load_overlap (rtx x, rtx y, HOST_WIDE_INT size)
5241 : : {
5242 : 0 : rtx tmp = plus_constant (Pmode, x, size);
5243 : 0 : rtx sub = simplify_gen_binary (MINUS, Pmode, tmp, y);
5244 : :
5245 : 0 : if (!CONST_INT_P (sub))
5246 : : return -2;
5247 : :
5248 : 0 : HOST_WIDE_INT val = INTVAL (sub);
5249 : :
5250 : 0 : return IN_RANGE (val, 1, size) ? val : -1;
5251 : : }
5252 : :
5253 : : /* Generate code to push X onto the stack, assuming it has mode MODE and
5254 : : type TYPE.
5255 : : MODE is redundant except when X is a CONST_INT (since they don't
5256 : : carry mode info).
5257 : : SIZE is an rtx for the size of data to be copied (in bytes),
5258 : : needed only if X is BLKmode.
5259 : : Return true if successful. May return false if asked to push a
5260 : : partial argument during a sibcall optimization (as specified by
5261 : : SIBCALL_P) and the incoming and outgoing pointers cannot be shown
5262 : : to not overlap.
5263 : :
5264 : : ALIGN (in bits) is maximum alignment we can assume.
5265 : :
5266 : : If PARTIAL and REG are both nonzero, then copy that many of the first
5267 : : bytes of X into registers starting with REG, and push the rest of X.
5268 : : The amount of space pushed is decreased by PARTIAL bytes.
5269 : : REG must be a hard register in this case.
5270 : : If REG is zero but PARTIAL is not, take any all others actions for an
5271 : : argument partially in registers, but do not actually load any
5272 : : registers.
5273 : :
5274 : : EXTRA is the amount in bytes of extra space to leave next to this arg.
5275 : : This is ignored if an argument block has already been allocated.
5276 : :
5277 : : On a machine that lacks real push insns, ARGS_ADDR is the address of
5278 : : the bottom of the argument block for this call. We use indexing off there
5279 : : to store the arg. On machines with push insns, ARGS_ADDR is 0 when a
5280 : : argument block has not been preallocated.
5281 : :
5282 : : ARGS_SO_FAR is the size of args previously pushed for this call.
5283 : :
5284 : : REG_PARM_STACK_SPACE is nonzero if functions require stack space
5285 : : for arguments passed in registers. If nonzero, it will be the number
5286 : : of bytes required. */
5287 : :
5288 : : bool
5289 : 2127584 : emit_push_insn (rtx x, machine_mode mode, tree type, rtx size,
5290 : : unsigned int align, int partial, rtx reg, poly_int64 extra,
5291 : : rtx args_addr, rtx args_so_far, int reg_parm_stack_space,
5292 : : rtx alignment_pad, bool sibcall_p)
5293 : : {
5294 : 2127584 : rtx xinner;
5295 : 2127584 : pad_direction stack_direction
5296 : : = STACK_GROWS_DOWNWARD ? PAD_DOWNWARD : PAD_UPWARD;
5297 : :
5298 : : /* Decide where to pad the argument: PAD_DOWNWARD for below,
5299 : : PAD_UPWARD for above, or PAD_NONE for don't pad it.
5300 : : Default is below for small data on big-endian machines; else above. */
5301 : 2127584 : pad_direction where_pad = targetm.calls.function_arg_padding (mode, type);
5302 : :
5303 : : /* Invert direction if stack is post-decrement.
5304 : : FIXME: why? */
5305 : 2127584 : if (STACK_PUSH_CODE == POST_DEC)
5306 : : if (where_pad != PAD_NONE)
5307 : : where_pad = (where_pad == PAD_DOWNWARD ? PAD_UPWARD : PAD_DOWNWARD);
5308 : :
5309 : 2127584 : xinner = x;
5310 : :
5311 : 2127584 : int nregs = partial / UNITS_PER_WORD;
5312 : 2127584 : rtx *tmp_regs = NULL;
5313 : 2127584 : int overlapping = 0;
5314 : :
5315 : 2127584 : if (mode == BLKmode
5316 : : || (STRICT_ALIGNMENT && align < GET_MODE_ALIGNMENT (mode)))
5317 : : {
5318 : : /* Copy a block into the stack, entirely or partially. */
5319 : :
5320 : 266152 : rtx temp;
5321 : 266152 : int used;
5322 : 266152 : int offset;
5323 : 266152 : int skip;
5324 : :
5325 : 266152 : offset = partial % (PARM_BOUNDARY / BITS_PER_UNIT);
5326 : 266152 : used = partial - offset;
5327 : :
5328 : 266152 : if (mode != BLKmode)
5329 : : {
5330 : : /* A value is to be stored in an insufficiently aligned
5331 : : stack slot; copy via a suitably aligned slot if
5332 : : necessary. */
5333 : : size = gen_int_mode (GET_MODE_SIZE (mode), Pmode);
5334 : : if (!MEM_P (xinner))
5335 : : {
5336 : : temp = assign_temp (type, 1, 1);
5337 : : emit_move_insn (temp, xinner);
5338 : : xinner = temp;
5339 : : }
5340 : : }
5341 : :
5342 : 266152 : gcc_assert (size);
5343 : :
5344 : : /* USED is now the # of bytes we need not copy to the stack
5345 : : because registers will take care of them. */
5346 : :
5347 : 266152 : if (partial != 0)
5348 : 0 : xinner = adjust_address (xinner, BLKmode, used);
5349 : :
5350 : : /* If the partial register-part of the arg counts in its stack size,
5351 : : skip the part of stack space corresponding to the registers.
5352 : : Otherwise, start copying to the beginning of the stack space,
5353 : : by setting SKIP to 0. */
5354 : 266152 : skip = (reg_parm_stack_space == 0) ? 0 : used;
5355 : :
5356 : : #ifdef PUSH_ROUNDING
5357 : : /* NB: Let the backend known the number of bytes to push and
5358 : : decide if push insns should be generated. */
5359 : 266152 : unsigned int push_size;
5360 : 266152 : if (CONST_INT_P (size))
5361 : 266152 : push_size = INTVAL (size);
5362 : : else
5363 : : push_size = 0;
5364 : :
5365 : : /* Do it with several push insns if that doesn't take lots of insns
5366 : : and if there is no difficulty with push insns that skip bytes
5367 : : on the stack for alignment purposes. */
5368 : 266152 : if (args_addr == 0
5369 : 266106 : && targetm.calls.push_argument (push_size)
5370 : 3790 : && CONST_INT_P (size)
5371 : 3790 : && skip == 0
5372 : 3790 : && MEM_ALIGN (xinner) >= align
5373 : 2886 : && can_move_by_pieces ((unsigned) INTVAL (size) - used, align)
5374 : : /* Here we avoid the case of a structure whose weak alignment
5375 : : forces many pushes of a small amount of data,
5376 : : and such small pushes do rounding that causes trouble. */
5377 : 2886 : && ((!targetm.slow_unaligned_access (word_mode, align))
5378 : 0 : || align >= BIGGEST_ALIGNMENT
5379 : 0 : || known_eq (PUSH_ROUNDING (align / BITS_PER_UNIT),
5380 : : align / BITS_PER_UNIT))
5381 : 269038 : && known_eq (PUSH_ROUNDING (INTVAL (size)), INTVAL (size)))
5382 : : {
5383 : : /* Push padding now if padding above and stack grows down,
5384 : : or if padding below and stack grows up.
5385 : : But if space already allocated, this has already been done. */
5386 : 45 : if (maybe_ne (extra, 0)
5387 : : && args_addr == 0
5388 : 0 : && where_pad != PAD_NONE
5389 : 45 : && where_pad != stack_direction)
5390 : 0 : anti_adjust_stack (gen_int_mode (extra, Pmode));
5391 : :
5392 : 45 : move_by_pieces (NULL, xinner, INTVAL (size) - used, align,
5393 : : RETURN_BEGIN);
5394 : : }
5395 : : else
5396 : : #endif /* PUSH_ROUNDING */
5397 : : {
5398 : 266107 : rtx target;
5399 : :
5400 : : /* Otherwise make space on the stack and copy the data
5401 : : to the address of that space. */
5402 : :
5403 : : /* Deduct words put into registers from the size we must copy. */
5404 : 266107 : if (partial != 0)
5405 : : {
5406 : 0 : if (CONST_INT_P (size))
5407 : 0 : size = GEN_INT (INTVAL (size) - used);
5408 : : else
5409 : 0 : size = expand_binop (GET_MODE (size), sub_optab, size,
5410 : 0 : gen_int_mode (used, GET_MODE (size)),
5411 : : NULL_RTX, 0, OPTAB_LIB_WIDEN);
5412 : : }
5413 : :
5414 : : /* Get the address of the stack space.
5415 : : In this case, we do not deal with EXTRA separately.
5416 : : A single stack adjust will do. */
5417 : 266107 : poly_int64 const_args_so_far;
5418 : 266107 : if (! args_addr)
5419 : : {
5420 : 266061 : temp = push_block (size, extra, where_pad == PAD_DOWNWARD);
5421 : 266061 : extra = 0;
5422 : : }
5423 : 46 : else if (poly_int_rtx_p (args_so_far, &const_args_so_far))
5424 : 46 : temp = memory_address (BLKmode,
5425 : : plus_constant (Pmode, args_addr,
5426 : : skip + const_args_so_far));
5427 : : else
5428 : 0 : temp = memory_address (BLKmode,
5429 : : plus_constant (Pmode,
5430 : : gen_rtx_PLUS (Pmode,
5431 : : args_addr,
5432 : : args_so_far),
5433 : : skip));
5434 : :
5435 : 266107 : if (!ACCUMULATE_OUTGOING_ARGS)
5436 : : {
5437 : : /* If the source is referenced relative to the stack pointer,
5438 : : copy it to another register to stabilize it. We do not need
5439 : : to do this if we know that we won't be changing sp. */
5440 : :
5441 : 266107 : if (reg_mentioned_p (virtual_stack_dynamic_rtx, temp)
5442 : 266107 : || reg_mentioned_p (virtual_outgoing_args_rtx, temp))
5443 : 266061 : temp = copy_to_reg (temp);
5444 : : }
5445 : :
5446 : 266107 : target = gen_rtx_MEM (BLKmode, temp);
5447 : :
5448 : : /* We do *not* set_mem_attributes here, because incoming arguments
5449 : : may overlap with sibling call outgoing arguments and we cannot
5450 : : allow reordering of reads from function arguments with stores
5451 : : to outgoing arguments of sibling calls. We do, however, want
5452 : : to record the alignment of the stack slot. */
5453 : : /* ALIGN may well be better aligned than TYPE, e.g. due to
5454 : : PARM_BOUNDARY. Assume the caller isn't lying. */
5455 : 266107 : set_mem_align (target, align);
5456 : :
5457 : : /* If part should go in registers and pushing to that part would
5458 : : overwrite some of the values that need to go into regs, load the
5459 : : overlapping values into temporary pseudos to be moved into the hard
5460 : : regs at the end after the stack pushing has completed.
5461 : : We cannot load them directly into the hard regs here because
5462 : : they can be clobbered by the block move expansions.
5463 : : See PR 65358. */
5464 : :
5465 : 266107 : if (partial > 0 && reg != 0 && mode == BLKmode
5466 : 0 : && GET_CODE (reg) != PARALLEL)
5467 : : {
5468 : 0 : overlapping = memory_load_overlap (XEXP (x, 0), temp, partial);
5469 : 0 : if (overlapping > 0)
5470 : : {
5471 : 0 : gcc_assert (overlapping % UNITS_PER_WORD == 0);
5472 : 0 : overlapping /= UNITS_PER_WORD;
5473 : :
5474 : 0 : tmp_regs = XALLOCAVEC (rtx, overlapping);
5475 : :
5476 : 0 : for (int i = 0; i < overlapping; i++)
5477 : 0 : tmp_regs[i] = gen_reg_rtx (word_mode);
5478 : :
5479 : 0 : for (int i = 0; i < overlapping; i++)
5480 : 0 : emit_move_insn (tmp_regs[i],
5481 : 0 : operand_subword_force (target, i, mode));
5482 : : }
5483 : 0 : else if (overlapping == -1)
5484 : : overlapping = 0;
5485 : : /* Could not determine whether there is overlap.
5486 : : Fail the sibcall. */
5487 : : else
5488 : : {
5489 : 0 : overlapping = 0;
5490 : 0 : if (sibcall_p)
5491 : 0 : return false;
5492 : : }
5493 : : }
5494 : :
5495 : : /* If source is a constant VAR_DECL with a simple constructor,
5496 : : store the constructor to the stack instead of moving it. */
5497 : 266107 : const_tree decl;
5498 : 266107 : HOST_WIDE_INT sz;
5499 : 266107 : if (partial == 0
5500 : 266107 : && MEM_P (xinner)
5501 : 266107 : && SYMBOL_REF_P (XEXP (xinner, 0))
5502 : 81584 : && (decl = SYMBOL_REF_DECL (XEXP (xinner, 0))) != NULL_TREE
5503 : 81584 : && VAR_P (decl)
5504 : 81584 : && TREE_READONLY (decl)
5505 : 4339 : && !TREE_SIDE_EFFECTS (decl)
5506 : 4339 : && immediate_const_ctor_p (DECL_INITIAL (decl), 2)
5507 : 6 : && (sz = int_expr_size (DECL_INITIAL (decl))) > 0
5508 : 6 : && CONST_INT_P (size)
5509 : 266113 : && INTVAL (size) == sz)
5510 : 0 : store_constructor (DECL_INITIAL (decl), target, 0, sz, false);
5511 : : else
5512 : 266107 : emit_block_move (target, xinner, size, BLOCK_OP_CALL_PARM);
5513 : : }
5514 : : }
5515 : 1861432 : else if (partial > 0)
5516 : : {
5517 : : /* Scalar partly in registers. This case is only supported
5518 : : for fixed-wdth modes. */
5519 : 0 : int num_words = GET_MODE_SIZE (mode).to_constant ();
5520 : 0 : num_words /= UNITS_PER_WORD;
5521 : 0 : int i;
5522 : 0 : int not_stack;
5523 : : /* # bytes of start of argument
5524 : : that we must make space for but need not store. */
5525 : 0 : int offset = partial % (PARM_BOUNDARY / BITS_PER_UNIT);
5526 : 0 : int args_offset = INTVAL (args_so_far);
5527 : 0 : int skip;
5528 : :
5529 : : /* Push padding now if padding above and stack grows down,
5530 : : or if padding below and stack grows up.
5531 : : But if space already allocated, this has already been done. */
5532 : 0 : if (maybe_ne (extra, 0)
5533 : 0 : && args_addr == 0
5534 : 0 : && where_pad != PAD_NONE
5535 : 0 : && where_pad != stack_direction)
5536 : 0 : anti_adjust_stack (gen_int_mode (extra, Pmode));
5537 : :
5538 : : /* If we make space by pushing it, we might as well push
5539 : : the real data. Otherwise, we can leave OFFSET nonzero
5540 : : and leave the space uninitialized. */
5541 : 0 : if (args_addr == 0)
5542 : 0 : offset = 0;
5543 : :
5544 : : /* Now NOT_STACK gets the number of words that we don't need to
5545 : : allocate on the stack. Convert OFFSET to words too. */
5546 : 0 : not_stack = (partial - offset) / UNITS_PER_WORD;
5547 : 0 : offset /= UNITS_PER_WORD;
5548 : :
5549 : : /* If the partial register-part of the arg counts in its stack size,
5550 : : skip the part of stack space corresponding to the registers.
5551 : : Otherwise, start copying to the beginning of the stack space,
5552 : : by setting SKIP to 0. */
5553 : 0 : skip = (reg_parm_stack_space == 0) ? 0 : not_stack;
5554 : :
5555 : 0 : if (CONSTANT_P (x) && !targetm.legitimate_constant_p (mode, x))
5556 : 0 : x = validize_mem (force_const_mem (mode, x));
5557 : :
5558 : : /* If X is a hard register in a non-integer mode, copy it into a pseudo;
5559 : : SUBREGs of such registers are not allowed. */
5560 : 0 : if ((REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER
5561 : 0 : && GET_MODE_CLASS (GET_MODE (x)) != MODE_INT))
5562 : 0 : x = copy_to_reg (x);
5563 : :
5564 : : /* Loop over all the words allocated on the stack for this arg. */
5565 : : /* We can do it by words, because any scalar bigger than a word
5566 : : has a size a multiple of a word. */
5567 : 0 : tree word_mode_type = lang_hooks.types.type_for_mode (word_mode, 1);
5568 : 0 : for (i = num_words - 1; i >= not_stack; i--)
5569 : 0 : if (i >= not_stack + offset)
5570 : 0 : if (!emit_push_insn (operand_subword_force (x, i, mode),
5571 : : word_mode, word_mode_type, NULL_RTX, align, 0,
5572 : 0 : NULL_RTX, 0, args_addr,
5573 : 0 : GEN_INT (args_offset + ((i - not_stack + skip)
5574 : : * UNITS_PER_WORD)),
5575 : : reg_parm_stack_space, alignment_pad, sibcall_p))
5576 : 0 : return false;
5577 : : }
5578 : : else
5579 : : {
5580 : 1861432 : rtx addr;
5581 : 1861432 : rtx dest;
5582 : :
5583 : : /* Push padding now if padding above and stack grows down,
5584 : : or if padding below and stack grows up.
5585 : : But if space already allocated, this has already been done. */
5586 : 1861432 : if (maybe_ne (extra, 0)
5587 : 0 : && args_addr == 0
5588 : 0 : && where_pad != PAD_NONE
5589 : 1861432 : && where_pad != stack_direction)
5590 : 0 : anti_adjust_stack (gen_int_mode (extra, Pmode));
5591 : :
5592 : : #ifdef PUSH_ROUNDING
5593 : 1861432 : if (args_addr == 0 && targetm.calls.push_argument (0))
5594 : 1806800 : emit_single_push_insn (mode, x, type);
5595 : : else
5596 : : #endif
5597 : : {
5598 : 54632 : addr = simplify_gen_binary (PLUS, Pmode, args_addr, args_so_far);
5599 : 54632 : dest = gen_rtx_MEM (mode, memory_address (mode, addr));
5600 : :
5601 : : /* We do *not* set_mem_attributes here, because incoming arguments
5602 : : may overlap with sibling call outgoing arguments and we cannot
5603 : : allow reordering of reads from function arguments with stores
5604 : : to outgoing arguments of sibling calls. We do, however, want
5605 : : to record the alignment of the stack slot. */
5606 : : /* ALIGN may well be better aligned than TYPE, e.g. due to
5607 : : PARM_BOUNDARY. Assume the caller isn't lying. */
5608 : 54632 : set_mem_align (dest, align);
5609 : :
5610 : 54632 : emit_move_insn (dest, x);
5611 : : }
5612 : : }
5613 : :
5614 : : /* Move the partial arguments into the registers and any overlapping
5615 : : values that we moved into the pseudos in tmp_regs. */
5616 : 2127584 : if (partial > 0 && reg != 0)
5617 : : {
5618 : : /* Handle calls that pass values in multiple non-contiguous locations.
5619 : : The Irix 6 ABI has examples of this. */
5620 : 0 : if (GET_CODE (reg) == PARALLEL)
5621 : 0 : emit_group_load (reg, x, type, -1);
5622 : : else
5623 : : {
5624 : 0 : gcc_assert (partial % UNITS_PER_WORD == 0);
5625 : 0 : move_block_to_reg (REGNO (reg), x, nregs - overlapping, mode);
5626 : :
5627 : 0 : for (int i = 0; i < overlapping; i++)
5628 : 0 : emit_move_insn (gen_rtx_REG (word_mode, REGNO (reg)
5629 : 0 : + nregs - overlapping + i),
5630 : 0 : tmp_regs[i]);
5631 : :
5632 : : }
5633 : : }
5634 : :
5635 : 2127584 : if (maybe_ne (extra, 0) && args_addr == 0 && where_pad == stack_direction)
5636 : 0 : anti_adjust_stack (gen_int_mode (extra, Pmode));
5637 : :
5638 : 2127584 : if (alignment_pad && args_addr == 0)
5639 : 2072906 : anti_adjust_stack (alignment_pad);
5640 : :
5641 : : return true;
5642 : : }
5643 : :
5644 : : /* Return X if X can be used as a subtarget in a sequence of arithmetic
5645 : : operations. */
5646 : :
5647 : : static rtx
5648 : 187748429 : get_subtarget (rtx x)
5649 : : {
5650 : 187748429 : return (optimize
5651 : 49767987 : || x == 0
5652 : : /* Only registers can be subtargets. */
5653 : 16669854 : || !REG_P (x)
5654 : : /* Don't use hard regs to avoid extending their life. */
5655 : 11386288 : || REGNO (x) < FIRST_PSEUDO_REGISTER
5656 : 187748429 : ? 0 : x);
5657 : : }
5658 : :
5659 : : /* A subroutine of expand_assignment. Optimize FIELD op= VAL, where
5660 : : FIELD is a bitfield. Returns true if the optimization was successful,
5661 : : and there's nothing else to do. */
5662 : :
5663 : : static bool
5664 : 4533260 : optimize_bitfield_assignment_op (poly_uint64 pbitsize,
5665 : : poly_uint64 pbitpos,
5666 : : poly_uint64 pbitregion_start,
5667 : : poly_uint64 pbitregion_end,
5668 : : machine_mode mode1, rtx str_rtx,
5669 : : tree to, tree src, bool reverse)
5670 : : {
5671 : : /* str_mode is not guaranteed to be a scalar type. */
5672 : 4533260 : machine_mode str_mode = GET_MODE (str_rtx);
5673 : 4533260 : unsigned int str_bitsize;
5674 : 4533260 : tree op0, op1;
5675 : 4533260 : rtx value, result;
5676 : 4533260 : optab binop;
5677 : 4533260 : gimple *srcstmt;
5678 : 4533260 : enum tree_code code;
5679 : :
5680 : 4533260 : unsigned HOST_WIDE_INT bitsize, bitpos, bitregion_start, bitregion_end;
5681 : 4533260 : if (mode1 != VOIDmode
5682 : 69344 : || !pbitsize.is_constant (&bitsize)
5683 : 69344 : || !pbitpos.is_constant (&bitpos)
5684 : 69344 : || !pbitregion_start.is_constant (&bitregion_start)
5685 : 69344 : || !pbitregion_end.is_constant (&bitregion_end)
5686 : 69910 : || bitsize >= BITS_PER_WORD
5687 : 69075 : || !GET_MODE_BITSIZE (str_mode).is_constant (&str_bitsize)
5688 : 69641 : || str_bitsize > BITS_PER_WORD
5689 : 63462 : || TREE_SIDE_EFFECTS (to)
5690 : 4596610 : || TREE_THIS_VOLATILE (to))
5691 : : return false;
5692 : :
5693 : 63350 : STRIP_NOPS (src);
5694 : 63350 : if (TREE_CODE (src) != SSA_NAME)
5695 : : return false;
5696 : 21793 : if (TREE_CODE (TREE_TYPE (src)) != INTEGER_TYPE)
5697 : : return false;
5698 : :
5699 : 20668 : srcstmt = get_gimple_for_ssa_name (src);
5700 : 20668 : if (!srcstmt
5701 : 4203 : || !is_gimple_assign (srcstmt)
5702 : 24871 : || TREE_CODE_CLASS (gimple_assign_rhs_code (srcstmt)) != tcc_binary)
5703 : : return false;
5704 : :
5705 : 419 : code = gimple_assign_rhs_code (srcstmt);
5706 : :
5707 : 419 : op0 = gimple_assign_rhs1 (srcstmt);
5708 : :
5709 : : /* If OP0 is an SSA_NAME, then we want to walk the use-def chain
5710 : : to find its initialization. Hopefully the initialization will
5711 : : be from a bitfield load. */
5712 : 419 : if (TREE_CODE (op0) == SSA_NAME)
5713 : : {
5714 : 419 : gimple *op0stmt = get_gimple_for_ssa_name (op0);
5715 : :
5716 : : /* We want to eventually have OP0 be the same as TO, which
5717 : : should be a bitfield. */
5718 : 419 : if (!op0stmt
5719 : 389 : || !is_gimple_assign (op0stmt)
5720 : 808 : || gimple_assign_rhs_code (op0stmt) != TREE_CODE (to))
5721 : : return false;
5722 : 299 : op0 = gimple_assign_rhs1 (op0stmt);
5723 : : }
5724 : :
5725 : 299 : op1 = gimple_assign_rhs2 (srcstmt);
5726 : :
5727 : 299 : if (!operand_equal_p (to, op0, 0))
5728 : : return false;
5729 : :
5730 : 229 : if (MEM_P (str_rtx))
5731 : : {
5732 : 224 : unsigned HOST_WIDE_INT offset1;
5733 : :
5734 : 224 : if (str_bitsize == 0 || str_bitsize > BITS_PER_WORD)
5735 : 4 : str_bitsize = BITS_PER_WORD;
5736 : :
5737 : 224 : scalar_int_mode best_mode;
5738 : 224 : if (!get_best_mode (bitsize, bitpos, bitregion_start, bitregion_end,
5739 : 224 : MEM_ALIGN (str_rtx), str_bitsize, false, &best_mode))
5740 : 0 : return false;
5741 : 224 : str_mode = best_mode;
5742 : 224 : str_bitsize = GET_MODE_BITSIZE (best_mode);
5743 : :
5744 : 224 : offset1 = bitpos;
5745 : 224 : bitpos %= str_bitsize;
5746 : 224 : offset1 = (offset1 - bitpos) / BITS_PER_UNIT;
5747 : 224 : str_rtx = adjust_address (str_rtx, str_mode, offset1);
5748 : : }
5749 : 5 : else if (!REG_P (str_rtx) && GET_CODE (str_rtx) != SUBREG)
5750 : : return false;
5751 : :
5752 : : /* If the bit field covers the whole REG/MEM, store_field
5753 : : will likely generate better code. */
5754 : 229 : if (bitsize >= str_bitsize)
5755 : : return false;
5756 : :
5757 : : /* We can't handle fields split across multiple entities. */
5758 : 229 : if (bitpos + bitsize > str_bitsize)
5759 : : return false;
5760 : :
5761 : 229 : if (reverse ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
5762 : 0 : bitpos = str_bitsize - bitpos - bitsize;
5763 : :
5764 : 229 : switch (code)
5765 : : {
5766 : 141 : case PLUS_EXPR:
5767 : 141 : case MINUS_EXPR:
5768 : : /* For now, just optimize the case of the topmost bitfield
5769 : : where we don't need to do any masking and also
5770 : : 1 bit bitfields where xor can be used.
5771 : : We might win by one instruction for the other bitfields
5772 : : too if insv/extv instructions aren't used, so that
5773 : : can be added later. */
5774 : 141 : if ((reverse || bitpos + bitsize != str_bitsize)
5775 : 97 : && (bitsize != 1 || TREE_CODE (op1) != INTEGER_CST))
5776 : : break;
5777 : :
5778 : 70 : value = expand_expr (op1, NULL_RTX, str_mode, EXPAND_NORMAL);
5779 : 70 : value = convert_modes (str_mode,
5780 : 70 : TYPE_MODE (TREE_TYPE (op1)), value,
5781 : 70 : TYPE_UNSIGNED (TREE_TYPE (op1)));
5782 : :
5783 : : /* We may be accessing data outside the field, which means
5784 : : we can alias adjacent data. */
5785 : 70 : if (MEM_P (str_rtx))
5786 : : {
5787 : 70 : str_rtx = shallow_copy_rtx (str_rtx);
5788 : 70 : set_mem_alias_set (str_rtx, 0);
5789 : 70 : set_mem_expr (str_rtx, 0);
5790 : : }
5791 : :
5792 : 70 : if (bitsize == 1 && (reverse || bitpos + bitsize != str_bitsize))
5793 : : {
5794 : 26 : value = expand_and (str_mode, value, const1_rtx, NULL);
5795 : 26 : binop = xor_optab;
5796 : : }
5797 : : else
5798 : 44 : binop = code == PLUS_EXPR ? add_optab : sub_optab;
5799 : :
5800 : 70 : value = expand_shift (LSHIFT_EXPR, str_mode, value, bitpos, NULL_RTX, 1);
5801 : 70 : if (reverse)
5802 : 0 : value = flip_storage_order (str_mode, value);
5803 : 70 : result = expand_binop (str_mode, binop, str_rtx,
5804 : : value, str_rtx, 1, OPTAB_WIDEN);
5805 : 70 : if (result != str_rtx)
5806 : 0 : emit_move_insn (str_rtx, result);
5807 : : return true;
5808 : :
5809 : 58 : case BIT_IOR_EXPR:
5810 : 58 : case BIT_XOR_EXPR:
5811 : 58 : if (TREE_CODE (op1) != INTEGER_CST)
5812 : : break;
5813 : 55 : value = expand_expr (op1, NULL_RTX, str_mode, EXPAND_NORMAL);
5814 : 55 : value = convert_modes (str_mode,
5815 : 55 : TYPE_MODE (TREE_TYPE (op1)), value,
5816 : 55 : TYPE_UNSIGNED (TREE_TYPE (op1)));
5817 : :
5818 : : /* We may be accessing data outside the field, which means
5819 : : we can alias adjacent data. */
5820 : 55 : if (MEM_P (str_rtx))
5821 : : {
5822 : 55 : str_rtx = shallow_copy_rtx (str_rtx);
5823 : 55 : set_mem_alias_set (str_rtx, 0);
5824 : 55 : set_mem_expr (str_rtx, 0);
5825 : : }
5826 : :
5827 : 55 : binop = code == BIT_IOR_EXPR ? ior_optab : xor_optab;
5828 : 55 : if (bitpos + bitsize != str_bitsize)
5829 : : {
5830 : 31 : rtx mask = gen_int_mode ((HOST_WIDE_INT_1U << bitsize) - 1,
5831 : : str_mode);
5832 : 31 : value = expand_and (str_mode, value, mask, NULL_RTX);
5833 : : }
5834 : 55 : value = expand_shift (LSHIFT_EXPR, str_mode, value, bitpos, NULL_RTX, 1);
5835 : 55 : if (reverse)
5836 : 0 : value = flip_storage_order (str_mode, value);
5837 : 55 : result = expand_binop (str_mode, binop, str_rtx,
5838 : : value, str_rtx, 1, OPTAB_WIDEN);
5839 : 55 : if (result != str_rtx)
5840 : 0 : emit_move_insn (str_rtx, result);
5841 : : return true;
5842 : :
5843 : : default:
5844 : : break;
5845 : : }
5846 : :
5847 : : return false;
5848 : : }
5849 : :
5850 : : /* In the C++ memory model, consecutive bit fields in a structure are
5851 : : considered one memory location.
5852 : :
5853 : : Given a COMPONENT_REF EXP at position (BITPOS, OFFSET), this function
5854 : : returns the bit range of consecutive bits in which this COMPONENT_REF
5855 : : belongs. The values are returned in *BITSTART and *BITEND. *BITPOS
5856 : : and *OFFSET may be adjusted in the process.
5857 : :
5858 : : If the access does not need to be restricted, 0 is returned in both
5859 : : *BITSTART and *BITEND. */
5860 : :
5861 : : void
5862 : 758228 : get_bit_range (poly_uint64 *bitstart, poly_uint64 *bitend, tree exp,
5863 : : poly_int64 *bitpos, tree *offset)
5864 : : {
5865 : 758228 : poly_int64 bitoffset;
5866 : 758228 : tree field, repr;
5867 : :
5868 : 758228 : gcc_assert (TREE_CODE (exp) == COMPONENT_REF);
5869 : :
5870 : 758228 : field = TREE_OPERAND (exp, 1);
5871 : 758228 : repr = DECL_BIT_FIELD_REPRESENTATIVE (field);
5872 : : /* If we do not have a DECL_BIT_FIELD_REPRESENTATIVE there is no
5873 : : need to limit the range we can access. */
5874 : 758228 : if (!repr)
5875 : : {
5876 : 11617 : *bitstart = *bitend = 0;
5877 : 11617 : return;
5878 : : }
5879 : :
5880 : : /* If we have a DECL_BIT_FIELD_REPRESENTATIVE but the enclosing record is
5881 : : part of a larger bit field, then the representative does not serve any
5882 : : useful purpose. This can occur in Ada. */
5883 : 746611 : if (handled_component_p (TREE_OPERAND (exp, 0)))
5884 : : {
5885 : 553098 : machine_mode rmode;
5886 : 553098 : poly_int64 rbitsize, rbitpos;
5887 : 553098 : tree roffset;
5888 : 553098 : int unsignedp, reversep, volatilep = 0;
5889 : 553098 : get_inner_reference (TREE_OPERAND (exp, 0), &rbitsize, &rbitpos,
5890 : : &roffset, &rmode, &unsignedp, &reversep,
5891 : : &volatilep);
5892 : 1106196 : if (!multiple_p (rbitpos, BITS_PER_UNIT))
5893 : : {
5894 : 0 : *bitstart = *bitend = 0;
5895 : 0 : return;
5896 : : }
5897 : : }
5898 : :
5899 : : /* Compute the adjustment to bitpos from the offset of the field
5900 : : relative to the representative. DECL_FIELD_OFFSET of field and
5901 : : repr are the same by construction if they are not constants,
5902 : : see finish_bitfield_layout. */
5903 : 746611 : poly_uint64 field_offset, repr_offset;
5904 : 746611 : if (poly_int_tree_p (DECL_FIELD_OFFSET (field), &field_offset)
5905 : 1493217 : && poly_int_tree_p (DECL_FIELD_OFFSET (repr), &repr_offset))
5906 : 746606 : bitoffset = (field_offset - repr_offset) * BITS_PER_UNIT;
5907 : : else
5908 : : bitoffset = 0;
5909 : 746611 : bitoffset += (tree_to_uhwi (DECL_FIELD_BIT_OFFSET (field))
5910 : 746611 : - tree_to_uhwi (DECL_FIELD_BIT_OFFSET (repr)));
5911 : :
5912 : : /* If the adjustment is larger than bitpos, we would have a negative bit
5913 : : position for the lower bound and this may wreak havoc later. Adjust
5914 : : offset and bitpos to make the lower bound non-negative in that case. */
5915 : 746611 : if (maybe_gt (bitoffset, *bitpos))
5916 : : {
5917 : 11 : poly_int64 adjust_bits = upper_bound (bitoffset, *bitpos) - *bitpos;
5918 : 11 : poly_int64 adjust_bytes = exact_div (adjust_bits, BITS_PER_UNIT);
5919 : :
5920 : 11 : *bitpos += adjust_bits;
5921 : 11 : if (*offset == NULL_TREE)
5922 : 5 : *offset = size_int (-adjust_bytes);
5923 : : else
5924 : 6 : *offset = size_binop (MINUS_EXPR, *offset, size_int (adjust_bytes));
5925 : 11 : *bitstart = 0;
5926 : : }
5927 : : else
5928 : 746600 : *bitstart = *bitpos - bitoffset;
5929 : :
5930 : 746611 : *bitend = *bitstart + tree_to_poly_uint64 (DECL_SIZE (repr)) - 1;
5931 : : }
5932 : :
5933 : : /* Returns true if BASE is a DECL that does not reside in memory and
5934 : : has non-BLKmode. DECL_RTL must not be a MEM; if
5935 : : DECL_RTL was not set yet, return false. */
5936 : :
5937 : : bool
5938 : 4504420 : non_mem_decl_p (tree base)
5939 : : {
5940 : 4504420 : if (!DECL_P (base)
5941 : 4504119 : || TREE_ADDRESSABLE (base)
5942 : 6715890 : || DECL_MODE (base) == BLKmode)
5943 : : return false;
5944 : :
5945 : 1461640 : if (!DECL_RTL_SET_P (base))
5946 : : return false;
5947 : :
5948 : 1346245 : return (!MEM_P (DECL_RTL (base)));
5949 : : }
5950 : :
5951 : : /* Returns true if REF refers to an object that does not
5952 : : reside in memory and has non-BLKmode. */
5953 : :
5954 : : bool
5955 : 10269163 : mem_ref_refers_to_non_mem_p (tree ref)
5956 : : {
5957 : 10269163 : tree base;
5958 : :
5959 : 10269163 : if (TREE_CODE (ref) == MEM_REF
5960 : 10269163 : || TREE_CODE (ref) == TARGET_MEM_REF)
5961 : : {
5962 : 8739657 : tree addr = TREE_OPERAND (ref, 0);
5963 : :
5964 : 8739657 : if (TREE_CODE (addr) != ADDR_EXPR)
5965 : : return false;
5966 : :
5967 : 2974730 : base = TREE_OPERAND (addr, 0);
5968 : : }
5969 : : else
5970 : : base = ref;
5971 : :
5972 : 4504236 : return non_mem_decl_p (base);
5973 : : }
5974 : :
5975 : : /* Expand an assignment that stores the value of FROM into TO. If NONTEMPORAL
5976 : : is true, try generating a nontemporal store. */
5977 : :
5978 : : void
5979 : 17355165 : expand_assignment (tree to, tree from, bool nontemporal)
5980 : : {
5981 : 17355165 : rtx to_rtx = 0;
5982 : 17355165 : rtx result;
5983 : 17355165 : machine_mode mode;
5984 : 17355165 : unsigned int align;
5985 : 17355165 : enum insn_code icode;
5986 : :
5987 : : /* Don't crash if the lhs of the assignment was erroneous. */
5988 : 17355165 : if (TREE_CODE (to) == ERROR_MARK)
5989 : : {
5990 : 0 : expand_normal (from);
5991 : 0 : return;
5992 : : }
5993 : :
5994 : : /* Optimize away no-op moves without side-effects. */
5995 : 17355165 : if (operand_equal_p (to, from, 0))
5996 : : return;
5997 : :
5998 : : /* Handle misaligned stores. */
5999 : 17355092 : mode = TYPE_MODE (TREE_TYPE (to));
6000 : 17355092 : if ((TREE_CODE (to) == MEM_REF
6001 : 17355092 : || TREE_CODE (to) == TARGET_MEM_REF
6002 : 15573138 : || DECL_P (to))
6003 : 3657406 : && mode != BLKmode
6004 : 3199479 : && !mem_ref_refers_to_non_mem_p (to)
6005 : 5624790 : && ((align = get_object_alignment (to))
6006 : 2812395 : < GET_MODE_ALIGNMENT (mode))
6007 : 17776355 : && (((icode = optab_handler (movmisalign_optab, mode))
6008 : : != CODE_FOR_nothing)
6009 : 95898 : || targetm.slow_unaligned_access (mode, align)))
6010 : : {
6011 : 325365 : rtx reg, mem;
6012 : :
6013 : 325365 : reg = expand_expr (from, NULL_RTX, VOIDmode, EXPAND_NORMAL);
6014 : : /* Handle PARALLEL. */
6015 : 325365 : reg = maybe_emit_group_store (reg, TREE_TYPE (from));
6016 : 325365 : reg = force_not_mem (reg);
6017 : 325365 : mem = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_WRITE);
6018 : 325365 : if (TREE_CODE (to) == MEM_REF && REF_REVERSE_STORAGE_ORDER (to))
6019 : 0 : reg = flip_storage_order (mode, reg);
6020 : :
6021 : 325365 : if (icode != CODE_FOR_nothing)
6022 : : {
6023 : 325365 : class expand_operand ops[2];
6024 : :
6025 : 325365 : create_fixed_operand (&ops[0], mem);
6026 : 325365 : create_input_operand (&ops[1], reg, mode);
6027 : : /* The movmisalign<mode> pattern cannot fail, else the assignment
6028 : : would silently be omitted. */
6029 : 325365 : expand_insn (icode, 2, ops);
6030 : : }
6031 : : else
6032 : 0 : store_bit_field (mem, GET_MODE_BITSIZE (mode), 0, 0, 0, mode, reg,
6033 : : false, false);
6034 : 325365 : return;
6035 : : }
6036 : :
6037 : : /* Assignment of a structure component needs special treatment
6038 : : if the structure component's rtx is not simply a MEM.
6039 : : Assignment of an array element at a constant index, and assignment of
6040 : : an array element in an unaligned packed structure field, has the same
6041 : : problem. Same for (partially) storing into a non-memory object. */
6042 : 17029727 : if (handled_component_p (to)
6043 : 12668632 : || (TREE_CODE (to) == MEM_REF
6044 : 1248969 : && (REF_REVERSE_STORAGE_ORDER (to)
6045 : 1248969 : || mem_ref_refers_to_non_mem_p (to)))
6046 : 12614942 : || TREE_CODE (TREE_TYPE (to)) == ARRAY_TYPE)
6047 : : {
6048 : 4533399 : machine_mode mode1;
6049 : 4533399 : poly_int64 bitsize, bitpos;
6050 : 4533399 : poly_uint64 bitregion_start = 0;
6051 : 4533399 : poly_uint64 bitregion_end = 0;
6052 : 4533399 : tree offset;
6053 : 4533399 : int unsignedp, reversep, volatilep = 0;
6054 : 4533399 : tree tem;
6055 : :
6056 : 4533399 : push_temp_slots ();
6057 : 4533399 : tem = get_inner_reference (to, &bitsize, &bitpos, &offset, &mode1,
6058 : : &unsignedp, &reversep, &volatilep);
6059 : :
6060 : : /* Make sure bitpos is not negative, it can wreak havoc later. */
6061 : 4533399 : if (maybe_lt (bitpos, 0))
6062 : : {
6063 : 266 : gcc_assert (offset == NULL_TREE);
6064 : 266 : offset = size_int (bits_to_bytes_round_down (bitpos));
6065 : 266 : bitpos = num_trailing_bits (bitpos);
6066 : : }
6067 : :
6068 : 4533399 : if (TREE_CODE (to) == COMPONENT_REF
6069 : 4533399 : && DECL_BIT_FIELD_TYPE (TREE_OPERAND (to, 1)))
6070 : 86074 : get_bit_range (&bitregion_start, &bitregion_end, to, &bitpos, &offset);
6071 : : /* The C++ memory model naturally applies to byte-aligned fields.
6072 : : However, if we do not have a DECL_BIT_FIELD_TYPE but BITPOS or
6073 : : BITSIZE are not byte-aligned, there is no need to limit the range
6074 : : we can access. This can occur with packed structures in Ada. */
6075 : 4447325 : else if (maybe_gt (bitsize, 0)
6076 : 4447310 : && multiple_p (bitsize, BITS_PER_UNIT)
6077 : 8894487 : && multiple_p (bitpos, BITS_PER_UNIT))
6078 : : {
6079 : 4447162 : bitregion_start = bitpos;
6080 : 4447162 : bitregion_end = bitpos + bitsize - 1;
6081 : : }
6082 : :
6083 : 4533399 : to_rtx = expand_expr (tem, NULL_RTX, VOIDmode, EXPAND_WRITE);
6084 : :
6085 : : /* If the field has a mode, we want to access it in the
6086 : : field's mode, not the computed mode.
6087 : : If a MEM has VOIDmode (external with incomplete type),
6088 : : use BLKmode for it instead. */
6089 : 4533399 : if (MEM_P (to_rtx))
6090 : : {
6091 : 3867412 : if (mode1 != VOIDmode)
6092 : 3798776 : to_rtx = adjust_address (to_rtx, mode1, 0);
6093 : 68636 : else if (GET_MODE (to_rtx) == VOIDmode)
6094 : 0 : to_rtx = adjust_address (to_rtx, BLKmode, 0);
6095 : : }
6096 : :
6097 : 4533399 : rtx stemp = NULL_RTX, old_to_rtx = NULL_RTX;
6098 : 4533399 : if (offset != 0)
6099 : : {
6100 : 173742 : machine_mode address_mode;
6101 : 173742 : rtx offset_rtx;
6102 : :
6103 : 173742 : if (!MEM_P (to_rtx))
6104 : : {
6105 : : /* We can get constant negative offsets into arrays with broken
6106 : : user code. Translate this to a trap instead of ICEing. */
6107 : 4 : if (TREE_CODE (offset) == INTEGER_CST)
6108 : : {
6109 : 1 : expand_builtin_trap ();
6110 : 1 : to_rtx = gen_rtx_MEM (BLKmode, const0_rtx);
6111 : : }
6112 : : /* Else spill for variable offset to the destination. We expect
6113 : : to run into this only for hard registers. */
6114 : : else
6115 : : {
6116 : 3 : gcc_assert (VAR_P (tem) && DECL_HARD_REGISTER (tem));
6117 : 3 : stemp = assign_stack_temp (GET_MODE (to_rtx),
6118 : 6 : GET_MODE_SIZE (GET_MODE (to_rtx)));
6119 : 3 : emit_move_insn (stemp, to_rtx);
6120 : 3 : old_to_rtx = to_rtx;
6121 : 3 : to_rtx = stemp;
6122 : : }
6123 : : }
6124 : :
6125 : 173742 : offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, EXPAND_SUM);
6126 : 173742 : address_mode = get_address_mode (to_rtx);
6127 : 173742 : if (GET_MODE (offset_rtx) != address_mode)
6128 : : {
6129 : : /* We cannot be sure that the RTL in offset_rtx is valid outside
6130 : : of a memory address context, so force it into a register
6131 : : before attempting to convert it to the desired mode. */
6132 : 290 : offset_rtx = force_operand (offset_rtx, NULL_RTX);
6133 : 290 : offset_rtx = convert_to_mode (address_mode, offset_rtx, 0);
6134 : : }
6135 : :
6136 : : /* If we have an expression in OFFSET_RTX and a non-zero
6137 : : byte offset in BITPOS, adding the byte offset before the
6138 : : OFFSET_RTX results in better intermediate code, which makes
6139 : : later rtl optimization passes perform better.
6140 : :
6141 : : We prefer intermediate code like this:
6142 : :
6143 : : r124:DI=r123:DI+0x18
6144 : : [r124:DI]=r121:DI
6145 : :
6146 : : ... instead of ...
6147 : :
6148 : : r124:DI=r123:DI+0x10
6149 : : [r124:DI+0x8]=r121:DI
6150 : :
6151 : : This is only done for aligned data values, as these can
6152 : : be expected to result in single move instructions. */
6153 : 173742 : poly_int64 bytepos;
6154 : 173742 : if (mode1 != VOIDmode
6155 : 173636 : && maybe_ne (bitpos, 0)
6156 : 49067 : && maybe_gt (bitsize, 0)
6157 : 222809 : && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
6158 : 222749 : && multiple_p (bitpos, bitsize)
6159 : 98014 : && multiple_p (bitsize, GET_MODE_ALIGNMENT (mode1))
6160 : 222749 : && MEM_ALIGN (to_rtx) >= GET_MODE_ALIGNMENT (mode1))
6161 : : {
6162 : 48992 : to_rtx = adjust_address (to_rtx, mode1, bytepos);
6163 : 48992 : bitregion_start = 0;
6164 : 48992 : if (known_ge (bitregion_end, poly_uint64 (bitpos)))
6165 : 48992 : bitregion_end -= bitpos;
6166 : 48992 : bitpos = 0;
6167 : : }
6168 : :
6169 : 173742 : to_rtx = offset_address (to_rtx, offset_rtx,
6170 : : highest_pow2_factor_for_target (to,
6171 : : offset));
6172 : : }
6173 : :
6174 : : /* No action is needed if the target is not a memory and the field
6175 : : lies completely outside that target. This can occur if the source
6176 : : code contains an out-of-bounds access to a small array. */
6177 : 4533399 : if (!MEM_P (to_rtx)
6178 : 665983 : && GET_MODE (to_rtx) != BLKmode
6179 : 5199382 : && known_ge (bitpos, GET_MODE_PRECISION (GET_MODE (to_rtx))))
6180 : : {
6181 : 3 : expand_normal (from);
6182 : 3 : result = NULL;
6183 : : }
6184 : : /* Handle expand_expr of a complex value returning a CONCAT. */
6185 : 4533396 : else if (GET_CODE (to_rtx) == CONCAT)
6186 : : {
6187 : 130 : machine_mode to_mode = GET_MODE (to_rtx);
6188 : 130 : gcc_checking_assert (COMPLEX_MODE_P (to_mode));
6189 : 260 : poly_int64 mode_bitsize = GET_MODE_BITSIZE (to_mode);
6190 : 130 : unsigned short inner_bitsize = GET_MODE_UNIT_BITSIZE (to_mode);
6191 : 130 : if (TYPE_MODE (TREE_TYPE (from)) == to_mode
6192 : 6 : && known_eq (bitpos, 0)
6193 : 136 : && known_eq (bitsize, mode_bitsize))
6194 : 6 : result = store_expr (from, to_rtx, false, nontemporal, reversep);
6195 : 124 : else if (TYPE_MODE (TREE_TYPE (from)) == GET_MODE_INNER (to_mode)
6196 : 76 : && known_eq (bitsize, inner_bitsize)
6197 : 200 : && (known_eq (bitpos, 0)
6198 : 34 : || known_eq (bitpos, inner_bitsize)))
6199 : 76 : result = store_expr (from, XEXP (to_rtx, maybe_ne (bitpos, 0)),
6200 : : false, nontemporal, reversep);
6201 : 48 : else if (known_le (bitpos + bitsize, inner_bitsize))
6202 : 5 : result = store_field (XEXP (to_rtx, 0), bitsize, bitpos,
6203 : : bitregion_start, bitregion_end,
6204 : : mode1, from, get_alias_set (to),
6205 : : nontemporal, reversep);
6206 : 43 : else if (known_ge (bitpos, inner_bitsize))
6207 : 3 : result = store_field (XEXP (to_rtx, 1), bitsize,
6208 : : bitpos - inner_bitsize,
6209 : : bitregion_start, bitregion_end,
6210 : : mode1, from, get_alias_set (to),
6211 : : nontemporal, reversep);
6212 : 40 : else if (known_eq (bitpos, 0) && known_eq (bitsize, mode_bitsize))
6213 : : {
6214 : 33 : result = expand_normal (from);
6215 : 33 : if (GET_CODE (result) == CONCAT)
6216 : : {
6217 : 0 : to_mode = GET_MODE_INNER (to_mode);
6218 : 0 : machine_mode from_mode = GET_MODE_INNER (GET_MODE (result));
6219 : 0 : rtx from_real
6220 : 0 : = force_subreg (to_mode, XEXP (result, 0), from_mode, 0);
6221 : 0 : rtx from_imag
6222 : 0 : = force_subreg (to_mode, XEXP (result, 1), from_mode, 0);
6223 : 0 : if (!from_real || !from_imag)
6224 : 0 : goto concat_store_slow;
6225 : 0 : emit_move_insn (XEXP (to_rtx, 0), from_real);
6226 : 0 : emit_move_insn (XEXP (to_rtx, 1), from_imag);
6227 : : }
6228 : : else
6229 : : {
6230 : 33 : machine_mode from_mode
6231 : 33 : = GET_MODE (result) == VOIDmode
6232 : 33 : ? TYPE_MODE (TREE_TYPE (from))
6233 : 33 : : GET_MODE (result);
6234 : 33 : rtx from_rtx;
6235 : 33 : if (MEM_P (result))
6236 : 1 : from_rtx = change_address (result, to_mode, NULL_RTX);
6237 : : else
6238 : 32 : from_rtx = force_subreg (to_mode, result, from_mode, 0);
6239 : 33 : if (from_rtx)
6240 : : {
6241 : 33 : emit_move_insn (XEXP (to_rtx, 0),
6242 : : read_complex_part (from_rtx, false));
6243 : 33 : emit_move_insn (XEXP (to_rtx, 1),
6244 : : read_complex_part (from_rtx, true));
6245 : : }
6246 : : else
6247 : : {
6248 : 0 : to_mode = GET_MODE_INNER (to_mode);
6249 : 0 : rtx from_real
6250 : 0 : = force_subreg (to_mode, result, from_mode, 0);
6251 : 0 : rtx from_imag
6252 : 0 : = force_subreg (to_mode, result, from_mode,
6253 : 0 : GET_MODE_SIZE (to_mode));
6254 : 0 : if (!from_real || !from_imag)
6255 : 0 : goto concat_store_slow;
6256 : 0 : emit_move_insn (XEXP (to_rtx, 0), from_real);
6257 : 0 : emit_move_insn (XEXP (to_rtx, 1), from_imag);
6258 : : }
6259 : : }
6260 : : }
6261 : : else
6262 : : {
6263 : 7 : concat_store_slow:;
6264 : 7 : rtx temp = assign_stack_temp (GET_MODE (to_rtx),
6265 : 14 : GET_MODE_SIZE (GET_MODE (to_rtx)));
6266 : 7 : write_complex_part (temp, XEXP (to_rtx, 0), false, true);
6267 : 7 : write_complex_part (temp, XEXP (to_rtx, 1), true, false);
6268 : 7 : result = store_field (temp, bitsize, bitpos,
6269 : : bitregion_start, bitregion_end,
6270 : : mode1, from, get_alias_set (to),
6271 : : nontemporal, reversep);
6272 : 7 : emit_move_insn (XEXP (to_rtx, 0), read_complex_part (temp, false));
6273 : 7 : emit_move_insn (XEXP (to_rtx, 1), read_complex_part (temp, true));
6274 : : }
6275 : : }
6276 : : /* For calls to functions returning variable length structures, if TO_RTX
6277 : : is not a MEM, go through a MEM because we must not create temporaries
6278 : : of the VLA type. */
6279 : 4533266 : else if (!MEM_P (to_rtx)
6280 : 665850 : && TREE_CODE (from) == CALL_EXPR
6281 : 736 : && COMPLETE_TYPE_P (TREE_TYPE (from))
6282 : 4534002 : && TREE_CODE (TYPE_SIZE (TREE_TYPE (from))) != INTEGER_CST)
6283 : : {
6284 : 6 : rtx temp = assign_stack_temp (GET_MODE (to_rtx),
6285 : 12 : GET_MODE_SIZE (GET_MODE (to_rtx)));
6286 : 6 : result = store_field (temp, bitsize, bitpos, bitregion_start,
6287 : : bitregion_end, mode1, from, get_alias_set (to),
6288 : : nontemporal, reversep);
6289 : 6 : emit_move_insn (to_rtx, temp);
6290 : : }
6291 : : else
6292 : : {
6293 : 4533260 : if (MEM_P (to_rtx))
6294 : : {
6295 : : /* If the field is at offset zero, we could have been given the
6296 : : DECL_RTX of the parent struct. Don't munge it. */
6297 : 3867416 : to_rtx = shallow_copy_rtx (to_rtx);
6298 : 3867416 : set_mem_attributes_minus_bitpos (to_rtx, to, 0, bitpos);
6299 : 3867416 : if (volatilep)
6300 : 6754 : MEM_VOLATILE_P (to_rtx) = 1;
6301 : : }
6302 : :
6303 : 4533260 : gcc_checking_assert (known_ge (bitpos, 0));
6304 : 4533260 : if (optimize_bitfield_assignment_op (bitsize, bitpos,
6305 : : bitregion_start, bitregion_end,
6306 : : mode1, to_rtx, to, from,
6307 : : reversep))
6308 : : result = NULL;
6309 : 4533135 : else if (SUBREG_P (to_rtx)
6310 : 4533135 : && SUBREG_PROMOTED_VAR_P (to_rtx))
6311 : : {
6312 : : /* If to_rtx is a promoted subreg, we need to zero or sign
6313 : : extend the value afterwards. */
6314 : 0 : if (TREE_CODE (to) == MEM_REF
6315 : 0 : && TYPE_MODE (TREE_TYPE (from)) != BLKmode
6316 : 0 : && !REF_REVERSE_STORAGE_ORDER (to)
6317 : 0 : && known_eq (bitpos, 0)
6318 : 0 : && known_eq (bitsize, GET_MODE_BITSIZE (GET_MODE (to_rtx))))
6319 : 0 : result = store_expr (from, to_rtx, 0, nontemporal, false);
6320 : : /* Check if the field overlaps the MSB, requiring extension. */
6321 : 0 : else if (maybe_eq (bitpos + bitsize,
6322 : 0 : GET_MODE_BITSIZE (GET_MODE (to_rtx))))
6323 : : {
6324 : 0 : scalar_int_mode imode = subreg_unpromoted_mode (to_rtx);
6325 : 0 : scalar_int_mode omode = subreg_promoted_mode (to_rtx);
6326 : 0 : rtx to_rtx1 = lowpart_subreg (imode, SUBREG_REG (to_rtx),
6327 : : omode);
6328 : 0 : result = store_field (to_rtx1, bitsize, bitpos,
6329 : : bitregion_start, bitregion_end,
6330 : : mode1, from, get_alias_set (to),
6331 : : nontemporal, reversep);
6332 : : /* If the target usually keeps IMODE appropriately
6333 : : extended in OMODE it's unsafe to refer to it using
6334 : : a SUBREG whilst this invariant doesn't hold. */
6335 : 0 : if (targetm.mode_rep_extended (imode, omode) != UNKNOWN)
6336 : 0 : to_rtx1 = simplify_gen_unary (TRUNCATE, imode,
6337 : : SUBREG_REG (to_rtx), omode);
6338 : 0 : convert_move (SUBREG_REG (to_rtx), to_rtx1,
6339 : 0 : SUBREG_PROMOTED_SIGN (to_rtx));
6340 : : }
6341 : : else
6342 : 0 : result = store_field (to_rtx, bitsize, bitpos,
6343 : : bitregion_start, bitregion_end,
6344 : : mode1, from, get_alias_set (to),
6345 : : nontemporal, reversep);
6346 : : }
6347 : : else
6348 : 4533135 : result = store_field (to_rtx, bitsize, bitpos,
6349 : : bitregion_start, bitregion_end,
6350 : : mode1, from, get_alias_set (to),
6351 : : nontemporal, reversep);
6352 : : /* Move the temporary storage back to the non-MEM_P. */
6353 : 4533260 : if (stemp)
6354 : 3 : emit_move_insn (old_to_rtx, stemp);
6355 : : }
6356 : :
6357 : 4533399 : if (result)
6358 : 807468 : preserve_temp_slots (result);
6359 : 4533399 : pop_temp_slots ();
6360 : 4533399 : return;
6361 : : }
6362 : :
6363 : : /* If the rhs is a function call and its value is not an aggregate,
6364 : : call the function before we start to compute the lhs.
6365 : : This is needed for correct code for cases such as
6366 : : val = setjmp (buf) on machines where reference to val
6367 : : requires loading up part of an address in a separate insn.
6368 : :
6369 : : Don't do this if TO is a VAR_DECL or PARM_DECL whose DECL_RTL is REG
6370 : : since it might be a promoted variable where the zero- or sign- extension
6371 : : needs to be done. Handling this in the normal way is safe because no
6372 : : computation is done before the call. The same is true for SSA names. */
6373 : 2201142 : if (TREE_CODE (from) == CALL_EXPR && ! aggregate_value_p (from, from)
6374 : 2004871 : && COMPLETE_TYPE_P (TREE_TYPE (from))
6375 : 2004871 : && TREE_CODE (TYPE_SIZE (TREE_TYPE (from))) == INTEGER_CST
6376 : 14501199 : && ! (((VAR_P (to)
6377 : : || TREE_CODE (to) == PARM_DECL
6378 : : || TREE_CODE (to) == RESULT_DECL)
6379 : 122312 : && REG_P (DECL_RTL (to)))
6380 : 1889409 : || TREE_CODE (to) == SSA_NAME))
6381 : : {
6382 : 7066 : rtx value;
6383 : :
6384 : 7066 : push_temp_slots ();
6385 : 7066 : value = expand_normal (from);
6386 : :
6387 : 7066 : if (to_rtx == 0)
6388 : 7066 : to_rtx = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_WRITE);
6389 : :
6390 : : /* Handle calls that return values in multiple non-contiguous locations.
6391 : : The Irix 6 ABI has examples of this. */
6392 : 7066 : if (GET_CODE (to_rtx) == PARALLEL)
6393 : : {
6394 : 0 : if (GET_CODE (value) == PARALLEL)
6395 : 0 : emit_group_move (to_rtx, value);
6396 : : else
6397 : 0 : emit_group_load (to_rtx, value, TREE_TYPE (from),
6398 : 0 : int_size_in_bytes (TREE_TYPE (from)));
6399 : : }
6400 : 7066 : else if (GET_CODE (value) == PARALLEL)
6401 : 1304 : emit_group_store (to_rtx, value, TREE_TYPE (from),
6402 : 1304 : int_size_in_bytes (TREE_TYPE (from)));
6403 : 5762 : else if (GET_MODE (to_rtx) == BLKmode)
6404 : : {
6405 : : /* Handle calls that return BLKmode values in registers. */
6406 : 249 : if (REG_P (value))
6407 : 249 : copy_blkmode_from_reg (to_rtx, value, TREE_TYPE (from));
6408 : : else
6409 : 0 : emit_block_move (to_rtx, value, expr_size (from), BLOCK_OP_NORMAL);
6410 : : }
6411 : : else
6412 : : {
6413 : 5513 : if (POINTER_TYPE_P (TREE_TYPE (to)))
6414 : 0 : value = convert_memory_address_addr_space
6415 : 0 : (as_a <scalar_int_mode> (GET_MODE (to_rtx)), value,
6416 : 0 : TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (to))));
6417 : :
6418 : 5513 : emit_move_insn (to_rtx, value);
6419 : : }
6420 : :
6421 : 7066 : preserve_temp_slots (to_rtx);
6422 : 7066 : pop_temp_slots ();
6423 : 7066 : return;
6424 : : }
6425 : :
6426 : : /* Ordinary treatment. Expand TO to get a REG or MEM rtx. */
6427 : 12489262 : to_rtx = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_WRITE);
6428 : :
6429 : : /* Don't move directly into a return register. */
6430 : 12489262 : if (TREE_CODE (to) == RESULT_DECL
6431 : 16016 : && (REG_P (to_rtx) || GET_CODE (to_rtx) == PARALLEL))
6432 : : {
6433 : 43 : rtx temp;
6434 : :
6435 : 43 : push_temp_slots ();
6436 : :
6437 : : /* If the source is itself a return value, it still is in a pseudo at
6438 : : this point so we can move it back to the return register directly. */
6439 : 43 : if (REG_P (to_rtx)
6440 : 43 : && TYPE_MODE (TREE_TYPE (from)) == BLKmode
6441 : 43 : && TREE_CODE (from) != CALL_EXPR)
6442 : 0 : temp = copy_blkmode_to_reg (GET_MODE (to_rtx), from);
6443 : : else
6444 : 43 : temp = expand_expr (from, NULL_RTX, GET_MODE (to_rtx), EXPAND_NORMAL);
6445 : :
6446 : : /* Handle calls that return values in multiple non-contiguous locations.
6447 : : The Irix 6 ABI has examples of this. */
6448 : 43 : if (GET_CODE (to_rtx) == PARALLEL)
6449 : : {
6450 : 0 : if (GET_CODE (temp) == PARALLEL)
6451 : 0 : emit_group_move (to_rtx, temp);
6452 : : else
6453 : 0 : emit_group_load (to_rtx, temp, TREE_TYPE (from),
6454 : 0 : int_size_in_bytes (TREE_TYPE (from)));
6455 : : }
6456 : 43 : else if (temp)
6457 : 43 : emit_move_insn (to_rtx, temp);
6458 : :
6459 : 43 : preserve_temp_slots (to_rtx);
6460 : 43 : pop_temp_slots ();
6461 : 43 : return;
6462 : : }
6463 : :
6464 : : /* In case we are returning the contents of an object which overlaps
6465 : : the place the value is being stored, use a safe function when copying
6466 : : a value through a pointer into a structure value return block. */
6467 : 12489219 : if (TREE_CODE (to) == RESULT_DECL
6468 : 15973 : && TREE_CODE (from) == INDIRECT_REF
6469 : 0 : && ADDR_SPACE_GENERIC_P
6470 : : (TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (from, 0)))))
6471 : 0 : && refs_may_alias_p (to, from)
6472 : 0 : && cfun->returns_struct
6473 : 12489219 : && !cfun->returns_pcc_struct)
6474 : : {
6475 : 0 : rtx from_rtx, size;
6476 : :
6477 : 0 : push_temp_slots ();
6478 : 0 : size = expr_size (from);
6479 : 0 : from_rtx = expand_normal (from);
6480 : :
6481 : 0 : emit_block_move_via_libcall (XEXP (to_rtx, 0), XEXP (from_rtx, 0), size);
6482 : :
6483 : 0 : preserve_temp_slots (to_rtx);
6484 : 0 : pop_temp_slots ();
6485 : 0 : return;
6486 : : }
6487 : :
6488 : : /* Compute FROM and store the value in the rtx we got. */
6489 : :
6490 : 12489219 : push_temp_slots ();
6491 : 12489219 : result = store_expr (from, to_rtx, 0, nontemporal, false);
6492 : 12489219 : preserve_temp_slots (result);
6493 : 12489219 : pop_temp_slots ();
6494 : 12489219 : return;
6495 : : }
6496 : :
6497 : : /* Emits nontemporal store insn that moves FROM to TO. Returns true if this
6498 : : succeeded, false otherwise. */
6499 : :
6500 : : bool
6501 : 17 : emit_storent_insn (rtx to, rtx from)
6502 : : {
6503 : 17 : class expand_operand ops[2];
6504 : 17 : machine_mode mode = GET_MODE (to);
6505 : 17 : enum insn_code code = optab_handler (storent_optab, mode);
6506 : :
6507 : 17 : if (code == CODE_FOR_nothing)
6508 : : return false;
6509 : :
6510 : 17 : create_fixed_operand (&ops[0], to);
6511 : 17 : create_input_operand (&ops[1], from, mode);
6512 : 17 : return maybe_expand_insn (code, 2, ops);
6513 : : }
6514 : :
6515 : : /* Helper function for store_expr storing of STRING_CST. */
6516 : :
6517 : : static rtx
6518 : 84162 : string_cst_read_str (void *data, void *, HOST_WIDE_INT offset,
6519 : : fixed_size_mode mode)
6520 : : {
6521 : 84162 : tree str = (tree) data;
6522 : :
6523 : 84162 : gcc_assert (offset >= 0);
6524 : 84162 : if (offset >= TREE_STRING_LENGTH (str))
6525 : 3492 : return const0_rtx;
6526 : :
6527 : 80670 : if ((unsigned HOST_WIDE_INT) offset + GET_MODE_SIZE (mode)
6528 : 80670 : > (unsigned HOST_WIDE_INT) TREE_STRING_LENGTH (str))
6529 : : {
6530 : 2481 : char *p = XALLOCAVEC (char, GET_MODE_SIZE (mode));
6531 : 2481 : size_t l = TREE_STRING_LENGTH (str) - offset;
6532 : 2481 : memcpy (p, TREE_STRING_POINTER (str) + offset, l);
6533 : 2481 : memset (p + l, '\0', GET_MODE_SIZE (mode) - l);
6534 : 2481 : return c_readstr (p, mode, false);
6535 : : }
6536 : :
6537 : 78189 : return c_readstr (TREE_STRING_POINTER (str) + offset, mode, false);
6538 : : }
6539 : :
6540 : : /* Generate code for computing expression EXP,
6541 : : and storing the value into TARGET.
6542 : :
6543 : : If the mode is BLKmode then we may return TARGET itself.
6544 : : It turns out that in BLKmode it doesn't cause a problem.
6545 : : because C has no operators that could combine two different
6546 : : assignments into the same BLKmode object with different values
6547 : : with no sequence point. Will other languages need this to
6548 : : be more thorough?
6549 : :
6550 : : If CALL_PARAM_P is nonzero, this is a store into a call param on the
6551 : : stack, and block moves may need to be treated specially.
6552 : :
6553 : : If NONTEMPORAL is true, try using a nontemporal store instruction.
6554 : :
6555 : : If REVERSE is true, the store is to be done in reverse order. */
6556 : :
6557 : : rtx
6558 : 16251801 : store_expr (tree exp, rtx target, int call_param_p,
6559 : : bool nontemporal, bool reverse)
6560 : : {
6561 : 16251801 : rtx temp;
6562 : 16251801 : rtx alt_rtl = NULL_RTX;
6563 : 16251801 : location_t loc = curr_insn_location ();
6564 : 16251801 : bool shortened_string_cst = false;
6565 : :
6566 : 16251801 : if (VOID_TYPE_P (TREE_TYPE (exp)))
6567 : : {
6568 : : /* C++ can generate ?: expressions with a throw expression in one
6569 : : branch and an rvalue in the other. Here, we resolve attempts to
6570 : : store the throw expression's nonexistent result. */
6571 : 0 : gcc_assert (!call_param_p);
6572 : 0 : expand_expr (exp, const0_rtx, VOIDmode, EXPAND_NORMAL);
6573 : 0 : return NULL_RTX;
6574 : : }
6575 : 16251801 : if (TREE_CODE (exp) == COMPOUND_EXPR)
6576 : : {
6577 : : /* Perform first part of compound expression, then assign from second
6578 : : part. */
6579 : 0 : expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode,
6580 : : call_param_p ? EXPAND_STACK_PARM : EXPAND_NORMAL);
6581 : 0 : return store_expr (TREE_OPERAND (exp, 1), target,
6582 : 0 : call_param_p, nontemporal, reverse);
6583 : : }
6584 : 16251801 : else if (TREE_CODE (exp) == COND_EXPR && GET_MODE (target) == BLKmode)
6585 : : {
6586 : : /* For conditional expression, get safe form of the target. Then
6587 : : test the condition, doing the appropriate assignment on either
6588 : : side. This avoids the creation of unnecessary temporaries.
6589 : : For non-BLKmode, it is more efficient not to do this. */
6590 : :
6591 : 0 : rtx_code_label *lab1 = gen_label_rtx (), *lab2 = gen_label_rtx ();
6592 : :
6593 : 0 : do_pending_stack_adjust ();
6594 : 0 : NO_DEFER_POP;
6595 : 0 : jumpifnot (TREE_OPERAND (exp, 0), lab1,
6596 : : profile_probability::uninitialized ());
6597 : 0 : store_expr (TREE_OPERAND (exp, 1), target, call_param_p,
6598 : : nontemporal, reverse);
6599 : 0 : emit_jump_insn (targetm.gen_jump (lab2));
6600 : 0 : emit_barrier ();
6601 : 0 : emit_label (lab1);
6602 : 0 : store_expr (TREE_OPERAND (exp, 2), target, call_param_p,
6603 : : nontemporal, reverse);
6604 : 0 : emit_label (lab2);
6605 : 0 : OK_DEFER_POP;
6606 : :
6607 : 0 : return NULL_RTX;
6608 : : }
6609 : 16251801 : else if (GET_CODE (target) == SUBREG && SUBREG_PROMOTED_VAR_P (target))
6610 : : /* If this is a scalar in a register that is stored in a wider mode
6611 : : than the declared mode, compute the result into its declared mode
6612 : : and then convert to the wider mode. Our value is the computed
6613 : : expression. */
6614 : : {
6615 : 7 : rtx inner_target = 0;
6616 : 7 : scalar_int_mode outer_mode = subreg_unpromoted_mode (target);
6617 : 7 : scalar_int_mode inner_mode = subreg_promoted_mode (target);
6618 : :
6619 : : /* We can do the conversion inside EXP, which will often result
6620 : : in some optimizations. Do the conversion in two steps: first
6621 : : change the signedness, if needed, then the extend. But don't
6622 : : do this if the type of EXP is a subtype of something else
6623 : : since then the conversion might involve more than just
6624 : : converting modes. */
6625 : 14 : if (INTEGRAL_TYPE_P (TREE_TYPE (exp))
6626 : 0 : && TREE_TYPE (TREE_TYPE (exp)) == 0
6627 : 7 : && GET_MODE_PRECISION (outer_mode)
6628 : 0 : == TYPE_PRECISION (TREE_TYPE (exp)))
6629 : : {
6630 : 0 : if (!SUBREG_CHECK_PROMOTED_SIGN (target,
6631 : : TYPE_UNSIGNED (TREE_TYPE (exp))))
6632 : : {
6633 : : /* Some types, e.g. Fortran's logical*4, won't have a signed
6634 : : version, so use the mode instead. */
6635 : 0 : tree ntype
6636 : : = (signed_or_unsigned_type_for
6637 : 0 : (SUBREG_PROMOTED_SIGN (target), TREE_TYPE (exp)));
6638 : 0 : if (ntype == NULL)
6639 : 0 : ntype = lang_hooks.types.type_for_mode
6640 : 0 : (TYPE_MODE (TREE_TYPE (exp)),
6641 : 0 : SUBREG_PROMOTED_SIGN (target));
6642 : :
6643 : 0 : exp = fold_convert_loc (loc, ntype, exp);
6644 : : }
6645 : :
6646 : 0 : exp = fold_convert_loc (loc, lang_hooks.types.type_for_mode
6647 : 0 : (inner_mode, SUBREG_PROMOTED_SIGN (target)),
6648 : : exp);
6649 : :
6650 : 0 : inner_target = SUBREG_REG (target);
6651 : : }
6652 : :
6653 : 7 : temp = expand_expr (exp, inner_target, VOIDmode,
6654 : : call_param_p ? EXPAND_STACK_PARM : EXPAND_NORMAL);
6655 : :
6656 : :
6657 : : /* If TEMP is a VOIDmode constant, use convert_modes to make
6658 : : sure that we properly convert it. */
6659 : 7 : if (CONSTANT_P (temp) && GET_MODE (temp) == VOIDmode)
6660 : : {
6661 : 0 : temp = convert_modes (outer_mode, TYPE_MODE (TREE_TYPE (exp)),
6662 : 0 : temp, SUBREG_PROMOTED_SIGN (target));
6663 : 0 : temp = convert_modes (inner_mode, outer_mode, temp,
6664 : 0 : SUBREG_PROMOTED_SIGN (target));
6665 : 0 : }
6666 : 7 : else if (!SCALAR_INT_MODE_P (GET_MODE (temp)))
6667 : 0 : temp = convert_modes (outer_mode, TYPE_MODE (TREE_TYPE (exp)),
6668 : 0 : temp, SUBREG_PROMOTED_SIGN (target));
6669 : :
6670 : 21 : convert_move (SUBREG_REG (target), temp,
6671 : 7 : SUBREG_PROMOTED_SIGN (target));
6672 : :
6673 : 7 : return NULL_RTX;
6674 : : }
6675 : 16251794 : else if ((TREE_CODE (exp) == STRING_CST
6676 : 16243033 : || (TREE_CODE (exp) == MEM_REF
6677 : 1119815 : && TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
6678 : 323269 : && TREE_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
6679 : : == STRING_CST
6680 : 4264 : && integer_zerop (TREE_OPERAND (exp, 1))))
6681 : 13025 : && !nontemporal && !call_param_p
6682 : 16264819 : && MEM_P (target))
6683 : : {
6684 : : /* Optimize initialization of an array with a STRING_CST. */
6685 : 13019 : HOST_WIDE_INT exp_len, str_copy_len;
6686 : 13019 : rtx dest_mem;
6687 : 13019 : tree str = TREE_CODE (exp) == STRING_CST
6688 : 13019 : ? exp : TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
6689 : :
6690 : 13019 : exp_len = int_expr_size (exp);
6691 : 13019 : if (exp_len <= 0)
6692 : 0 : goto normal_expr;
6693 : :
6694 : 13019 : if (TREE_STRING_LENGTH (str) <= 0)
6695 : 0 : goto normal_expr;
6696 : :
6697 : 26038 : if (can_store_by_pieces (exp_len, string_cst_read_str, (void *) str,
6698 : 13019 : MEM_ALIGN (target), false))
6699 : : {
6700 : 12845 : store_by_pieces (target, exp_len, string_cst_read_str, (void *) str,
6701 : 12845 : MEM_ALIGN (target), false, RETURN_BEGIN);
6702 : 12845 : return NULL_RTX;
6703 : : }
6704 : :
6705 : 174 : str_copy_len = TREE_STRING_LENGTH (str);
6706 : :
6707 : : /* Trailing NUL bytes in EXP will be handled by the call to
6708 : : clear_storage, which is more efficient than copying them from
6709 : : the STRING_CST, so trim those from STR_COPY_LEN. */
6710 : 296 : while (str_copy_len)
6711 : : {
6712 : 253 : if (TREE_STRING_POINTER (str)[str_copy_len - 1])
6713 : : break;
6714 : 122 : str_copy_len--;
6715 : : }
6716 : :
6717 : 174 : if ((STORE_MAX_PIECES & (STORE_MAX_PIECES - 1)) == 0)
6718 : : {
6719 : 174 : str_copy_len += STORE_MAX_PIECES - 1;
6720 : 174 : str_copy_len &= ~(STORE_MAX_PIECES - 1);
6721 : : }
6722 : 174 : if (str_copy_len >= exp_len)
6723 : 123 : goto normal_expr;
6724 : :
6725 : 102 : if (!can_store_by_pieces (str_copy_len, string_cst_read_str,
6726 : 51 : (void *) str, MEM_ALIGN (target), false))
6727 : 2 : goto normal_expr;
6728 : :
6729 : 49 : dest_mem = store_by_pieces (target, str_copy_len, string_cst_read_str,
6730 : 49 : (void *) str, MEM_ALIGN (target), false,
6731 : : RETURN_END);
6732 : 49 : clear_storage (adjust_address_1 (dest_mem, BLKmode, 0, 1, 1, 0,
6733 : 49 : exp_len - str_copy_len),
6734 : : GEN_INT (exp_len - str_copy_len), BLOCK_OP_NORMAL);
6735 : 49 : return NULL_RTX;
6736 : : }
6737 : : else
6738 : : {
6739 : 16238900 : rtx tmp_target;
6740 : :
6741 : 16238900 : normal_expr:
6742 : : /* If we want to use a nontemporal or a reverse order store, force the
6743 : : value into a register first. */
6744 : 16238900 : tmp_target = nontemporal || reverse ? NULL_RTX : target;
6745 : 16238900 : tree rexp = exp;
6746 : 16238900 : if (TREE_CODE (exp) == STRING_CST
6747 : 41 : && tmp_target == target
6748 : 41 : && GET_MODE (target) == BLKmode
6749 : 16238941 : && TYPE_MODE (TREE_TYPE (exp)) == BLKmode)
6750 : : {
6751 : 41 : rtx size = expr_size (exp);
6752 : 41 : if (CONST_INT_P (size)
6753 : 41 : && size != const0_rtx
6754 : 82 : && (UINTVAL (size)
6755 : 41 : > ((unsigned HOST_WIDE_INT) TREE_STRING_LENGTH (exp) + 32)))
6756 : : {
6757 : : /* If the STRING_CST has much larger array type than
6758 : : TREE_STRING_LENGTH, only emit the TREE_STRING_LENGTH part of
6759 : : it into the rodata section as the code later on will use
6760 : : memset zero for the remainder anyway. See PR95052. */
6761 : 2 : tmp_target = NULL_RTX;
6762 : 2 : rexp = copy_node (exp);
6763 : 2 : tree index
6764 : 2 : = build_index_type (size_int (TREE_STRING_LENGTH (exp) - 1));
6765 : 2 : TREE_TYPE (rexp) = build_array_type (TREE_TYPE (TREE_TYPE (exp)),
6766 : : index);
6767 : 2 : shortened_string_cst = true;
6768 : : }
6769 : : }
6770 : 32477800 : temp = expand_expr_real (rexp, tmp_target, GET_MODE (target),
6771 : : (call_param_p
6772 : : ? EXPAND_STACK_PARM : EXPAND_NORMAL),
6773 : : &alt_rtl, false);
6774 : 16238900 : if (shortened_string_cst)
6775 : : {
6776 : 2 : gcc_assert (MEM_P (temp));
6777 : 2 : temp = change_address (temp, BLKmode, NULL_RTX);
6778 : : }
6779 : : }
6780 : :
6781 : : /* If TEMP is a VOIDmode constant and the mode of the type of EXP is not
6782 : : the same as that of TARGET, adjust the constant. This is needed, for
6783 : : example, in case it is a CONST_DOUBLE or CONST_WIDE_INT and we want
6784 : : only a word-sized value. */
6785 : 3219236 : if (CONSTANT_P (temp) && GET_MODE (temp) == VOIDmode
6786 : 2303979 : && TREE_CODE (exp) != ERROR_MARK
6787 : 18542879 : && GET_MODE (target) != TYPE_MODE (TREE_TYPE (exp)))
6788 : : {
6789 : 0 : gcc_assert (!shortened_string_cst);
6790 : 0 : if (GET_MODE_CLASS (GET_MODE (target))
6791 : 0 : != GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (exp)))
6792 : 0 : && known_eq (GET_MODE_BITSIZE (GET_MODE (target)),
6793 : : GET_MODE_BITSIZE (TYPE_MODE (TREE_TYPE (exp)))))
6794 : : {
6795 : 0 : rtx t = simplify_gen_subreg (GET_MODE (target), temp,
6796 : 0 : TYPE_MODE (TREE_TYPE (exp)), 0);
6797 : 0 : if (t)
6798 : 0 : temp = t;
6799 : : }
6800 : 0 : if (GET_MODE (temp) == VOIDmode)
6801 : 0 : temp = convert_modes (GET_MODE (target), TYPE_MODE (TREE_TYPE (exp)),
6802 : 0 : temp, TYPE_UNSIGNED (TREE_TYPE (exp)));
6803 : : }
6804 : :
6805 : : /* If value was not generated in the target, store it there.
6806 : : Convert the value to TARGET's type first if necessary and emit the
6807 : : pending incrementations that have been queued when expanding EXP.
6808 : : Note that we cannot emit the whole queue blindly because this will
6809 : : effectively disable the POST_INC optimization later.
6810 : :
6811 : : If TEMP and TARGET compare equal according to rtx_equal_p, but
6812 : : one or both of them are volatile memory refs, we have to distinguish
6813 : : two cases:
6814 : : - expand_expr has used TARGET. In this case, we must not generate
6815 : : another copy. This can be detected by TARGET being equal according
6816 : : to == .
6817 : : - expand_expr has not used TARGET - that means that the source just
6818 : : happens to have the same RTX form. Since temp will have been created
6819 : : by expand_expr, it will compare unequal according to == .
6820 : : We must generate a copy in this case, to reach the correct number
6821 : : of volatile memory references. */
6822 : :
6823 : 16238900 : if ((! rtx_equal_p (temp, target)
6824 : 2846524 : || (temp != target && (side_effects_p (temp)
6825 : 42061 : || side_effects_p (target)
6826 : 42061 : || (MEM_P (temp)
6827 : 41846 : && !mems_same_for_tbaa_p (temp, target)))))
6828 : 13392380 : && TREE_CODE (exp) != ERROR_MARK
6829 : : /* If store_expr stores a DECL whose DECL_RTL(exp) == TARGET,
6830 : : but TARGET is not valid memory reference, TEMP will differ
6831 : : from TARGET although it is really the same location. */
6832 : 13392380 : && !(alt_rtl
6833 : 1972631 : && rtx_equal_p (alt_rtl, target)
6834 : 1 : && !side_effects_p (alt_rtl)
6835 : 0 : && !side_effects_p (target))
6836 : : /* If there's nothing to copy, don't bother. Don't call
6837 : : expr_size unless necessary, because some front-ends (C++)
6838 : : expr_size-hook must not be given objects that are not
6839 : : supposed to be bit-copied or bit-initialized. */
6840 : 29631280 : && expr_size (exp) != const0_rtx)
6841 : : {
6842 : 13392380 : if (GET_MODE (temp) != GET_MODE (target) && GET_MODE (temp) != VOIDmode)
6843 : : {
6844 : 1575 : gcc_assert (!shortened_string_cst);
6845 : 1575 : if (GET_MODE (target) == BLKmode)
6846 : : {
6847 : : /* Handle calls that return BLKmode values in registers. */
6848 : 2 : if (REG_P (temp) && TREE_CODE (exp) == CALL_EXPR)
6849 : 2 : copy_blkmode_from_reg (target, temp, TREE_TYPE (exp));
6850 : : else
6851 : 0 : store_bit_field (target,
6852 : 0 : rtx_to_poly_int64 (expr_size (exp))
6853 : 0 : * BITS_PER_UNIT,
6854 : 0 : 0, 0, 0, GET_MODE (temp), temp, reverse,
6855 : : false);
6856 : : }
6857 : : else
6858 : 1573 : convert_move (target, temp, TYPE_UNSIGNED (TREE_TYPE (exp)));
6859 : : }
6860 : :
6861 : 13390805 : else if (GET_MODE (temp) == BLKmode && TREE_CODE (exp) == STRING_CST)
6862 : : {
6863 : : /* Handle copying a string constant into an array. The string
6864 : : constant may be shorter than the array. So copy just the string's
6865 : : actual length, and clear the rest. First get the size of the data
6866 : : type of the string, which is actually the size of the target. */
6867 : 41 : rtx size = expr_size (exp);
6868 : :
6869 : 41 : if (CONST_INT_P (size)
6870 : 41 : && INTVAL (size) < TREE_STRING_LENGTH (exp))
6871 : 0 : emit_block_move (target, temp, size,
6872 : : (call_param_p
6873 : : ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
6874 : : else
6875 : : {
6876 : 41 : machine_mode pointer_mode
6877 : 41 : = targetm.addr_space.pointer_mode (MEM_ADDR_SPACE (target));
6878 : 41 : machine_mode address_mode = get_address_mode (target);
6879 : :
6880 : : /* Compute the size of the data to copy from the string. */
6881 : 41 : tree copy_size
6882 : 41 : = size_binop_loc (loc, MIN_EXPR,
6883 : : make_tree (sizetype, size),
6884 : 41 : size_int (TREE_STRING_LENGTH (exp)));
6885 : 41 : rtx copy_size_rtx
6886 : 41 : = expand_expr (copy_size, NULL_RTX, VOIDmode,
6887 : : (call_param_p
6888 : : ? EXPAND_STACK_PARM : EXPAND_NORMAL));
6889 : 41 : rtx_code_label *label = 0;
6890 : :
6891 : : /* Copy that much. */
6892 : 123 : copy_size_rtx = convert_to_mode (pointer_mode, copy_size_rtx,
6893 : 41 : TYPE_UNSIGNED (sizetype));
6894 : 82 : emit_block_move (target, temp, copy_size_rtx,
6895 : : (call_param_p
6896 : : ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
6897 : :
6898 : : /* Figure out how much is left in TARGET that we have to clear.
6899 : : Do all calculations in pointer_mode. */
6900 : 41 : poly_int64 const_copy_size;
6901 : 41 : if (poly_int_rtx_p (copy_size_rtx, &const_copy_size))
6902 : : {
6903 : 41 : size = plus_constant (address_mode, size, -const_copy_size);
6904 : 41 : target = adjust_address (target, BLKmode, const_copy_size);
6905 : : }
6906 : : else
6907 : : {
6908 : 0 : size = expand_binop (TYPE_MODE (sizetype), sub_optab, size,
6909 : : copy_size_rtx, NULL_RTX, 0,
6910 : : OPTAB_LIB_WIDEN);
6911 : :
6912 : 0 : if (GET_MODE (copy_size_rtx) != address_mode)
6913 : 0 : copy_size_rtx = convert_to_mode (address_mode,
6914 : : copy_size_rtx,
6915 : 0 : TYPE_UNSIGNED (sizetype));
6916 : :
6917 : 0 : target = offset_address (target, copy_size_rtx,
6918 : : highest_pow2_factor (copy_size));
6919 : 0 : label = gen_label_rtx ();
6920 : 0 : emit_cmp_and_jump_insns (size, const0_rtx, LT, NULL_RTX,
6921 : 0 : GET_MODE (size), 0, label);
6922 : : }
6923 : :
6924 : 41 : if (size != const0_rtx)
6925 : 2 : clear_storage (target, size, BLOCK_OP_NORMAL);
6926 : :
6927 : 41 : if (label)
6928 : 0 : emit_label (label);
6929 : : }
6930 : : }
6931 : 13390764 : else if (shortened_string_cst)
6932 : 0 : gcc_unreachable ();
6933 : : /* Handle calls that return values in multiple non-contiguous locations.
6934 : : The Irix 6 ABI has examples of this. */
6935 : 13390764 : else if (GET_CODE (target) == PARALLEL)
6936 : : {
6937 : 0 : if (GET_CODE (temp) == PARALLEL)
6938 : 0 : emit_group_move (target, temp);
6939 : : else
6940 : 0 : emit_group_load (target, temp, TREE_TYPE (exp),
6941 : 0 : int_size_in_bytes (TREE_TYPE (exp)));
6942 : : }
6943 : 13390764 : else if (GET_CODE (temp) == PARALLEL)
6944 : 0 : emit_group_store (target, temp, TREE_TYPE (exp),
6945 : 0 : int_size_in_bytes (TREE_TYPE (exp)));
6946 : 13390764 : else if (GET_MODE (temp) == BLKmode)
6947 : 598018 : emit_block_move (target, temp, expr_size (exp),
6948 : : (call_param_p
6949 : : ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
6950 : : /* If we emit a nontemporal store, there is nothing else to do. */
6951 : 13091755 : else if (nontemporal && emit_storent_insn (target, temp))
6952 : : ;
6953 : : else
6954 : : {
6955 : 13091738 : if (reverse)
6956 : 712 : temp = flip_storage_order (GET_MODE (target), temp);
6957 : 13091738 : temp = force_operand (temp, target);
6958 : 13091738 : if (temp != target)
6959 : 13090185 : emit_move_insn (target, temp);
6960 : : }
6961 : : }
6962 : : else
6963 : 2846520 : gcc_assert (!shortened_string_cst);
6964 : :
6965 : : return NULL_RTX;
6966 : : }
6967 : :
6968 : : /* Return true if field F of structure TYPE is a flexible array. */
6969 : :
6970 : : static bool
6971 : 3633543 : flexible_array_member_p (const_tree f, const_tree type)
6972 : : {
6973 : 3633543 : const_tree tf;
6974 : :
6975 : 3633543 : tf = TREE_TYPE (f);
6976 : 3633543 : return (DECL_CHAIN (f) == NULL
6977 : 1068570 : && TREE_CODE (tf) == ARRAY_TYPE
6978 : 2490 : && TYPE_DOMAIN (tf)
6979 : 2490 : && TYPE_MIN_VALUE (TYPE_DOMAIN (tf))
6980 : 2490 : && integer_zerop (TYPE_MIN_VALUE (TYPE_DOMAIN (tf)))
6981 : 2490 : && !TYPE_MAX_VALUE (TYPE_DOMAIN (tf))
6982 : 3633586 : && int_size_in_bytes (type) >= 0);
6983 : : }
6984 : :
6985 : : /* If FOR_CTOR_P, return the number of top-level elements that a constructor
6986 : : must have in order for it to completely initialize a value of type TYPE.
6987 : : Return -1 if the number isn't known.
6988 : :
6989 : : If !FOR_CTOR_P, return an estimate of the number of scalars in TYPE. */
6990 : :
6991 : : static HOST_WIDE_INT
6992 : 3354701 : count_type_elements (const_tree type, bool for_ctor_p)
6993 : : {
6994 : 3354701 : switch (TREE_CODE (type))
6995 : : {
6996 : 141405 : case ARRAY_TYPE:
6997 : 141405 : {
6998 : 141405 : tree nelts_minus_one;
6999 : :
7000 : 141405 : nelts_minus_one = array_type_nelts_minus_one (type);
7001 : 141405 : if (nelts_minus_one && tree_fits_uhwi_p (nelts_minus_one))
7002 : : {
7003 : 141396 : unsigned HOST_WIDE_INT n;
7004 : :
7005 : 141396 : n = tree_to_uhwi (nelts_minus_one) + 1;
7006 : 141396 : if (n == 0 || for_ctor_p)
7007 : 140631 : return n;
7008 : : else
7009 : 765 : return n * count_type_elements (TREE_TYPE (type), false);
7010 : : }
7011 : 9 : return for_ctor_p ? -1 : 1;
7012 : : }
7013 : :
7014 : 1619877 : case RECORD_TYPE:
7015 : 1619877 : {
7016 : 1619877 : unsigned HOST_WIDE_INT n;
7017 : 1619877 : tree f;
7018 : :
7019 : 1619877 : n = 0;
7020 : 11698925 : for (f = TYPE_FIELDS (type); f ; f = DECL_CHAIN (f))
7021 : 10079048 : if (TREE_CODE (f) == FIELD_DECL)
7022 : : {
7023 : 4080815 : if (!for_ctor_p)
7024 : 447272 : n += count_type_elements (TREE_TYPE (f), false);
7025 : 3633543 : else if (!flexible_array_member_p (f, type))
7026 : : /* Don't count flexible arrays, which are not supposed
7027 : : to be initialized. */
7028 : 3633500 : n += 1;
7029 : : }
7030 : :
7031 : 1619877 : return n;
7032 : : }
7033 : :
7034 : 1692 : case UNION_TYPE:
7035 : 1692 : case QUAL_UNION_TYPE:
7036 : 1692 : {
7037 : 1692 : tree f;
7038 : 1692 : HOST_WIDE_INT n, m;
7039 : :
7040 : 1692 : gcc_assert (!for_ctor_p);
7041 : : /* Estimate the number of scalars in each field and pick the
7042 : : maximum. Other estimates would do instead; the idea is simply
7043 : : to make sure that the estimate is not sensitive to the ordering
7044 : : of the fields. */
7045 : 1692 : n = 1;
7046 : 31727 : for (f = TYPE_FIELDS (type); f ; f = DECL_CHAIN (f))
7047 : 30035 : if (TREE_CODE (f) == FIELD_DECL)
7048 : : {
7049 : 27211 : m = count_type_elements (TREE_TYPE (f), false);
7050 : : /* If the field doesn't span the whole union, add an extra
7051 : : scalar for the rest. */
7052 : 27211 : if (simple_cst_equal (TYPE_SIZE (TREE_TYPE (f)),
7053 : 27211 : TYPE_SIZE (type)) != 1)
7054 : 17517 : m++;
7055 : 27211 : if (n < m)
7056 : 30035 : n = m;
7057 : : }
7058 : : return n;
7059 : : }
7060 : :
7061 : : case COMPLEX_TYPE:
7062 : : return 2;
7063 : :
7064 : 300 : case VECTOR_TYPE:
7065 : 300 : {
7066 : 300 : unsigned HOST_WIDE_INT nelts;
7067 : 300 : if (TYPE_VECTOR_SUBPARTS (type).is_constant (&nelts))
7068 : 300 : return nelts;
7069 : : else
7070 : : return -1;
7071 : : }
7072 : :
7073 : : case INTEGER_TYPE:
7074 : : case REAL_TYPE:
7075 : : case FIXED_POINT_TYPE:
7076 : : case ENUMERAL_TYPE:
7077 : : case BOOLEAN_TYPE:
7078 : : case POINTER_TYPE:
7079 : : case OFFSET_TYPE:
7080 : : case REFERENCE_TYPE:
7081 : : case NULLPTR_TYPE:
7082 : : case OPAQUE_TYPE:
7083 : : case BITINT_TYPE:
7084 : : return 1;
7085 : :
7086 : 0 : case ERROR_MARK:
7087 : 0 : return 0;
7088 : :
7089 : 0 : case VOID_TYPE:
7090 : 0 : case METHOD_TYPE:
7091 : 0 : case FUNCTION_TYPE:
7092 : 0 : case LANG_TYPE:
7093 : 0 : default:
7094 : 0 : gcc_unreachable ();
7095 : : }
7096 : : }
7097 : :
7098 : : /* Helper for categorize_ctor_elements. Identical interface. */
7099 : :
7100 : : static bool
7101 : 1390793 : categorize_ctor_elements_1 (const_tree ctor, HOST_WIDE_INT *p_nz_elts,
7102 : : HOST_WIDE_INT *p_unique_nz_elts,
7103 : : HOST_WIDE_INT *p_init_elts, int *p_complete)
7104 : : {
7105 : 1390793 : unsigned HOST_WIDE_INT idx;
7106 : 1390793 : HOST_WIDE_INT nz_elts, unique_nz_elts, init_elts, num_fields;
7107 : 1390793 : tree value, purpose, elt_type;
7108 : :
7109 : : /* Whether CTOR is a valid constant initializer, in accordance with what
7110 : : initializer_constant_valid_p does. If inferred from the constructor
7111 : : elements, true until proven otherwise. */
7112 : 1390793 : bool const_from_elts_p = constructor_static_from_elts_p (ctor);
7113 : 1390793 : bool const_p = const_from_elts_p ? true : TREE_STATIC (ctor);
7114 : :
7115 : 1390793 : nz_elts = 0;
7116 : 1390793 : unique_nz_elts = 0;
7117 : 1390793 : init_elts = 0;
7118 : 1390793 : num_fields = 0;
7119 : 1390793 : elt_type = NULL_TREE;
7120 : :
7121 : 5302436 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (ctor), idx, purpose, value)
7122 : : {
7123 : 3911643 : HOST_WIDE_INT mult = 1;
7124 : :
7125 : 3911643 : if (purpose && TREE_CODE (purpose) == RANGE_EXPR)
7126 : : {
7127 : 584 : tree lo_index = TREE_OPERAND (purpose, 0);
7128 : 584 : tree hi_index = TREE_OPERAND (purpose, 1);
7129 : :
7130 : 584 : if (tree_fits_uhwi_p (lo_index) && tree_fits_uhwi_p (hi_index))
7131 : 584 : mult = (tree_to_uhwi (hi_index)
7132 : 584 : - tree_to_uhwi (lo_index) + 1);
7133 : : }
7134 : 3911643 : num_fields += mult;
7135 : 3911643 : elt_type = TREE_TYPE (value);
7136 : :
7137 : 3911643 : switch (TREE_CODE (value))
7138 : : {
7139 : 462940 : case CONSTRUCTOR:
7140 : 462940 : {
7141 : 462940 : HOST_WIDE_INT nz = 0, unz = 0, ic = 0;
7142 : :
7143 : 462940 : bool const_elt_p = categorize_ctor_elements_1 (value, &nz, &unz,
7144 : : &ic, p_complete);
7145 : :
7146 : 462940 : nz_elts += mult * nz;
7147 : 462940 : unique_nz_elts += unz;
7148 : 462940 : init_elts += mult * ic;
7149 : :
7150 : 462940 : if (const_from_elts_p && const_p)
7151 : 250834 : const_p = const_elt_p;
7152 : : }
7153 : 462940 : break;
7154 : :
7155 : 2098507 : case INTEGER_CST:
7156 : 2098507 : case REAL_CST:
7157 : 2098507 : case FIXED_CST:
7158 : 2098507 : if (!initializer_zerop (value))
7159 : : {
7160 : 1558137 : nz_elts += mult;
7161 : 1558137 : unique_nz_elts++;
7162 : : }
7163 : 2098507 : init_elts += mult;
7164 : 2098507 : break;
7165 : :
7166 : 6364 : case STRING_CST:
7167 : 6364 : nz_elts += mult * TREE_STRING_LENGTH (value);
7168 : 6364 : unique_nz_elts += TREE_STRING_LENGTH (value);
7169 : 6364 : init_elts += mult * TREE_STRING_LENGTH (value);
7170 : 6364 : break;
7171 : :
7172 : 94 : case RAW_DATA_CST:
7173 : 94 : nz_elts += mult * RAW_DATA_LENGTH (value);
7174 : 94 : unique_nz_elts += RAW_DATA_LENGTH (value);
7175 : 94 : init_elts += mult * RAW_DATA_LENGTH (value);
7176 : 94 : num_fields += mult * (RAW_DATA_LENGTH (value) - 1);
7177 : 94 : break;
7178 : :
7179 : 2861 : case COMPLEX_CST:
7180 : 2861 : if (!initializer_zerop (TREE_REALPART (value)))
7181 : : {
7182 : 2434 : nz_elts += mult;
7183 : 2434 : unique_nz_elts++;
7184 : : }
7185 : 2861 : if (!initializer_zerop (TREE_IMAGPART (value)))
7186 : : {
7187 : 2300 : nz_elts += mult;
7188 : 2300 : unique_nz_elts++;
7189 : : }
7190 : 2861 : init_elts += 2 * mult;
7191 : 2861 : break;
7192 : :
7193 : 778 : case VECTOR_CST:
7194 : 778 : {
7195 : : /* We can only construct constant-length vectors using
7196 : : CONSTRUCTOR. */
7197 : 778 : unsigned int nunits = VECTOR_CST_NELTS (value).to_constant ();
7198 : 5269 : for (unsigned int i = 0; i < nunits; ++i)
7199 : : {
7200 : 4491 : tree v = VECTOR_CST_ELT (value, i);
7201 : 4491 : if (!initializer_zerop (v))
7202 : : {
7203 : 1993 : nz_elts += mult;
7204 : 1993 : unique_nz_elts++;
7205 : : }
7206 : 4491 : init_elts += mult;
7207 : : }
7208 : : }
7209 : : break;
7210 : :
7211 : 1340099 : default:
7212 : 1340099 : {
7213 : 1340099 : HOST_WIDE_INT tc = count_type_elements (elt_type, false);
7214 : 1340099 : nz_elts += mult * tc;
7215 : 1340099 : unique_nz_elts += tc;
7216 : 1340099 : init_elts += mult * tc;
7217 : :
7218 : 1340099 : if (const_from_elts_p && const_p)
7219 : 505913 : const_p
7220 : 505913 : = initializer_constant_valid_p (value,
7221 : : elt_type,
7222 : 505913 : TYPE_REVERSE_STORAGE_ORDER
7223 : : (TREE_TYPE (ctor)))
7224 : : != NULL_TREE;
7225 : : }
7226 : : break;
7227 : : }
7228 : : }
7229 : :
7230 : 1390793 : if (*p_complete && !complete_ctor_at_level_p (TREE_TYPE (ctor),
7231 : : num_fields, elt_type))
7232 : 160766 : *p_complete = 0;
7233 : 1230027 : else if (TREE_CODE (TREE_TYPE (ctor)) == UNION_TYPE
7234 : 1230027 : || TREE_CODE (TREE_TYPE (ctor)) == QUAL_UNION_TYPE)
7235 : : {
7236 : 10730 : if (*p_complete
7237 : 6902 : && CONSTRUCTOR_ZERO_PADDING_BITS (ctor)
7238 : 19719 : && (num_fields
7239 : 4496 : ? simple_cst_equal (TYPE_SIZE (TREE_TYPE (ctor)),
7240 : 4493 : TYPE_SIZE (elt_type)) != 1
7241 : 3 : : type_has_padding_at_level_p (TREE_TYPE (ctor))))
7242 : 3317 : *p_complete = 0;
7243 : 7413 : else if (*p_complete > 0
7244 : 10578 : && (num_fields
7245 : 3165 : ? simple_cst_equal (TYPE_SIZE (TREE_TYPE (ctor)),
7246 : 3165 : TYPE_SIZE (elt_type)) != 1
7247 : 0 : : type_has_padding_at_level_p (TREE_TYPE (ctor))))
7248 : 317 : *p_complete = -1;
7249 : : }
7250 : 1219297 : else if (*p_complete
7251 : 1145911 : && (CONSTRUCTOR_ZERO_PADDING_BITS (ctor)
7252 : 1133507 : || flag_zero_init_padding_bits == ZERO_INIT_PADDING_BITS_ALL)
7253 : 1231706 : && type_has_padding_at_level_p (TREE_TYPE (ctor)))
7254 : 1955 : *p_complete = 0;
7255 : 1217342 : else if (*p_complete > 0
7256 : 1217342 : && type_has_padding_at_level_p (TREE_TYPE (ctor)))
7257 : 13486 : *p_complete = -1;
7258 : :
7259 : 1390793 : *p_nz_elts += nz_elts;
7260 : 1390793 : *p_unique_nz_elts += unique_nz_elts;
7261 : 1390793 : *p_init_elts += init_elts;
7262 : :
7263 : 1390793 : return const_p;
7264 : : }
7265 : :
7266 : : /* Examine CTOR to discover:
7267 : : * how many scalar fields are set to nonzero values,
7268 : : and place it in *P_NZ_ELTS;
7269 : : * the same, but counting RANGE_EXPRs as multiplier of 1 instead of
7270 : : high - low + 1 (this can be useful for callers to determine ctors
7271 : : that could be cheaply initialized with - perhaps nested - loops
7272 : : compared to copied from huge read-only data),
7273 : : and place it in *P_UNIQUE_NZ_ELTS;
7274 : : * how many scalar fields in total are in CTOR,
7275 : : and place it in *P_ELT_COUNT.
7276 : : * whether the constructor is complete -- in the sense that every
7277 : : meaningful byte is explicitly given a value --
7278 : : and place it in *P_COMPLETE:
7279 : : - 0 if any field is missing
7280 : : - 1 if all fields are initialized, and there's no padding
7281 : : - -1 if all fields are initialized, but there's padding
7282 : :
7283 : : Return whether or not CTOR is a valid static constant initializer, the same
7284 : : as "initializer_constant_valid_p (CTOR, TREE_TYPE (CTOR)) != 0". */
7285 : :
7286 : : bool
7287 : 927853 : categorize_ctor_elements (const_tree ctor, HOST_WIDE_INT *p_nz_elts,
7288 : : HOST_WIDE_INT *p_unique_nz_elts,
7289 : : HOST_WIDE_INT *p_init_elts, int *p_complete)
7290 : : {
7291 : 927853 : *p_nz_elts = 0;
7292 : 927853 : *p_unique_nz_elts = 0;
7293 : 927853 : *p_init_elts = 0;
7294 : 927853 : *p_complete = 1;
7295 : :
7296 : 927853 : return categorize_ctor_elements_1 (ctor, p_nz_elts, p_unique_nz_elts,
7297 : 927853 : p_init_elts, p_complete);
7298 : : }
7299 : :
7300 : : /* Return true if constructor CTOR is simple enough to be materialized
7301 : : in an integer mode register. Limit the size to WORDS words, which
7302 : : is 1 by default. */
7303 : :
7304 : : bool
7305 : 19259 : immediate_const_ctor_p (const_tree ctor, unsigned int words)
7306 : : {
7307 : : /* Allow function to be called with a VAR_DECL's DECL_INITIAL. */
7308 : 19259 : if (!ctor || TREE_CODE (ctor) != CONSTRUCTOR)
7309 : : return false;
7310 : :
7311 : 1982 : return TREE_CONSTANT (ctor)
7312 : 1982 : && !TREE_ADDRESSABLE (ctor)
7313 : 1982 : && CONSTRUCTOR_NELTS (ctor)
7314 : 1967 : && TREE_CODE (TREE_TYPE (ctor)) != ARRAY_TYPE
7315 : 595 : && int_expr_size (ctor) <= words * UNITS_PER_WORD
7316 : 2093 : && initializer_constant_valid_for_bitfield_p (ctor);
7317 : : }
7318 : :
7319 : : /* TYPE is initialized by a constructor with NUM_ELTS elements, the last
7320 : : of which had type LAST_TYPE. Each element was itself a complete
7321 : : initializer, in the sense that every meaningful byte was explicitly
7322 : : given a value. Return true if the same is true for the constructor
7323 : : as a whole. */
7324 : :
7325 : : bool
7326 : 1547220 : complete_ctor_at_level_p (const_tree type, HOST_WIDE_INT num_elts,
7327 : : const_tree last_type)
7328 : : {
7329 : 1547220 : if (TREE_CODE (type) == UNION_TYPE || TREE_CODE (type) == QUAL_UNION_TYPE)
7330 : : {
7331 : 7866 : if (num_elts == 0)
7332 : : {
7333 : 24 : if (flag_zero_init_padding_bits >= ZERO_INIT_PADDING_BITS_UNIONS)
7334 : : return false;
7335 : :
7336 : : /* If the CONSTRUCTOR doesn't have any elts, it is
7337 : : incomplete if the union has at least one field. */
7338 : 27 : for (tree f = TYPE_FIELDS (type); f; f = DECL_CHAIN (f))
7339 : 24 : if (TREE_CODE (f) == FIELD_DECL)
7340 : : return false;
7341 : :
7342 : : return true;
7343 : : }
7344 : :
7345 : 7842 : gcc_assert (num_elts == 1 && last_type);
7346 : :
7347 : 7842 : if (flag_zero_init_padding_bits >= ZERO_INIT_PADDING_BITS_UNIONS)
7348 : : /* ??? We could look at each element of the union, and find the
7349 : : largest element. Which would avoid comparing the size of the
7350 : : initialized element against any tail padding in the union.
7351 : : Doesn't seem worth the effort... */
7352 : 6 : return simple_cst_equal (TYPE_SIZE (type), TYPE_SIZE (last_type)) == 1;
7353 : :
7354 : : return true;
7355 : : }
7356 : :
7357 : 1539354 : return count_type_elements (type, true) == num_elts;
7358 : : }
7359 : :
7360 : : /* Return true if EXP contains mostly (3/4) zeros. */
7361 : :
7362 : : static bool
7363 : 359404 : mostly_zeros_p (const_tree exp)
7364 : : {
7365 : 359404 : if (TREE_CODE (exp) == CONSTRUCTOR)
7366 : : {
7367 : 104 : HOST_WIDE_INT nz_elts, unz_elts, init_elts;
7368 : 104 : int complete_p;
7369 : :
7370 : 104 : categorize_ctor_elements (exp, &nz_elts, &unz_elts, &init_elts,
7371 : : &complete_p);
7372 : 104 : return !complete_p || nz_elts < init_elts / 4;
7373 : : }
7374 : :
7375 : 359300 : return initializer_zerop (exp);
7376 : : }
7377 : :
7378 : : /* Return true if EXP contains all zeros. */
7379 : :
7380 : : static bool
7381 : 2727 : all_zeros_p (const_tree exp)
7382 : : {
7383 : 2727 : if (TREE_CODE (exp) == CONSTRUCTOR)
7384 : : {
7385 : 2727 : HOST_WIDE_INT nz_elts, unz_elts, init_elts;
7386 : 2727 : int complete_p;
7387 : :
7388 : 2727 : categorize_ctor_elements (exp, &nz_elts, &unz_elts, &init_elts,
7389 : : &complete_p);
7390 : 2727 : return nz_elts == 0;
7391 : : }
7392 : :
7393 : 0 : return initializer_zerop (exp);
7394 : : }
7395 : :
7396 : : /* Helper function for store_constructor.
7397 : : TARGET, BITSIZE, BITPOS, MODE, EXP are as for store_field.
7398 : : CLEARED is as for store_constructor.
7399 : : ALIAS_SET is the alias set to use for any stores.
7400 : : If REVERSE is true, the store is to be done in reverse order.
7401 : :
7402 : : This provides a recursive shortcut back to store_constructor when it isn't
7403 : : necessary to go through store_field. This is so that we can pass through
7404 : : the cleared field to let store_constructor know that we may not have to
7405 : : clear a substructure if the outer structure has already been cleared. */
7406 : :
7407 : : static void
7408 : 31954 : store_constructor_field (rtx target, poly_uint64 bitsize, poly_int64 bitpos,
7409 : : poly_uint64 bitregion_start,
7410 : : poly_uint64 bitregion_end,
7411 : : machine_mode mode,
7412 : : tree exp, int cleared,
7413 : : alias_set_type alias_set, bool reverse)
7414 : : {
7415 : 31954 : poly_int64 bytepos;
7416 : 31954 : poly_uint64 bytesize;
7417 : 31954 : if (TREE_CODE (exp) == CONSTRUCTOR
7418 : : /* We can only call store_constructor recursively if the size and
7419 : : bit position are on a byte boundary. */
7420 : 18 : && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
7421 : 18 : && maybe_ne (bitsize, 0U)
7422 : 31954 : && multiple_p (bitsize, BITS_PER_UNIT, &bytesize)
7423 : : /* If we have a nonzero bitpos for a register target, then we just
7424 : : let store_field do the bitfield handling. This is unlikely to
7425 : : generate unnecessary clear instructions anyways. */
7426 : 31972 : && (known_eq (bitpos, 0) || MEM_P (target)))
7427 : : {
7428 : 18 : if (MEM_P (target))
7429 : : {
7430 : 18 : machine_mode target_mode = GET_MODE (target);
7431 : 18 : if (target_mode != BLKmode
7432 : 18 : && !multiple_p (bitpos, GET_MODE_ALIGNMENT (target_mode)))
7433 : : target_mode = BLKmode;
7434 : 18 : target = adjust_address (target, target_mode, bytepos);
7435 : : }
7436 : :
7437 : :
7438 : : /* Update the alias set, if required. */
7439 : 18 : if (MEM_P (target) && ! MEM_KEEP_ALIAS_SET_P (target)
7440 : 36 : && MEM_ALIAS_SET (target) != 0)
7441 : : {
7442 : 18 : target = copy_rtx (target);
7443 : 18 : set_mem_alias_set (target, alias_set);
7444 : : }
7445 : :
7446 : 18 : store_constructor (exp, target, cleared, bytesize, reverse);
7447 : : }
7448 : : else
7449 : 31936 : store_field (target, bitsize, bitpos, bitregion_start, bitregion_end, mode,
7450 : : exp, alias_set, false, reverse);
7451 : 31954 : }
7452 : :
7453 : :
7454 : : /* Returns the number of FIELD_DECLs in TYPE. */
7455 : :
7456 : : static int
7457 : 58362 : fields_length (const_tree type)
7458 : : {
7459 : 58362 : tree t = TYPE_FIELDS (type);
7460 : 58362 : int count = 0;
7461 : :
7462 : 502937 : for (; t; t = DECL_CHAIN (t))
7463 : 444575 : if (TREE_CODE (t) == FIELD_DECL)
7464 : 269551 : ++count;
7465 : :
7466 : 58362 : return count;
7467 : : }
7468 : :
7469 : :
7470 : : /* Store the value of constructor EXP into the rtx TARGET.
7471 : : TARGET is either a REG or a MEM; we know it cannot conflict, since
7472 : : safe_from_p has been called.
7473 : : CLEARED is true if TARGET is known to have been zero'd.
7474 : : SIZE is the number of bytes of TARGET we are allowed to modify: this
7475 : : may not be the same as the size of EXP if we are assigning to a field
7476 : : which has been packed to exclude padding bits.
7477 : : If REVERSE is true, the store is to be done in reverse order. */
7478 : :
7479 : : void
7480 : 245782 : store_constructor (tree exp, rtx target, int cleared, poly_int64 size,
7481 : : bool reverse)
7482 : : {
7483 : 245782 : tree type = TREE_TYPE (exp);
7484 : 245782 : HOST_WIDE_INT exp_size = int_size_in_bytes (type);
7485 : 245782 : poly_int64 bitregion_end = known_gt (size, 0) ? size * BITS_PER_UNIT - 1 : 0;
7486 : :
7487 : 245782 : switch (TREE_CODE (type))
7488 : : {
7489 : 59974 : case RECORD_TYPE:
7490 : 59974 : case UNION_TYPE:
7491 : 59974 : case QUAL_UNION_TYPE:
7492 : 59974 : {
7493 : 59974 : unsigned HOST_WIDE_INT idx;
7494 : 59974 : tree field, value;
7495 : :
7496 : : /* The storage order is specified for every aggregate type. */
7497 : 59974 : reverse = TYPE_REVERSE_STORAGE_ORDER (type);
7498 : :
7499 : : /* If size is zero or the target is already cleared, do nothing. */
7500 : 59974 : if (known_eq (size, 0) || cleared)
7501 : : cleared = 1;
7502 : : /* We either clear the aggregate or indicate the value is dead. */
7503 : 59974 : else if ((TREE_CODE (type) == UNION_TYPE
7504 : 59974 : || TREE_CODE (type) == QUAL_UNION_TYPE)
7505 : 61375 : && ! CONSTRUCTOR_ELTS (exp))
7506 : : /* If the constructor is empty, clear the union. */
7507 : : {
7508 : 1394 : clear_storage (target, expr_size (exp), BLOCK_OP_NORMAL);
7509 : 1394 : cleared = 1;
7510 : : }
7511 : :
7512 : : /* If we are building a static constructor into a register,
7513 : : set the initial value as zero so we can fold the value into
7514 : : a constant. But if more than one register is involved,
7515 : : this probably loses. */
7516 : 3386 : else if (REG_P (target) && TREE_STATIC (exp)
7517 : 59162 : && known_le (GET_MODE_SIZE (GET_MODE (target)),
7518 : : REGMODE_NATURAL_SIZE (GET_MODE (target))))
7519 : : {
7520 : 218 : emit_move_insn (target, CONST0_RTX (GET_MODE (target)));
7521 : 218 : cleared = 1;
7522 : : }
7523 : :
7524 : : /* If the constructor has fewer fields than the structure or
7525 : : if we are initializing the structure to mostly zeros, clear
7526 : : the whole structure first. Don't do this if TARGET is a
7527 : : register whose mode size isn't equal to SIZE since
7528 : : clear_storage can't handle this case. */
7529 : 58362 : else if (known_size_p (size)
7530 : 58438 : && (((int) CONSTRUCTOR_NELTS (exp) != fields_length (type))
7531 : 66 : || mostly_zeros_p (exp))
7532 : 116658 : && (!REG_P (target)
7533 : 6332 : || known_eq (GET_MODE_SIZE (GET_MODE (target)), size)))
7534 : : {
7535 : 58296 : clear_storage (target, gen_int_mode (size, Pmode),
7536 : : BLOCK_OP_NORMAL);
7537 : 58296 : cleared = 1;
7538 : : }
7539 : :
7540 : 59974 : if (REG_P (target) && !cleared)
7541 : 2 : emit_clobber (target);
7542 : :
7543 : : /* Store each element of the constructor into the
7544 : : corresponding field of TARGET. */
7545 : 60257 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (exp), idx, field, value)
7546 : : {
7547 : 283 : machine_mode mode;
7548 : 283 : HOST_WIDE_INT bitsize;
7549 : 283 : HOST_WIDE_INT bitpos = 0;
7550 : 283 : tree offset;
7551 : 283 : rtx to_rtx = target;
7552 : :
7553 : : /* Just ignore missing fields. We cleared the whole
7554 : : structure, above, if any fields are missing. */
7555 : 283 : if (field == 0)
7556 : 283 : continue;
7557 : :
7558 : 283 : if (cleared && initializer_zerop (value))
7559 : 78 : continue;
7560 : :
7561 : 205 : if (tree_fits_uhwi_p (DECL_SIZE (field)))
7562 : 205 : bitsize = tree_to_uhwi (DECL_SIZE (field));
7563 : : else
7564 : 0 : gcc_unreachable ();
7565 : :
7566 : 205 : mode = DECL_MODE (field);
7567 : 205 : if (DECL_BIT_FIELD (field))
7568 : 74 : mode = VOIDmode;
7569 : :
7570 : 205 : offset = DECL_FIELD_OFFSET (field);
7571 : 205 : if (tree_fits_shwi_p (offset)
7572 : 205 : && tree_fits_shwi_p (bit_position (field)))
7573 : : {
7574 : 205 : bitpos = int_bit_position (field);
7575 : 205 : offset = NULL_TREE;
7576 : : }
7577 : : else
7578 : 0 : gcc_unreachable ();
7579 : :
7580 : : /* If this initializes a field that is smaller than a
7581 : : word, at the start of a word, try to widen it to a full
7582 : : word. This special case allows us to output C++ member
7583 : : function initializations in a form that the optimizers
7584 : : can understand. */
7585 : 205 : if (WORD_REGISTER_OPERATIONS
7586 : : && REG_P (target)
7587 : : && bitsize < BITS_PER_WORD
7588 : : && bitpos % BITS_PER_WORD == 0
7589 : : && GET_MODE_CLASS (mode) == MODE_INT
7590 : : && TREE_CODE (value) == INTEGER_CST
7591 : : && exp_size >= 0
7592 : : && bitpos + BITS_PER_WORD <= exp_size * BITS_PER_UNIT)
7593 : : {
7594 : : type = TREE_TYPE (value);
7595 : :
7596 : : if (TYPE_PRECISION (type) < BITS_PER_WORD)
7597 : : {
7598 : : type = lang_hooks.types.type_for_mode
7599 : : (word_mode, TYPE_UNSIGNED (type));
7600 : : value = fold_convert (type, value);
7601 : : /* Make sure the bits beyond the original bitsize are zero
7602 : : so that we can correctly avoid extra zeroing stores in
7603 : : later constructor elements. */
7604 : : tree bitsize_mask
7605 : : = wide_int_to_tree (type, wi::mask (bitsize, false,
7606 : : BITS_PER_WORD));
7607 : : value = fold_build2 (BIT_AND_EXPR, type, value, bitsize_mask);
7608 : : }
7609 : :
7610 : : if (BYTES_BIG_ENDIAN)
7611 : : value
7612 : : = fold_build2 (LSHIFT_EXPR, type, value,
7613 : : build_int_cst (type,
7614 : : BITS_PER_WORD - bitsize));
7615 : : bitsize = BITS_PER_WORD;
7616 : : mode = word_mode;
7617 : : }
7618 : :
7619 : 82 : if (MEM_P (to_rtx) && !MEM_KEEP_ALIAS_SET_P (to_rtx)
7620 : 287 : && DECL_NONADDRESSABLE_P (field))
7621 : : {
7622 : 0 : to_rtx = copy_rtx (to_rtx);
7623 : 0 : MEM_KEEP_ALIAS_SET_P (to_rtx) = 1;
7624 : : }
7625 : :
7626 : 205 : store_constructor_field (to_rtx, bitsize, bitpos,
7627 : 205 : 0, bitregion_end, mode,
7628 : : value, cleared,
7629 : 205 : get_alias_set (TREE_TYPE (field)),
7630 : : reverse);
7631 : : }
7632 : : break;
7633 : : }
7634 : 39582 : case ARRAY_TYPE:
7635 : 39582 : {
7636 : 39582 : tree value, index;
7637 : 39582 : unsigned HOST_WIDE_INT i;
7638 : 39582 : bool need_to_clear;
7639 : 39582 : tree domain;
7640 : 39582 : tree elttype = TREE_TYPE (type);
7641 : 39582 : bool const_bounds_p;
7642 : 39582 : HOST_WIDE_INT minelt = 0;
7643 : 39582 : HOST_WIDE_INT maxelt = 0;
7644 : :
7645 : : /* The storage order is specified for every aggregate type. */
7646 : 39582 : reverse = TYPE_REVERSE_STORAGE_ORDER (type);
7647 : :
7648 : 39582 : domain = TYPE_DOMAIN (type);
7649 : 39582 : const_bounds_p = (TYPE_MIN_VALUE (domain)
7650 : 39582 : && TYPE_MAX_VALUE (domain)
7651 : 39582 : && tree_fits_shwi_p (TYPE_MIN_VALUE (domain))
7652 : 79164 : && tree_fits_shwi_p (TYPE_MAX_VALUE (domain)));
7653 : :
7654 : : /* If we have constant bounds for the range of the type, get them. */
7655 : 39582 : if (const_bounds_p)
7656 : : {
7657 : 39582 : minelt = tree_to_shwi (TYPE_MIN_VALUE (domain));
7658 : 39582 : maxelt = tree_to_shwi (TYPE_MAX_VALUE (domain));
7659 : : }
7660 : :
7661 : : /* If the constructor has fewer elements than the array, clear
7662 : : the whole array first. Similarly if this is static
7663 : : constructor of a non-BLKmode object. */
7664 : 39582 : if (cleared)
7665 : : need_to_clear = false;
7666 : 39582 : else if (REG_P (target) && TREE_STATIC (exp))
7667 : : need_to_clear = true;
7668 : : else
7669 : : {
7670 : 39575 : unsigned HOST_WIDE_INT idx;
7671 : 39575 : HOST_WIDE_INT count = 0, zero_count = 0;
7672 : 39575 : need_to_clear = ! const_bounds_p;
7673 : :
7674 : : /* This loop is a more accurate version of the loop in
7675 : : mostly_zeros_p (it handles RANGE_EXPR in an index). It
7676 : : is also needed to check for missing elements. */
7677 : 39623 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (exp), idx, index, value)
7678 : : {
7679 : 48 : HOST_WIDE_INT this_node_count;
7680 : :
7681 : 48 : if (need_to_clear)
7682 : : break;
7683 : :
7684 : 48 : if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
7685 : : {
7686 : 0 : tree lo_index = TREE_OPERAND (index, 0);
7687 : 0 : tree hi_index = TREE_OPERAND (index, 1);
7688 : :
7689 : 0 : if (! tree_fits_uhwi_p (lo_index)
7690 : 0 : || ! tree_fits_uhwi_p (hi_index))
7691 : : {
7692 : : need_to_clear = true;
7693 : : break;
7694 : : }
7695 : :
7696 : 0 : this_node_count = (tree_to_uhwi (hi_index)
7697 : 0 : - tree_to_uhwi (lo_index) + 1);
7698 : 0 : }
7699 : : else
7700 : : this_node_count = 1;
7701 : :
7702 : 48 : count += this_node_count;
7703 : 48 : if (mostly_zeros_p (value))
7704 : 0 : zero_count += this_node_count;
7705 : : }
7706 : :
7707 : : /* Clear the entire array first if there are any missing
7708 : : elements, or if the incidence of zero elements is >=
7709 : : 75%. */
7710 : 39575 : if (! need_to_clear
7711 : 39575 : && (count < maxelt - minelt + 1
7712 : 6 : || 4 * zero_count >= 3 * count))
7713 : : need_to_clear = true;
7714 : : }
7715 : :
7716 : 39576 : if (need_to_clear && maybe_gt (size, 0))
7717 : : {
7718 : 39576 : if (REG_P (target))
7719 : 1299 : emit_move_insn (target, CONST0_RTX (GET_MODE (target)));
7720 : : else
7721 : 38277 : clear_storage (target, gen_int_mode (size, Pmode),
7722 : : BLOCK_OP_NORMAL);
7723 : : cleared = 1;
7724 : : }
7725 : :
7726 : 6 : if (!cleared && REG_P (target))
7727 : : /* Inform later passes that the old value is dead. */
7728 : 0 : emit_clobber (target);
7729 : :
7730 : : /* Store each element of the constructor into the
7731 : : corresponding element of TARGET, determined by counting the
7732 : : elements. */
7733 : 39630 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (exp), i, index, value)
7734 : : {
7735 : 48 : machine_mode mode;
7736 : 48 : poly_int64 bitsize;
7737 : 48 : HOST_WIDE_INT bitpos;
7738 : 48 : rtx xtarget = target;
7739 : :
7740 : 48 : if (cleared && initializer_zerop (value))
7741 : 0 : continue;
7742 : :
7743 : 48 : mode = TYPE_MODE (elttype);
7744 : 48 : if (mode != BLKmode)
7745 : 96 : bitsize = GET_MODE_BITSIZE (mode);
7746 : 0 : else if (!poly_int_tree_p (TYPE_SIZE (elttype), &bitsize))
7747 : 0 : bitsize = -1;
7748 : :
7749 : 48 : if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
7750 : : {
7751 : 0 : tree lo_index = TREE_OPERAND (index, 0);
7752 : 0 : tree hi_index = TREE_OPERAND (index, 1);
7753 : 0 : rtx index_r, pos_rtx;
7754 : 0 : HOST_WIDE_INT lo, hi, count;
7755 : 0 : tree position;
7756 : :
7757 : : /* If the range is constant and "small", unroll the loop. */
7758 : 0 : if (const_bounds_p
7759 : 0 : && tree_fits_shwi_p (lo_index)
7760 : 0 : && tree_fits_shwi_p (hi_index)
7761 : 0 : && (lo = tree_to_shwi (lo_index),
7762 : 0 : hi = tree_to_shwi (hi_index),
7763 : 0 : count = hi - lo + 1,
7764 : 0 : (!MEM_P (target)
7765 : 0 : || count <= 2
7766 : 0 : || (tree_fits_uhwi_p (TYPE_SIZE (elttype))
7767 : 0 : && (tree_to_uhwi (TYPE_SIZE (elttype)) * count
7768 : : <= 40 * 8)))))
7769 : : {
7770 : 0 : lo -= minelt; hi -= minelt;
7771 : 0 : for (; lo <= hi; lo++)
7772 : : {
7773 : 0 : bitpos = lo * tree_to_shwi (TYPE_SIZE (elttype));
7774 : :
7775 : 0 : if (MEM_P (target)
7776 : 0 : && !MEM_KEEP_ALIAS_SET_P (target)
7777 : 0 : && TREE_CODE (type) == ARRAY_TYPE
7778 : 0 : && TYPE_NONALIASED_COMPONENT (type))
7779 : : {
7780 : 0 : target = copy_rtx (target);
7781 : 0 : MEM_KEEP_ALIAS_SET_P (target) = 1;
7782 : : }
7783 : :
7784 : 0 : store_constructor_field
7785 : 0 : (target, bitsize, bitpos, 0, bitregion_end,
7786 : : mode, value, cleared,
7787 : : get_alias_set (elttype), reverse);
7788 : : }
7789 : : }
7790 : : else
7791 : : {
7792 : 0 : rtx_code_label *loop_start = gen_label_rtx ();
7793 : 0 : rtx_code_label *loop_end = gen_label_rtx ();
7794 : 0 : tree exit_cond;
7795 : :
7796 : 0 : expand_normal (hi_index);
7797 : :
7798 : 0 : index = build_decl (EXPR_LOCATION (exp),
7799 : : VAR_DECL, NULL_TREE, domain);
7800 : 0 : index_r = gen_reg_rtx (promote_decl_mode (index, NULL));
7801 : 0 : SET_DECL_RTL (index, index_r);
7802 : 0 : store_expr (lo_index, index_r, 0, false, reverse);
7803 : :
7804 : : /* Build the head of the loop. */
7805 : 0 : do_pending_stack_adjust ();
7806 : 0 : emit_label (loop_start);
7807 : :
7808 : : /* Assign value to element index. */
7809 : 0 : position =
7810 : 0 : fold_convert (ssizetype,
7811 : : fold_build2 (MINUS_EXPR,
7812 : : TREE_TYPE (index),
7813 : : index,
7814 : : TYPE_MIN_VALUE (domain)));
7815 : :
7816 : 0 : position =
7817 : 0 : size_binop (MULT_EXPR, position,
7818 : : fold_convert (ssizetype,
7819 : : TYPE_SIZE_UNIT (elttype)));
7820 : :
7821 : 0 : pos_rtx = expand_normal (position);
7822 : 0 : xtarget = offset_address (target, pos_rtx,
7823 : : highest_pow2_factor (position));
7824 : 0 : xtarget = adjust_address (xtarget, mode, 0);
7825 : 0 : if (TREE_CODE (value) == CONSTRUCTOR)
7826 : 0 : store_constructor (value, xtarget, cleared,
7827 : : exact_div (bitsize, BITS_PER_UNIT),
7828 : : reverse);
7829 : : else
7830 : 0 : store_expr (value, xtarget, 0, false, reverse);
7831 : :
7832 : : /* Generate a conditional jump to exit the loop. */
7833 : 0 : exit_cond = build2 (LT_EXPR, integer_type_node,
7834 : : index, hi_index);
7835 : 0 : jumpif (exit_cond, loop_end,
7836 : : profile_probability::uninitialized ());
7837 : :
7838 : : /* Update the loop counter, and jump to the head of
7839 : : the loop. */
7840 : 0 : expand_assignment (index,
7841 : 0 : build2 (PLUS_EXPR, TREE_TYPE (index),
7842 : : index, integer_one_node),
7843 : : false);
7844 : :
7845 : 0 : emit_jump (loop_start);
7846 : :
7847 : : /* Build the end of the loop. */
7848 : 0 : emit_label (loop_end);
7849 : : }
7850 : : }
7851 : 48 : else if ((index != 0 && ! tree_fits_shwi_p (index))
7852 : 48 : || ! tree_fits_uhwi_p (TYPE_SIZE (elttype)))
7853 : : {
7854 : 0 : tree position;
7855 : :
7856 : 0 : if (index == 0)
7857 : 0 : index = ssize_int (1);
7858 : :
7859 : 0 : if (minelt)
7860 : 0 : index = fold_convert (ssizetype,
7861 : : fold_build2 (MINUS_EXPR,
7862 : : TREE_TYPE (index),
7863 : : index,
7864 : : TYPE_MIN_VALUE (domain)));
7865 : :
7866 : 0 : position =
7867 : 0 : size_binop (MULT_EXPR, index,
7868 : : fold_convert (ssizetype,
7869 : : TYPE_SIZE_UNIT (elttype)));
7870 : 0 : xtarget = offset_address (target,
7871 : : expand_normal (position),
7872 : : highest_pow2_factor (position));
7873 : 0 : xtarget = adjust_address (xtarget, mode, 0);
7874 : 0 : store_expr (value, xtarget, 0, false, reverse);
7875 : : }
7876 : : else
7877 : : {
7878 : 48 : if (index != 0)
7879 : 96 : bitpos = ((tree_to_shwi (index) - minelt)
7880 : 48 : * tree_to_uhwi (TYPE_SIZE (elttype)));
7881 : : else
7882 : 0 : bitpos = (i * tree_to_uhwi (TYPE_SIZE (elttype)));
7883 : :
7884 : 48 : if (MEM_P (target) && !MEM_KEEP_ALIAS_SET_P (target)
7885 : 48 : && TREE_CODE (type) == ARRAY_TYPE
7886 : 96 : && TYPE_NONALIASED_COMPONENT (type))
7887 : : {
7888 : 0 : target = copy_rtx (target);
7889 : 0 : MEM_KEEP_ALIAS_SET_P (target) = 1;
7890 : : }
7891 : 48 : store_constructor_field (target, bitsize, bitpos, 0,
7892 : : bitregion_end, mode, value,
7893 : : cleared, get_alias_set (elttype),
7894 : : reverse);
7895 : : }
7896 : : }
7897 : : break;
7898 : : }
7899 : :
7900 : 146226 : case VECTOR_TYPE:
7901 : 146226 : {
7902 : 146226 : unsigned HOST_WIDE_INT idx;
7903 : 146226 : constructor_elt *ce;
7904 : 146226 : bool need_to_clear;
7905 : 146226 : insn_code icode = CODE_FOR_nothing;
7906 : 146226 : tree elt;
7907 : 146226 : tree elttype = TREE_TYPE (type);
7908 : 146226 : int elt_size = vector_element_bits (type);
7909 : 146226 : machine_mode eltmode = TYPE_MODE (elttype);
7910 : 146226 : poly_int64 bitsize;
7911 : 146226 : poly_int64 bitpos;
7912 : 146226 : rtvec vector = NULL;
7913 : 146226 : poly_uint64 n_elts;
7914 : 146226 : unsigned HOST_WIDE_INT const_n_elts;
7915 : 146226 : alias_set_type alias;
7916 : 146226 : bool vec_vec_init_p = false;
7917 : 146226 : machine_mode mode = GET_MODE (target);
7918 : :
7919 : 146226 : gcc_assert (eltmode != BLKmode);
7920 : :
7921 : : /* Try using vec_duplicate_optab for uniform vectors. */
7922 : 146226 : if (!TREE_SIDE_EFFECTS (exp)
7923 : 146226 : && VECTOR_MODE_P (mode)
7924 : 143125 : && eltmode == GET_MODE_INNER (mode)
7925 : 143125 : && ((icode = optab_handler (vec_duplicate_optab, mode))
7926 : : != CODE_FOR_nothing)
7927 : 94022 : && (elt = uniform_vector_p (exp))
7928 : 170380 : && !VECTOR_TYPE_P (TREE_TYPE (elt)))
7929 : : {
7930 : 24154 : class expand_operand ops[2];
7931 : 24154 : create_output_operand (&ops[0], target, mode);
7932 : 24154 : create_input_operand (&ops[1], expand_normal (elt), eltmode);
7933 : 24154 : expand_insn (icode, 2, ops);
7934 : 24154 : if (!rtx_equal_p (target, ops[0].value))
7935 : 0 : emit_move_insn (target, ops[0].value);
7936 : 24154 : break;
7937 : : }
7938 : : /* Use sign-extension for uniform boolean vectors with
7939 : : integer modes and single-bit mask entries.
7940 : : Effectively "vec_duplicate" for bitmasks. */
7941 : 122072 : if (elt_size == 1
7942 : 184 : && !TREE_SIDE_EFFECTS (exp)
7943 : 184 : && VECTOR_BOOLEAN_TYPE_P (type)
7944 : 184 : && SCALAR_INT_MODE_P (TYPE_MODE (type))
7945 : 184 : && (elt = uniform_vector_p (exp))
7946 : 122255 : && !VECTOR_TYPE_P (TREE_TYPE (elt)))
7947 : : {
7948 : 183 : rtx op0 = force_reg (TYPE_MODE (TREE_TYPE (elt)),
7949 : : expand_normal (elt));
7950 : 183 : rtx tmp = gen_reg_rtx (mode);
7951 : 183 : convert_move (tmp, op0, 0);
7952 : :
7953 : : /* Ensure no excess bits are set.
7954 : : GCN needs this for nunits < 64.
7955 : : x86 needs this for nunits < 8. */
7956 : 183 : auto nunits = TYPE_VECTOR_SUBPARTS (type).to_constant ();
7957 : 183 : if (maybe_ne (GET_MODE_PRECISION (mode), nunits))
7958 : 2 : tmp = expand_binop (mode, and_optab, tmp,
7959 : 2 : GEN_INT ((HOST_WIDE_INT_1U << nunits) - 1),
7960 : : target, true, OPTAB_WIDEN);
7961 : 183 : if (tmp != target)
7962 : 181 : emit_move_insn (target, tmp);
7963 : : break;
7964 : : }
7965 : :
7966 : 121889 : n_elts = TYPE_VECTOR_SUBPARTS (type);
7967 : 121889 : if (REG_P (target)
7968 : 119140 : && VECTOR_MODE_P (mode))
7969 : : {
7970 : 118971 : const_n_elts = 0;
7971 : 118971 : if (CONSTRUCTOR_NELTS (exp)
7972 : 118971 : && (TREE_CODE (TREE_TYPE (CONSTRUCTOR_ELT (exp, 0)->value))
7973 : : == VECTOR_TYPE))
7974 : : {
7975 : 1011 : tree etype = TREE_TYPE (CONSTRUCTOR_ELT (exp, 0)->value);
7976 : 1011 : gcc_assert (known_eq (CONSTRUCTOR_NELTS (exp)
7977 : : * TYPE_VECTOR_SUBPARTS (etype),
7978 : : n_elts));
7979 : :
7980 : 3033 : icode = convert_optab_handler (vec_init_optab, mode,
7981 : 1011 : TYPE_MODE (etype));
7982 : 1011 : const_n_elts = CONSTRUCTOR_NELTS (exp);
7983 : 1011 : vec_vec_init_p = icode != CODE_FOR_nothing;
7984 : : }
7985 : 235920 : else if (exact_div (n_elts, GET_MODE_NUNITS (eltmode))
7986 : 117960 : .is_constant (&const_n_elts))
7987 : : {
7988 : : /* For a non-const type vector, we check it is made up of
7989 : : similarly non-const type vectors. */
7990 : 117960 : icode = convert_optab_handler (vec_init_optab, mode, eltmode);
7991 : : }
7992 : :
7993 : 118971 : if (const_n_elts && icode != CODE_FOR_nothing)
7994 : : {
7995 : 117601 : vector = rtvec_alloc (const_n_elts);
7996 : 439377 : for (unsigned int k = 0; k < const_n_elts; k++)
7997 : 321776 : RTVEC_ELT (vector, k) = CONST0_RTX (eltmode);
7998 : : }
7999 : : }
8000 : :
8001 : : /* Compute the size of the elements in the CTOR. It differs
8002 : : from the size of the vector type elements only when the
8003 : : CTOR elements are vectors themselves. */
8004 : 121889 : tree val_type = (CONSTRUCTOR_NELTS (exp) != 0
8005 : 121889 : ? TREE_TYPE (CONSTRUCTOR_ELT (exp, 0)->value)
8006 : 121889 : : elttype);
8007 : 121889 : if (VECTOR_TYPE_P (val_type))
8008 : 1297 : bitsize = tree_to_poly_uint64 (TYPE_SIZE (val_type));
8009 : : else
8010 : 120592 : bitsize = elt_size;
8011 : :
8012 : : /* If the constructor has fewer elements than the vector,
8013 : : clear the whole array first. Similarly if this is static
8014 : : constructor of a non-BLKmode object. */
8015 : 121889 : if (cleared)
8016 : : need_to_clear = false;
8017 : 121889 : else if (REG_P (target) && TREE_STATIC (exp))
8018 : : need_to_clear = true;
8019 : : else
8020 : : {
8021 : : poly_uint64 count = 0, zero_count = 0;
8022 : : tree value;
8023 : :
8024 : 481141 : FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (exp), idx, value)
8025 : : {
8026 : 359252 : poly_int64 n_elts_here = exact_div (bitsize, elt_size);
8027 : 359252 : count += n_elts_here;
8028 : 359252 : if (mostly_zeros_p (value))
8029 : 359252 : zero_count += n_elts_here;
8030 : : }
8031 : :
8032 : : /* Clear the entire vector first if there are any missing elements,
8033 : : or if the incidence of zero elements is >= 75%. */
8034 : 121889 : need_to_clear = (maybe_lt (count, n_elts)
8035 : 121889 : || maybe_gt (4 * zero_count, 3 * count));
8036 : : }
8037 : :
8038 : 964 : if (need_to_clear && maybe_gt (size, 0) && !vector)
8039 : : {
8040 : 604 : if (REG_P (target))
8041 : 1 : emit_move_insn (target, CONST0_RTX (mode));
8042 : : else
8043 : 603 : clear_storage (target, gen_int_mode (size, Pmode),
8044 : : BLOCK_OP_NORMAL);
8045 : : cleared = 1;
8046 : : }
8047 : :
8048 : : /* Inform later passes that the old value is dead. */
8049 : 121889 : if (!cleared && !vector && REG_P (target) && maybe_gt (n_elts, 1u))
8050 : : {
8051 : 891 : emit_move_insn (target, CONST0_RTX (mode));
8052 : 891 : cleared = 1;
8053 : : }
8054 : :
8055 : 121889 : if (MEM_P (target))
8056 : 2749 : alias = MEM_ALIAS_SET (target);
8057 : : else
8058 : 119140 : alias = get_alias_set (elttype);
8059 : :
8060 : : /* Store each element of the constructor into the corresponding
8061 : : element of TARGET, determined by counting the elements. */
8062 : 121889 : HOST_WIDE_INT chunk_size = 0;
8063 : 121889 : bool chunk_multiple_p = constant_multiple_p (bitsize, elt_size,
8064 : : &chunk_size);
8065 : 121889 : gcc_assert (chunk_multiple_p || vec_vec_init_p);
8066 : :
8067 : 481141 : for (idx = 0; vec_safe_iterate (CONSTRUCTOR_ELTS (exp), idx, &ce);
8068 : : idx++)
8069 : : {
8070 : 359252 : HOST_WIDE_INT eltpos;
8071 : 359252 : tree value = ce->value;
8072 : :
8073 : 359252 : if (cleared && initializer_zerop (value))
8074 : 6718 : continue;
8075 : :
8076 : 352534 : if (ce->index)
8077 : 44043 : eltpos = tree_to_uhwi (ce->index);
8078 : : else
8079 : 308491 : eltpos = idx * chunk_size;
8080 : :
8081 : 352534 : if (vector)
8082 : : {
8083 : 320833 : if (vec_vec_init_p)
8084 : : {
8085 : 1972 : gcc_assert (ce->index == NULL_TREE);
8086 : 1972 : gcc_assert (TREE_CODE (TREE_TYPE (value)) == VECTOR_TYPE);
8087 : 1972 : eltpos = idx;
8088 : : }
8089 : : else
8090 : 318861 : gcc_assert (TREE_CODE (TREE_TYPE (value)) != VECTOR_TYPE);
8091 : 320833 : RTVEC_ELT (vector, eltpos) = expand_normal (value);
8092 : : }
8093 : : else
8094 : : {
8095 : 31701 : machine_mode value_mode
8096 : 31701 : = (TREE_CODE (TREE_TYPE (value)) == VECTOR_TYPE
8097 : 31701 : ? TYPE_MODE (TREE_TYPE (value)) : eltmode);
8098 : 31701 : bitpos = eltpos * elt_size;
8099 : 31701 : store_constructor_field (target, bitsize, bitpos, 0,
8100 : : bitregion_end, value_mode,
8101 : : value, cleared, alias, reverse);
8102 : : }
8103 : : }
8104 : :
8105 : 121889 : if (vector)
8106 : 117601 : emit_insn (GEN_FCN (icode) (target,
8107 : : gen_rtx_PARALLEL (mode, vector)));
8108 : : break;
8109 : : }
8110 : :
8111 : 0 : default:
8112 : 0 : gcc_unreachable ();
8113 : : }
8114 : 245782 : }
8115 : :
8116 : : /* Store the value of EXP (an expression tree)
8117 : : into a subfield of TARGET which has mode MODE and occupies
8118 : : BITSIZE bits, starting BITPOS bits from the start of TARGET.
8119 : : If MODE is VOIDmode, it means that we are storing into a bit-field.
8120 : :
8121 : : BITREGION_START is bitpos of the first bitfield in this region.
8122 : : BITREGION_END is the bitpos of the ending bitfield in this region.
8123 : : These two fields are 0, if the C++ memory model does not apply,
8124 : : or we are not interested in keeping track of bitfield regions.
8125 : :
8126 : : Always return const0_rtx unless we have something particular to
8127 : : return.
8128 : :
8129 : : ALIAS_SET is the alias set for the destination. This value will
8130 : : (in general) be different from that for TARGET, since TARGET is a
8131 : : reference to the containing structure.
8132 : :
8133 : : If NONTEMPORAL is true, try generating a nontemporal store.
8134 : :
8135 : : If REVERSE is true, the store is to be done in reverse order. */
8136 : :
8137 : : static rtx
8138 : 4565092 : store_field (rtx target, poly_int64 bitsize, poly_int64 bitpos,
8139 : : poly_uint64 bitregion_start, poly_uint64 bitregion_end,
8140 : : machine_mode mode, tree exp,
8141 : : alias_set_type alias_set, bool nontemporal, bool reverse)
8142 : : {
8143 : 4565092 : if (TREE_CODE (exp) == ERROR_MARK)
8144 : 0 : return const0_rtx;
8145 : :
8146 : : /* If we have nothing to store, do nothing unless the expression has
8147 : : side-effects. Don't do that for zero sized addressable lhs of
8148 : : calls. */
8149 : 4565092 : if (known_eq (bitsize, 0)
8150 : 4565092 : && (!TREE_ADDRESSABLE (TREE_TYPE (exp))
8151 : 3 : || TREE_CODE (exp) != CALL_EXPR))
8152 : 0 : return expand_expr (exp, const0_rtx, VOIDmode, EXPAND_NORMAL);
8153 : :
8154 : 4565092 : if (GET_CODE (target) == CONCAT)
8155 : : {
8156 : : /* We're storing into a struct containing a single __complex. */
8157 : :
8158 : 0 : gcc_assert (known_eq (bitpos, 0));
8159 : 0 : return store_expr (exp, target, 0, nontemporal, reverse);
8160 : : }
8161 : :
8162 : : /* If the structure is in a register or if the component
8163 : : is a bit field, we cannot use addressing to access it.
8164 : : Use bit-field techniques or SUBREG to store in it. */
8165 : :
8166 : 4565092 : poly_int64 decl_bitsize;
8167 : 4565092 : if (mode == VOIDmode
8168 : 4495799 : || (mode != BLKmode && ! direct_store[(int) mode]
8169 : 5183 : && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
8170 : 5181 : && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT)
8171 : 4490659 : || REG_P (target)
8172 : 3822954 : || GET_CODE (target) == SUBREG
8173 : : /* If the field isn't aligned enough to store as an ordinary memref,
8174 : : store it as a bit field. */
8175 : 3822954 : || (mode != BLKmode
8176 : 3711295 : && ((((MEM_ALIGN (target) < GET_MODE_ALIGNMENT (mode))
8177 : 7330726 : || !multiple_p (bitpos, GET_MODE_ALIGNMENT (mode)))
8178 : 48638 : && targetm.slow_unaligned_access (mode, MEM_ALIGN (target)))
8179 : 3711295 : || !multiple_p (bitpos, BITS_PER_UNIT)))
8180 : 3822954 : || (known_size_p (bitsize)
8181 : 3822942 : && mode != BLKmode
8182 : 3711295 : && maybe_gt (GET_MODE_BITSIZE (mode), bitsize))
8183 : : /* If the RHS and field are a constant size and the size of the
8184 : : RHS isn't the same size as the bitfield, we must use bitfield
8185 : : operations. */
8186 : 3822945 : || (known_size_p (bitsize)
8187 : 3822933 : && poly_int_tree_p (TYPE_SIZE (TREE_TYPE (exp)))
8188 : 3822933 : && maybe_ne (wi::to_poly_offset (TYPE_SIZE (TREE_TYPE (exp))),
8189 : : bitsize)
8190 : : /* Except for initialization of full bytes from a CONSTRUCTOR, which
8191 : : we will handle specially below. */
8192 : 27 : && !(TREE_CODE (exp) == CONSTRUCTOR
8193 : 11 : && multiple_p (bitsize, BITS_PER_UNIT))
8194 : : /* And except for bitwise copying of TREE_ADDRESSABLE types,
8195 : : where the FIELD_DECL has the right bitsize, but TREE_TYPE (exp)
8196 : : includes some extra padding. store_expr / expand_expr will in
8197 : : that case call get_inner_reference that will have the bitsize
8198 : : we check here and thus the block move will not clobber the
8199 : : padding that shouldn't be clobbered. In the future we could
8200 : : replace the TREE_ADDRESSABLE check with a check that
8201 : : get_base_address needs to live in memory. */
8202 : 16 : && (!TREE_ADDRESSABLE (TREE_TYPE (exp))
8203 : 9 : || TREE_CODE (exp) != COMPONENT_REF
8204 : 6 : || !multiple_p (bitsize, BITS_PER_UNIT)
8205 : 6 : || !multiple_p (bitpos, BITS_PER_UNIT)
8206 : 6 : || !poly_int_tree_p (DECL_SIZE (TREE_OPERAND (exp, 1)),
8207 : : &decl_bitsize)
8208 : 6 : || maybe_ne (decl_bitsize, bitsize))
8209 : : /* A call with an addressable return type and return-slot
8210 : : optimization must not need bitfield operations but we must
8211 : : pass down the original target. */
8212 : 10 : && (TREE_CODE (exp) != CALL_EXPR
8213 : 6 : || !TREE_ADDRESSABLE (TREE_TYPE (exp))
8214 : 0 : || !CALL_EXPR_RETURN_SLOT_OPT (exp)))
8215 : : /* If we are expanding a MEM_REF of a non-BLKmode non-addressable
8216 : : decl we must use bitfield operations. */
8217 : 8388027 : || (known_size_p (bitsize)
8218 : 3822923 : && TREE_CODE (exp) == MEM_REF
8219 : 27902 : && TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
8220 : 22589 : && DECL_P (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
8221 : 18331 : && !TREE_ADDRESSABLE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
8222 : 4974 : && DECL_MODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)) != BLKmode))
8223 : : {
8224 : 742296 : rtx temp;
8225 : 742296 : gimple *nop_def;
8226 : :
8227 : : /* If EXP is a NOP_EXPR of precision less than its mode, then that
8228 : : implies a mask operation. If the precision is the same size as
8229 : : the field we're storing into, that mask is redundant. This is
8230 : : particularly common with bit field assignments generated by the
8231 : : C front end. */
8232 : 742296 : nop_def = get_def_for_expr (exp, NOP_EXPR);
8233 : 742296 : if (nop_def)
8234 : : {
8235 : 7582 : tree type = TREE_TYPE (exp);
8236 : 7582 : if (INTEGRAL_TYPE_P (type)
8237 : 7376 : && maybe_ne (TYPE_PRECISION (type),
8238 : 14752 : GET_MODE_BITSIZE (TYPE_MODE (type)))
8239 : 11224 : && known_eq (bitsize, TYPE_PRECISION (type)))
8240 : : {
8241 : 3598 : tree op = gimple_assign_rhs1 (nop_def);
8242 : 3598 : type = TREE_TYPE (op);
8243 : 3598 : if (INTEGRAL_TYPE_P (type)
8244 : 3598 : && known_ge (TYPE_PRECISION (type), bitsize))
8245 : : exp = op;
8246 : : }
8247 : : }
8248 : :
8249 : 742296 : temp = expand_normal (exp);
8250 : :
8251 : : /* We don't support variable-sized BLKmode bitfields, since our
8252 : : handling of BLKmode is bound up with the ability to break
8253 : : things into words. */
8254 : 742296 : gcc_assert (mode != BLKmode || bitsize.is_constant ());
8255 : :
8256 : : /* Handle calls that return values in multiple non-contiguous locations.
8257 : : The Irix 6 ABI has examples of this. */
8258 : 742296 : if (GET_CODE (temp) == PARALLEL)
8259 : : {
8260 : 6 : HOST_WIDE_INT size = int_size_in_bytes (TREE_TYPE (exp));
8261 : 6 : machine_mode temp_mode = GET_MODE (temp);
8262 : 6 : if (temp_mode == BLKmode || temp_mode == VOIDmode)
8263 : 6 : temp_mode
8264 : 6 : = smallest_int_mode_for_size (size * BITS_PER_UNIT).require ();
8265 : 6 : rtx temp_target = gen_reg_rtx (temp_mode);
8266 : 6 : emit_group_store (temp_target, temp, TREE_TYPE (exp), size);
8267 : 6 : temp = temp_target;
8268 : : }
8269 : :
8270 : : /* Handle calls that return BLKmode values in registers. */
8271 : 742290 : else if (mode == BLKmode && REG_P (temp) && TREE_CODE (exp) == CALL_EXPR)
8272 : : {
8273 : 0 : rtx temp_target = gen_reg_rtx (GET_MODE (temp));
8274 : 0 : copy_blkmode_from_reg (temp_target, temp, TREE_TYPE (exp));
8275 : 0 : temp = temp_target;
8276 : : }
8277 : :
8278 : : /* If the value has aggregate type and an integral mode then, if BITSIZE
8279 : : is narrower than this mode and this is for big-endian data, we first
8280 : : need to put the value into the low-order bits for store_bit_field,
8281 : : except when MODE is BLKmode and BITSIZE larger than the word size
8282 : : (see the handling of fields larger than a word in store_bit_field).
8283 : : Moreover, the field may be not aligned on a byte boundary; in this
8284 : : case, if it has reverse storage order, it needs to be accessed as a
8285 : : scalar field with reverse storage order and we must first put the
8286 : : value into target order. */
8287 : 742296 : scalar_int_mode temp_mode;
8288 : 1482722 : if (AGGREGATE_TYPE_P (TREE_TYPE (exp))
8289 : 743292 : && is_int_mode (GET_MODE (temp), &temp_mode))
8290 : : {
8291 : 2631 : HOST_WIDE_INT size = GET_MODE_BITSIZE (temp_mode);
8292 : :
8293 : 2631 : reverse = TYPE_REVERSE_STORAGE_ORDER (TREE_TYPE (exp));
8294 : :
8295 : 2631 : if (reverse)
8296 : 0 : temp = flip_storage_order (temp_mode, temp);
8297 : :
8298 : 2631 : gcc_checking_assert (known_le (bitsize, size));
8299 : 2631 : if (maybe_lt (bitsize, size)
8300 : 2631 : && reverse ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN
8301 : : /* Use of to_constant for BLKmode was checked above. */
8302 : : && !(mode == BLKmode && bitsize.to_constant () > BITS_PER_WORD))
8303 : 0 : temp = expand_shift (RSHIFT_EXPR, temp_mode, temp,
8304 : : size - bitsize, NULL_RTX, 1);
8305 : : }
8306 : :
8307 : : /* Unless MODE is VOIDmode or BLKmode, convert TEMP to MODE. */
8308 : 673003 : if (mode != VOIDmode && mode != BLKmode
8309 : 1415075 : && mode != TYPE_MODE (TREE_TYPE (exp)))
8310 : 4 : temp = convert_modes (mode, TYPE_MODE (TREE_TYPE (exp)), temp, 1);
8311 : :
8312 : : /* If the mode of TEMP and TARGET is BLKmode, both must be in memory
8313 : : and BITPOS must be aligned on a byte boundary. If so, we simply do
8314 : : a block copy. Likewise for a BLKmode-like TARGET. */
8315 : 742296 : if (GET_MODE (temp) == BLKmode
8316 : 742296 : && (GET_MODE (target) == BLKmode
8317 : 133 : || (MEM_P (target)
8318 : 0 : && GET_MODE_CLASS (GET_MODE (target)) == MODE_INT
8319 : 0 : && multiple_p (bitpos, BITS_PER_UNIT)
8320 : 0 : && multiple_p (bitsize, BITS_PER_UNIT))))
8321 : : {
8322 : 85 : gcc_assert (MEM_P (target) && MEM_P (temp));
8323 : 85 : poly_int64 bytepos = exact_div (bitpos, BITS_PER_UNIT);
8324 : 85 : poly_int64 bytesize = bits_to_bytes_round_up (bitsize);
8325 : :
8326 : 85 : target = adjust_address (target, VOIDmode, bytepos);
8327 : 85 : emit_block_move (target, temp,
8328 : 85 : gen_int_mode (bytesize, Pmode),
8329 : : BLOCK_OP_NORMAL);
8330 : :
8331 : 85 : return const0_rtx;
8332 : : }
8333 : :
8334 : : /* If the mode of TEMP is still BLKmode and BITSIZE not larger than the
8335 : : word size, we need to load the value (see again store_bit_field). */
8336 : 742229 : if (GET_MODE (temp) == BLKmode && known_le (bitsize, BITS_PER_WORD))
8337 : : {
8338 : 21 : temp_mode = smallest_int_mode_for_size (bitsize).require ();
8339 : 21 : temp = extract_bit_field (temp, bitsize, 0, 1, NULL_RTX, temp_mode,
8340 : : temp_mode, false, NULL);
8341 : : }
8342 : :
8343 : : /* Store the value in the bitfield. */
8344 : 742211 : gcc_checking_assert (known_ge (bitpos, 0));
8345 : 742211 : store_bit_field (target, bitsize, bitpos,
8346 : : bitregion_start, bitregion_end,
8347 : : mode, temp, reverse, false);
8348 : :
8349 : 742211 : return const0_rtx;
8350 : : }
8351 : : else
8352 : : {
8353 : : /* Now build a reference to just the desired component. */
8354 : 3822796 : rtx to_rtx = adjust_address (target, mode,
8355 : : exact_div (bitpos, BITS_PER_UNIT));
8356 : :
8357 : 3822796 : if (to_rtx == target)
8358 : 1254925 : to_rtx = copy_rtx (to_rtx);
8359 : :
8360 : 7376909 : if (!MEM_KEEP_ALIAS_SET_P (to_rtx) && MEM_ALIAS_SET (to_rtx) != 0)
8361 : 3304778 : set_mem_alias_set (to_rtx, alias_set);
8362 : :
8363 : : /* Above we avoided using bitfield operations for storing a CONSTRUCTOR
8364 : : into a target smaller than its type; handle that case now. */
8365 : 3822796 : if (TREE_CODE (exp) == CONSTRUCTOR && known_size_p (bitsize))
8366 : : {
8367 : 67963 : poly_int64 bytesize = exact_div (bitsize, BITS_PER_UNIT);
8368 : 67963 : store_constructor (exp, to_rtx, 0, bytesize, reverse);
8369 : 67963 : return to_rtx;
8370 : : }
8371 : :
8372 : 3754833 : return store_expr (exp, to_rtx, 0, nontemporal, reverse);
8373 : : }
8374 : : }
8375 : :
8376 : : /* Given an expression EXP that may be a COMPONENT_REF, a BIT_FIELD_REF,
8377 : : an ARRAY_REF, or an ARRAY_RANGE_REF, look for nested operations of these
8378 : : codes and find the ultimate containing object, which we return.
8379 : :
8380 : : We set *PBITSIZE to the size in bits that we want, *PBITPOS to the
8381 : : bit position, *PUNSIGNEDP to the signedness and *PREVERSEP to the
8382 : : storage order of the field.
8383 : : If the position of the field is variable, we store a tree
8384 : : giving the variable offset (in units) in *POFFSET.
8385 : : This offset is in addition to the bit position.
8386 : : If the position is not variable, we store 0 in *POFFSET.
8387 : :
8388 : : If any of the extraction expressions is volatile,
8389 : : we store 1 in *PVOLATILEP. Otherwise we don't change that.
8390 : :
8391 : : If the field is a non-BLKmode bit-field, *PMODE is set to VOIDmode.
8392 : : Otherwise, it is a mode that can be used to access the field.
8393 : :
8394 : : If the field describes a variable-sized object, *PMODE is set to
8395 : : BLKmode and *PBITSIZE is set to -1. An access cannot be made in
8396 : : this case, but the address of the object can be found. */
8397 : :
8398 : : tree
8399 : 210316275 : get_inner_reference (tree exp, poly_int64 *pbitsize,
8400 : : poly_int64 *pbitpos, tree *poffset,
8401 : : machine_mode *pmode, int *punsignedp,
8402 : : int *preversep, int *pvolatilep)
8403 : : {
8404 : 210316275 : tree size_tree = 0;
8405 : 210316275 : machine_mode mode = VOIDmode;
8406 : 210316275 : bool blkmode_bitfield = false;
8407 : 210316275 : tree offset = size_zero_node;
8408 : 210316275 : poly_offset_int bit_offset = 0;
8409 : :
8410 : : /* First get the mode, signedness, storage order and size. We do this from
8411 : : just the outermost expression. */
8412 : 210316275 : *pbitsize = -1;
8413 : 210316275 : if (TREE_CODE (exp) == COMPONENT_REF)
8414 : : {
8415 : 89922591 : tree field = TREE_OPERAND (exp, 1);
8416 : 89922591 : size_tree = DECL_SIZE (field);
8417 : 89922591 : if (flag_strict_volatile_bitfields > 0
8418 : 58 : && TREE_THIS_VOLATILE (exp)
8419 : 40 : && DECL_BIT_FIELD_TYPE (field)
8420 : 89922613 : && DECL_MODE (field) != BLKmode)
8421 : : /* Volatile bitfields should be accessed in the mode of the
8422 : : field's type, not the mode computed based on the bit
8423 : : size. */
8424 : 22 : mode = TYPE_MODE (DECL_BIT_FIELD_TYPE (field));
8425 : 89922569 : else if (!DECL_BIT_FIELD (field))
8426 : : {
8427 : 88712149 : mode = DECL_MODE (field);
8428 : : /* For vector fields re-check the target flags, as DECL_MODE
8429 : : could have been set with different target flags than
8430 : : the current function has. */
8431 : 88712149 : if (VECTOR_TYPE_P (TREE_TYPE (field))
8432 : 88712149 : && VECTOR_MODE_P (TYPE_MODE_RAW (TREE_TYPE (field))))
8433 : 317124 : mode = TYPE_MODE (TREE_TYPE (field));
8434 : : }
8435 : 1210420 : else if (DECL_MODE (field) == BLKmode)
8436 : 272 : blkmode_bitfield = true;
8437 : :
8438 : 89922591 : *punsignedp = DECL_UNSIGNED (field);
8439 : : }
8440 : 120393684 : else if (TREE_CODE (exp) == BIT_FIELD_REF)
8441 : : {
8442 : 531226 : size_tree = TREE_OPERAND (exp, 1);
8443 : 1062065 : *punsignedp = (! INTEGRAL_TYPE_P (TREE_TYPE (exp))
8444 : 936027 : || TYPE_UNSIGNED (TREE_TYPE (exp)));
8445 : :
8446 : : /* For vector element types with the correct size of access or for
8447 : : vector typed accesses use the mode of the access type. */
8448 : 531226 : if ((TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == VECTOR_TYPE
8449 : 416649 : && TREE_TYPE (exp) == TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0)))
8450 : 378878 : && tree_int_cst_equal (size_tree, TYPE_SIZE (TREE_TYPE (exp))))
8451 : 569000 : || VECTOR_TYPE_P (TREE_TYPE (exp)))
8452 : 397931 : mode = TYPE_MODE (TREE_TYPE (exp));
8453 : : }
8454 : : else
8455 : : {
8456 : 119862458 : mode = TYPE_MODE (TREE_TYPE (exp));
8457 : 119862458 : *punsignedp = TYPE_UNSIGNED (TREE_TYPE (exp));
8458 : :
8459 : 119862458 : if (mode == BLKmode)
8460 : 50123973 : size_tree = TYPE_SIZE (TREE_TYPE (exp));
8461 : : else
8462 : 139476970 : *pbitsize = GET_MODE_BITSIZE (mode);
8463 : : }
8464 : :
8465 : 210316275 : if (size_tree != 0)
8466 : : {
8467 : 139902551 : if (!poly_int_tree_p (size_tree, pbitsize))
8468 : 327193 : mode = BLKmode, *pbitsize = -1;
8469 : : }
8470 : :
8471 : 210316275 : *preversep = reverse_storage_order_for_component_p (exp);
8472 : :
8473 : : /* Compute cumulative bit-offset for nested component-refs and array-refs,
8474 : : and find the ultimate containing object. */
8475 : 526062821 : while (1)
8476 : : {
8477 : 368189548 : switch (TREE_CODE (exp))
8478 : : {
8479 : 531226 : case BIT_FIELD_REF:
8480 : 531226 : bit_offset += wi::to_poly_offset (TREE_OPERAND (exp, 2));
8481 : 531226 : break;
8482 : :
8483 : 131144845 : case COMPONENT_REF:
8484 : 131144845 : {
8485 : 131144845 : tree field = TREE_OPERAND (exp, 1);
8486 : 131144845 : tree this_offset = component_ref_field_offset (exp);
8487 : :
8488 : : /* If this field hasn't been filled in yet, don't go past it.
8489 : : This should only happen when folding expressions made during
8490 : : type construction. */
8491 : 131144845 : if (this_offset == 0)
8492 : : break;
8493 : :
8494 : 131144814 : offset = size_binop (PLUS_EXPR, offset, this_offset);
8495 : 131144814 : bit_offset += wi::to_poly_offset (DECL_FIELD_BIT_OFFSET (field));
8496 : :
8497 : : /* ??? Right now we don't do anything with DECL_OFFSET_ALIGN. */
8498 : : }
8499 : 131144814 : break;
8500 : :
8501 : 24031603 : case ARRAY_REF:
8502 : 24031603 : case ARRAY_RANGE_REF:
8503 : 24031603 : {
8504 : 24031603 : tree index = TREE_OPERAND (exp, 1);
8505 : 24031603 : tree low_bound = array_ref_low_bound (exp);
8506 : 24031603 : tree unit_size = array_ref_element_size (exp);
8507 : :
8508 : : /* We assume all arrays have sizes that are a multiple of a byte.
8509 : : First subtract the lower bound, if any, in the type of the
8510 : : index, then convert to sizetype and multiply by the size of
8511 : : the array element. */
8512 : 24031603 : if (! integer_zerop (low_bound))
8513 : 752562 : index = fold_build2 (MINUS_EXPR, TREE_TYPE (index),
8514 : : index, low_bound);
8515 : :
8516 : 24031603 : offset = size_binop (PLUS_EXPR, offset,
8517 : : size_binop (MULT_EXPR,
8518 : : fold_convert (sizetype, index),
8519 : : unit_size));
8520 : : }
8521 : 24031603 : break;
8522 : :
8523 : : case REALPART_EXPR:
8524 : : break;
8525 : :
8526 : : case IMAGPART_EXPR:
8527 : 157873273 : bit_offset += *pbitsize;
8528 : : break;
8529 : :
8530 : : case VIEW_CONVERT_EXPR:
8531 : : break;
8532 : :
8533 : 74821905 : case MEM_REF:
8534 : : /* Hand back the decl for MEM[&decl, off]. */
8535 : 74821905 : if (TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR)
8536 : : {
8537 : 15256505 : tree off = TREE_OPERAND (exp, 1);
8538 : 15256505 : if (!integer_zerop (off))
8539 : : {
8540 : 8200287 : poly_offset_int boff = mem_ref_offset (exp);
8541 : 8200287 : boff <<= LOG2_BITS_PER_UNIT;
8542 : 8200287 : bit_offset += boff;
8543 : : }
8544 : 15256505 : exp = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
8545 : : }
8546 : 74821905 : goto done;
8547 : :
8548 : 135494370 : default:
8549 : 135494370 : goto done;
8550 : : }
8551 : :
8552 : : /* If any reference in the chain is volatile, the effect is volatile. */
8553 : 157873273 : if (TREE_THIS_VOLATILE (exp))
8554 : 427620 : *pvolatilep = 1;
8555 : :
8556 : 157873273 : exp = TREE_OPERAND (exp, 0);
8557 : 157873273 : }
8558 : 210316275 : done:
8559 : :
8560 : : /* If OFFSET is constant, see if we can return the whole thing as a
8561 : : constant bit position. Make sure to handle overflow during
8562 : : this conversion. */
8563 : 210316275 : if (poly_int_tree_p (offset))
8564 : : {
8565 : 199903771 : poly_offset_int tem = wi::sext (wi::to_poly_offset (offset),
8566 : 199903771 : TYPE_PRECISION (sizetype));
8567 : 199903771 : tem <<= LOG2_BITS_PER_UNIT;
8568 : 199903771 : tem += bit_offset;
8569 : 199903771 : if (tem.to_shwi (pbitpos))
8570 : 199902419 : *poffset = offset = NULL_TREE;
8571 : : }
8572 : :
8573 : : /* Otherwise, split it up. */
8574 : 199903771 : if (offset)
8575 : : {
8576 : : /* Avoid returning a negative bitpos as this may wreak havoc later. */
8577 : 10413856 : if (!bit_offset.to_shwi (pbitpos) || maybe_lt (*pbitpos, 0))
8578 : : {
8579 : 277 : *pbitpos = num_trailing_bits (bit_offset.force_shwi ());
8580 : 277 : poly_offset_int bytes = bits_to_bytes_round_down (bit_offset);
8581 : 277 : offset = size_binop (PLUS_EXPR, offset,
8582 : : build_int_cst (sizetype, bytes.force_shwi ()));
8583 : : }
8584 : :
8585 : 10413856 : *poffset = offset;
8586 : : }
8587 : :
8588 : : /* We can use BLKmode for a byte-aligned BLKmode bitfield. */
8589 : 210316275 : if (mode == VOIDmode
8590 : 2007803 : && blkmode_bitfield
8591 : 272 : && multiple_p (*pbitpos, BITS_PER_UNIT)
8592 : 210316509 : && multiple_p (*pbitsize, BITS_PER_UNIT))
8593 : 124 : *pmode = BLKmode;
8594 : : else
8595 : 210316151 : *pmode = mode;
8596 : :
8597 : 210316275 : return exp;
8598 : : }
8599 : :
8600 : : /* Alignment in bits the TARGET of an assignment may be assumed to have. */
8601 : :
8602 : : static unsigned HOST_WIDE_INT
8603 : 508965 : target_align (const_tree target)
8604 : : {
8605 : : /* We might have a chain of nested references with intermediate misaligning
8606 : : bitfields components, so need to recurse to find out. */
8607 : :
8608 : 508965 : unsigned HOST_WIDE_INT this_align, outer_align;
8609 : :
8610 : 508965 : switch (TREE_CODE (target))
8611 : : {
8612 : : case BIT_FIELD_REF:
8613 : : return 1;
8614 : :
8615 : 146590 : case COMPONENT_REF:
8616 : 146590 : this_align = DECL_ALIGN (TREE_OPERAND (target, 1));
8617 : 146590 : outer_align = target_align (TREE_OPERAND (target, 0));
8618 : 146590 : return MIN (this_align, outer_align);
8619 : :
8620 : 184410 : case ARRAY_REF:
8621 : 184410 : case ARRAY_RANGE_REF:
8622 : 184410 : this_align = TYPE_ALIGN (TREE_TYPE (target));
8623 : 184410 : outer_align = target_align (TREE_OPERAND (target, 0));
8624 : 184410 : return MIN (this_align, outer_align);
8625 : :
8626 : 4223 : CASE_CONVERT:
8627 : 4223 : case NON_LVALUE_EXPR:
8628 : 4223 : case VIEW_CONVERT_EXPR:
8629 : 4223 : this_align = TYPE_ALIGN (TREE_TYPE (target));
8630 : 4223 : outer_align = target_align (TREE_OPERAND (target, 0));
8631 : 4223 : return MAX (this_align, outer_align);
8632 : :
8633 : 173738 : default:
8634 : 173738 : return TYPE_ALIGN (TREE_TYPE (target));
8635 : : }
8636 : : }
8637 : :
8638 : :
8639 : : /* Given an rtx VALUE that may contain additions and multiplications, return
8640 : : an equivalent value that just refers to a register, memory, or constant.
8641 : : This is done by generating instructions to perform the arithmetic and
8642 : : returning a pseudo-register containing the value.
8643 : :
8644 : : The returned value may be a REG, SUBREG, MEM or constant. */
8645 : :
8646 : : rtx
8647 : 29198699 : force_operand (rtx value, rtx target)
8648 : : {
8649 : 29198699 : rtx op1, op2;
8650 : : /* Use subtarget as the target for operand 0 of a binary operation. */
8651 : 29198699 : rtx subtarget = get_subtarget (target);
8652 : 29198699 : enum rtx_code code = GET_CODE (value);
8653 : :
8654 : : /* Check for subreg applied to an expression produced by loop optimizer. */
8655 : 29198699 : if (code == SUBREG
8656 : 332909 : && !REG_P (SUBREG_REG (value))
8657 : 115 : && !MEM_P (SUBREG_REG (value)))
8658 : : {
8659 : 115 : value
8660 : 115 : = simplify_gen_subreg (GET_MODE (value),
8661 : 115 : force_reg (GET_MODE (SUBREG_REG (value)),
8662 : : force_operand (SUBREG_REG (value),
8663 : : NULL_RTX)),
8664 : 115 : GET_MODE (SUBREG_REG (value)),
8665 : 115 : SUBREG_BYTE (value));
8666 : 115 : code = GET_CODE (value);
8667 : : }
8668 : :
8669 : : /* Check for a PIC address load. */
8670 : 29198699 : if ((code == PLUS || code == MINUS)
8671 : 3447855 : && XEXP (value, 0) == pic_offset_table_rtx
8672 : 1965 : && (GET_CODE (XEXP (value, 1)) == SYMBOL_REF
8673 : 1965 : || GET_CODE (XEXP (value, 1)) == LABEL_REF
8674 : 1965 : || GET_CODE (XEXP (value, 1)) == CONST))
8675 : : {
8676 : 222 : if (!subtarget)
8677 : 222 : subtarget = gen_reg_rtx (GET_MODE (value));
8678 : 222 : emit_move_insn (subtarget, value);
8679 : 222 : return subtarget;
8680 : : }
8681 : :
8682 : 29198477 : if (ARITHMETIC_P (value))
8683 : : {
8684 : 3559944 : op2 = XEXP (value, 1);
8685 : 3559944 : if (!CONSTANT_P (op2) && !(REG_P (op2) && op2 != subtarget))
8686 : 3559944 : subtarget = 0;
8687 : 3559944 : if (code == MINUS && CONST_INT_P (op2))
8688 : : {
8689 : 0 : code = PLUS;
8690 : 0 : op2 = negate_rtx (GET_MODE (value), op2);
8691 : : }
8692 : :
8693 : : /* Check for an addition with OP2 a constant integer and our first
8694 : : operand a PLUS of a virtual register and something else. In that
8695 : : case, we want to emit the sum of the virtual register and the
8696 : : constant first and then add the other value. This allows virtual
8697 : : register instantiation to simply modify the constant rather than
8698 : : creating another one around this addition. */
8699 : 3381859 : if (code == PLUS && CONST_INT_P (op2)
8700 : 3072917 : && GET_CODE (XEXP (value, 0)) == PLUS
8701 : 79538 : && REG_P (XEXP (XEXP (value, 0), 0))
8702 : 3585856 : && VIRTUAL_REGISTER_P (XEXP (XEXP (value, 0), 0)))
8703 : : {
8704 : 1861 : rtx temp = expand_simple_binop (GET_MODE (value), code,
8705 : : XEXP (XEXP (value, 0), 0), op2,
8706 : : subtarget, 0, OPTAB_LIB_WIDEN);
8707 : 1861 : return expand_simple_binop (GET_MODE (value), code, temp,
8708 : 1861 : force_operand (XEXP (XEXP (value,
8709 : : 0), 1), 0),
8710 : 1861 : target, 0, OPTAB_LIB_WIDEN);
8711 : : }
8712 : :
8713 : 3558083 : op1 = force_operand (XEXP (value, 0), subtarget);
8714 : 3558083 : op2 = force_operand (op2, NULL_RTX);
8715 : 3558083 : switch (code)
8716 : : {
8717 : 91767 : case MULT:
8718 : 91767 : return expand_mult (GET_MODE (value), op1, op2, target, 1);
8719 : 234 : case DIV:
8720 : 234 : if (!INTEGRAL_MODE_P (GET_MODE (value)))
8721 : 234 : return expand_simple_binop (GET_MODE (value), code, op1, op2,
8722 : 234 : target, 1, OPTAB_LIB_WIDEN);
8723 : : else
8724 : 0 : return expand_divmod (0,
8725 : : FLOAT_MODE_P (GET_MODE (value))
8726 : : ? RDIV_EXPR : TRUNC_DIV_EXPR,
8727 : 0 : GET_MODE (value), op1, op2, target, 0);
8728 : 0 : case MOD:
8729 : 0 : return expand_divmod (1, TRUNC_MOD_EXPR, GET_MODE (value), op1, op2,
8730 : 0 : target, 0);
8731 : 351 : case UDIV:
8732 : 351 : return expand_divmod (0, TRUNC_DIV_EXPR, GET_MODE (value), op1, op2,
8733 : 351 : target, 1);
8734 : 0 : case UMOD:
8735 : 0 : return expand_divmod (1, TRUNC_MOD_EXPR, GET_MODE (value), op1, op2,
8736 : 0 : target, 1);
8737 : 110 : case ASHIFTRT:
8738 : 110 : return expand_simple_binop (GET_MODE (value), code, op1, op2,
8739 : 110 : target, 0, OPTAB_LIB_WIDEN);
8740 : 3465621 : default:
8741 : 3465621 : return expand_simple_binop (GET_MODE (value), code, op1, op2,
8742 : 3465621 : target, 1, OPTAB_LIB_WIDEN);
8743 : : }
8744 : : }
8745 : 25638533 : if (UNARY_P (value))
8746 : : {
8747 : 17015 : if (!target)
8748 : 5612 : target = gen_reg_rtx (GET_MODE (value));
8749 : 17015 : op1 = force_operand (XEXP (value, 0), NULL_RTX);
8750 : 17015 : switch (code)
8751 : : {
8752 : 4961 : case ZERO_EXTEND:
8753 : 4961 : case SIGN_EXTEND:
8754 : 4961 : case TRUNCATE:
8755 : 4961 : case FLOAT_EXTEND:
8756 : 4961 : case FLOAT_TRUNCATE:
8757 : 4961 : convert_move (target, op1, code == ZERO_EXTEND);
8758 : 4961 : return target;
8759 : :
8760 : 8 : case FIX:
8761 : 8 : case UNSIGNED_FIX:
8762 : 8 : expand_fix (target, op1, code == UNSIGNED_FIX);
8763 : 8 : return target;
8764 : :
8765 : 120 : case FLOAT:
8766 : 120 : case UNSIGNED_FLOAT:
8767 : 120 : expand_float (target, op1, code == UNSIGNED_FLOAT);
8768 : 120 : return target;
8769 : :
8770 : 11926 : default:
8771 : 11926 : return expand_simple_unop (GET_MODE (value), code, op1, target, 0);
8772 : : }
8773 : : }
8774 : :
8775 : : #ifdef INSN_SCHEDULING
8776 : : /* On machines that have insn scheduling, we want all memory reference to be
8777 : : explicit, so we need to deal with such paradoxical SUBREGs. */
8778 : 25621518 : if (paradoxical_subreg_p (value) && MEM_P (SUBREG_REG (value)))
8779 : 0 : value
8780 : 0 : = simplify_gen_subreg (GET_MODE (value),
8781 : 0 : force_reg (GET_MODE (SUBREG_REG (value)),
8782 : : force_operand (SUBREG_REG (value),
8783 : : NULL_RTX)),
8784 : 0 : GET_MODE (SUBREG_REG (value)),
8785 : 0 : SUBREG_BYTE (value));
8786 : : #endif
8787 : :
8788 : : return value;
8789 : : }
8790 : :
8791 : : /* Subroutine of expand_expr: return true iff there is no way that
8792 : : EXP can reference X, which is being modified. TOP_P is nonzero if this
8793 : : call is going to be used to determine whether we need a temporary
8794 : : for EXP, as opposed to a recursive call to this function.
8795 : :
8796 : : It is always safe for this routine to return false since it merely
8797 : : searches for optimization opportunities. */
8798 : :
8799 : : bool
8800 : 7841059 : safe_from_p (const_rtx x, tree exp, int top_p)
8801 : : {
8802 : 7841061 : rtx exp_rtl = 0;
8803 : 7841061 : int i, nops;
8804 : :
8805 : 7841061 : if (x == 0
8806 : : /* If EXP has varying size, we MUST use a target since we currently
8807 : : have no way of allocating temporaries of variable size
8808 : : (except for arrays that have TYPE_ARRAY_MAX_SIZE set).
8809 : : So we assume here that something at a higher level has prevented a
8810 : : clash. This is somewhat bogus, but the best we can do. Only
8811 : : do this when X is BLKmode and when we are at the top level. */
8812 : 1874596 : || (top_p && TREE_TYPE (exp) != 0 && COMPLETE_TYPE_P (TREE_TYPE (exp))
8813 : 1749054 : && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) != INTEGER_CST
8814 : 0 : && (TREE_CODE (TREE_TYPE (exp)) != ARRAY_TYPE
8815 : 0 : || TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)) == NULL_TREE
8816 : 0 : || TREE_CODE (TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)))
8817 : : != INTEGER_CST)
8818 : 0 : && GET_MODE (x) == BLKmode)
8819 : : /* If X is in the outgoing argument area, it is always safe. */
8820 : 9715657 : || (MEM_P (x)
8821 : 171130 : && (XEXP (x, 0) == virtual_outgoing_args_rtx
8822 : 171130 : || (GET_CODE (XEXP (x, 0)) == PLUS
8823 : 122948 : && XEXP (XEXP (x, 0), 0) == virtual_outgoing_args_rtx))))
8824 : : return true;
8825 : :
8826 : : /* If this is a subreg of a hard register, declare it unsafe, otherwise,
8827 : : find the underlying pseudo. */
8828 : 1874596 : if (GET_CODE (x) == SUBREG)
8829 : : {
8830 : 0 : x = SUBREG_REG (x);
8831 : 0 : if (REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER)
8832 : : return false;
8833 : : }
8834 : :
8835 : : /* Now look at our tree code and possibly recurse. */
8836 : 1874596 : switch (TREE_CODE_CLASS (TREE_CODE (exp)))
8837 : : {
8838 : 368 : case tcc_declaration:
8839 : 368 : exp_rtl = DECL_RTL_IF_SET (exp);
8840 : 198 : break;
8841 : :
8842 : : case tcc_constant:
8843 : : return true;
8844 : :
8845 : 806586 : case tcc_exceptional:
8846 : 806586 : if (TREE_CODE (exp) == TREE_LIST)
8847 : : {
8848 : 0 : while (1)
8849 : : {
8850 : 0 : if (TREE_VALUE (exp) && !safe_from_p (x, TREE_VALUE (exp), 0))
8851 : : return false;
8852 : 0 : exp = TREE_CHAIN (exp);
8853 : 0 : if (!exp)
8854 : : return true;
8855 : 0 : if (TREE_CODE (exp) != TREE_LIST)
8856 : : return safe_from_p (x, exp, 0);
8857 : : }
8858 : : }
8859 : 806586 : else if (TREE_CODE (exp) == CONSTRUCTOR)
8860 : : {
8861 : : constructor_elt *ce;
8862 : : unsigned HOST_WIDE_INT idx;
8863 : :
8864 : 7188191 : FOR_EACH_VEC_SAFE_ELT (CONSTRUCTOR_ELTS (exp), idx, ce)
8865 : 3970 : if ((ce->index != NULL_TREE && !safe_from_p (x, ce->index, 0))
8866 : 125456 : || !safe_from_p (x, ce->value, 0))
8867 : 101009 : return false;
8868 : : return true;
8869 : : }
8870 : 674425 : else if (TREE_CODE (exp) == ERROR_MARK)
8871 : : return true; /* An already-visited SAVE_EXPR? */
8872 : : else
8873 : : return false;
8874 : :
8875 : 0 : case tcc_statement:
8876 : : /* The only case we look at here is the DECL_INITIAL inside a
8877 : : DECL_EXPR. */
8878 : 0 : return (TREE_CODE (exp) != DECL_EXPR
8879 : 0 : || TREE_CODE (DECL_EXPR_DECL (exp)) != VAR_DECL
8880 : 0 : || !DECL_INITIAL (DECL_EXPR_DECL (exp))
8881 : 0 : || safe_from_p (x, DECL_INITIAL (DECL_EXPR_DECL (exp)), 0));
8882 : :
8883 : 0 : case tcc_binary:
8884 : 0 : case tcc_comparison:
8885 : 0 : if (!safe_from_p (x, TREE_OPERAND (exp, 1), 0))
8886 : : return false;
8887 : : /* Fall through. */
8888 : :
8889 : 2 : case tcc_unary:
8890 : 2 : return safe_from_p (x, TREE_OPERAND (exp, 0), 0);
8891 : :
8892 : 199 : case tcc_expression:
8893 : 199 : case tcc_reference:
8894 : 199 : case tcc_vl_exp:
8895 : : /* Now do code-specific tests. EXP_RTL is set to any rtx we find in
8896 : : the expression. If it is set, we conflict iff we are that rtx or
8897 : : both are in memory. Otherwise, we check all operands of the
8898 : : expression recursively. */
8899 : :
8900 : 199 : switch (TREE_CODE (exp))
8901 : : {
8902 : 184 : case ADDR_EXPR:
8903 : : /* If the operand is static or we are static, we can't conflict.
8904 : : Likewise if we don't conflict with the operand at all. */
8905 : 184 : if (staticp (TREE_OPERAND (exp, 0))
8906 : 54 : || TREE_STATIC (exp)
8907 : 238 : || safe_from_p (x, TREE_OPERAND (exp, 0), 0))
8908 : 184 : return true;
8909 : :
8910 : : /* Otherwise, the only way this can conflict is if we are taking
8911 : : the address of a DECL a that address if part of X, which is
8912 : : very rare. */
8913 : 0 : exp = TREE_OPERAND (exp, 0);
8914 : 0 : if (DECL_P (exp))
8915 : : {
8916 : 0 : if (!DECL_RTL_SET_P (exp)
8917 : 0 : || !MEM_P (DECL_RTL (exp)))
8918 : 0 : return false;
8919 : : else
8920 : 0 : exp_rtl = XEXP (DECL_RTL (exp), 0);
8921 : : }
8922 : : break;
8923 : :
8924 : 0 : case MEM_REF:
8925 : 0 : if (MEM_P (x)
8926 : 0 : && alias_sets_conflict_p (MEM_ALIAS_SET (x),
8927 : : get_alias_set (exp)))
8928 : : return false;
8929 : : break;
8930 : :
8931 : 0 : case CALL_EXPR:
8932 : : /* Assume that the call will clobber all hard registers and
8933 : : all of memory. */
8934 : 0 : if ((REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER)
8935 : 0 : || MEM_P (x))
8936 : : return false;
8937 : : break;
8938 : :
8939 : 0 : case WITH_CLEANUP_EXPR:
8940 : 0 : case CLEANUP_POINT_EXPR:
8941 : : /* Lowered by gimplify.cc. */
8942 : 0 : gcc_unreachable ();
8943 : :
8944 : 0 : case SAVE_EXPR:
8945 : 0 : return safe_from_p (x, TREE_OPERAND (exp, 0), 0);
8946 : :
8947 : : default:
8948 : : break;
8949 : : }
8950 : :
8951 : : /* If we have an rtx, we do not need to scan our operands. */
8952 : 0 : if (exp_rtl)
8953 : : break;
8954 : :
8955 : 15 : nops = TREE_OPERAND_LENGTH (exp);
8956 : 79 : for (i = 0; i < nops; i++)
8957 : 49 : if (TREE_OPERAND (exp, i) != 0
8958 : 49 : && ! safe_from_p (x, TREE_OPERAND (exp, i), 0))
8959 : : return false;
8960 : :
8961 : : break;
8962 : :
8963 : 0 : case tcc_type:
8964 : : /* Should never get a type here. */
8965 : 0 : gcc_unreachable ();
8966 : : }
8967 : :
8968 : : /* If we have an rtl, find any enclosed object. Then see if we conflict
8969 : : with it. */
8970 : 213 : if (exp_rtl)
8971 : : {
8972 : 198 : if (GET_CODE (exp_rtl) == SUBREG)
8973 : : {
8974 : 0 : exp_rtl = SUBREG_REG (exp_rtl);
8975 : 0 : if (REG_P (exp_rtl)
8976 : 0 : && REGNO (exp_rtl) < FIRST_PSEUDO_REGISTER)
8977 : : return false;
8978 : : }
8979 : :
8980 : : /* If the rtl is X, then it is not safe. Otherwise, it is unless both
8981 : : are memory and they conflict. */
8982 : 198 : return ! (rtx_equal_p (x, exp_rtl)
8983 : 198 : || (MEM_P (x) && MEM_P (exp_rtl)
8984 : 2 : && true_dependence (exp_rtl, VOIDmode, x)));
8985 : : }
8986 : :
8987 : : /* If we reach here, it is safe. */
8988 : : return true;
8989 : : }
8990 : :
8991 : :
8992 : : /* Return the highest power of two that EXP is known to be a multiple of.
8993 : : This is used in updating alignment of MEMs in array references. */
8994 : :
8995 : : unsigned HOST_WIDE_INT
8996 : 29987402 : highest_pow2_factor (const_tree exp)
8997 : : {
8998 : 29987402 : unsigned HOST_WIDE_INT ret;
8999 : 29987402 : int trailing_zeros = tree_ctz (exp);
9000 : 29987402 : if (trailing_zeros >= HOST_BITS_PER_WIDE_INT)
9001 : 40514221 : return BIGGEST_ALIGNMENT;
9002 : 9406976 : ret = HOST_WIDE_INT_1U << trailing_zeros;
9003 : 18370658 : if (ret > BIGGEST_ALIGNMENT)
9004 : 12696827 : return BIGGEST_ALIGNMENT;
9005 : : return ret;
9006 : : }
9007 : :
9008 : : /* Similar, except that the alignment requirements of TARGET are
9009 : : taken into account. Assume it is at least as aligned as its
9010 : : type, unless it is a COMPONENT_REF in which case the layout of
9011 : : the structure gives the alignment. */
9012 : :
9013 : : static unsigned HOST_WIDE_INT
9014 : 173742 : highest_pow2_factor_for_target (const_tree target, const_tree exp)
9015 : : {
9016 : 173742 : unsigned HOST_WIDE_INT talign = target_align (target) / BITS_PER_UNIT;
9017 : 173742 : unsigned HOST_WIDE_INT factor = highest_pow2_factor (exp);
9018 : :
9019 : 173742 : return MAX (factor, talign);
9020 : : }
9021 : :
9022 : : /* Convert the tree comparison code TCODE to the rtl one where the
9023 : : signedness is UNSIGNEDP. */
9024 : :
9025 : : static enum rtx_code
9026 : 13562 : convert_tree_comp_to_rtx (enum tree_code tcode, int unsignedp)
9027 : : {
9028 : 13562 : enum rtx_code code;
9029 : 13562 : switch (tcode)
9030 : : {
9031 : : case EQ_EXPR:
9032 : : code = EQ;
9033 : : break;
9034 : 721 : case NE_EXPR:
9035 : 721 : code = NE;
9036 : 721 : break;
9037 : 3195 : case LT_EXPR:
9038 : 3195 : code = unsignedp ? LTU : LT;
9039 : : break;
9040 : 1413 : case LE_EXPR:
9041 : 1413 : code = unsignedp ? LEU : LE;
9042 : : break;
9043 : 1852 : case GT_EXPR:
9044 : 1852 : code = unsignedp ? GTU : GT;
9045 : : break;
9046 : 3494 : case GE_EXPR:
9047 : 3494 : code = unsignedp ? GEU : GE;
9048 : : break;
9049 : 4 : case UNORDERED_EXPR:
9050 : 4 : code = UNORDERED;
9051 : 4 : break;
9052 : 0 : case ORDERED_EXPR:
9053 : 0 : code = ORDERED;
9054 : 0 : break;
9055 : 0 : case UNLT_EXPR:
9056 : 0 : code = UNLT;
9057 : 0 : break;
9058 : 0 : case UNLE_EXPR:
9059 : 0 : code = UNLE;
9060 : 0 : break;
9061 : 0 : case UNGT_EXPR:
9062 : 0 : code = UNGT;
9063 : 0 : break;
9064 : 0 : case UNGE_EXPR:
9065 : 0 : code = UNGE;
9066 : 0 : break;
9067 : 0 : case UNEQ_EXPR:
9068 : 0 : code = UNEQ;
9069 : 0 : break;
9070 : 0 : case LTGT_EXPR:
9071 : 0 : code = LTGT;
9072 : 0 : break;
9073 : :
9074 : 0 : default:
9075 : 0 : gcc_unreachable ();
9076 : : }
9077 : 13562 : return code;
9078 : : }
9079 : :
9080 : : /* Subroutine of expand_expr. Expand the two operands of a binary
9081 : : expression EXP0 and EXP1 placing the results in OP0 and OP1.
9082 : : The value may be stored in TARGET if TARGET is nonzero. The
9083 : : MODIFIER argument is as documented by expand_expr. */
9084 : :
9085 : : void
9086 : 7305335 : expand_operands (tree exp0, tree exp1, rtx target, rtx *op0, rtx *op1,
9087 : : enum expand_modifier modifier)
9088 : : {
9089 : 7305335 : if (! safe_from_p (target, exp1, 1))
9090 : 556946 : target = 0;
9091 : 7305335 : if (operand_equal_p (exp0, exp1, 0))
9092 : : {
9093 : 31076 : *op0 = expand_expr (exp0, target, VOIDmode, modifier);
9094 : 31076 : *op1 = copy_rtx (*op0);
9095 : : }
9096 : : else
9097 : : {
9098 : 7274259 : *op0 = expand_expr (exp0, target, VOIDmode, modifier);
9099 : 7274259 : *op1 = expand_expr (exp1, NULL_RTX, VOIDmode, modifier);
9100 : : }
9101 : 7305335 : }
9102 : :
9103 : :
9104 : : /* Return a MEM that contains constant EXP. DEFER is as for
9105 : : output_constant_def and MODIFIER is as for expand_expr. */
9106 : :
9107 : : static rtx
9108 : 2729176 : expand_expr_constant (tree exp, int defer, enum expand_modifier modifier)
9109 : : {
9110 : 2729176 : rtx mem;
9111 : :
9112 : 2729176 : mem = output_constant_def (exp, defer);
9113 : 2729176 : if (modifier != EXPAND_INITIALIZER)
9114 : 1719022 : mem = use_anchored_address (mem);
9115 : 2729176 : return mem;
9116 : : }
9117 : :
9118 : : /* A subroutine of expand_expr_addr_expr. Evaluate the address of EXP.
9119 : : The TARGET, TMODE and MODIFIER arguments are as for expand_expr. */
9120 : :
9121 : : static rtx
9122 : 13526373 : expand_expr_addr_expr_1 (tree exp, rtx target, scalar_int_mode tmode,
9123 : : enum expand_modifier modifier, addr_space_t as)
9124 : : {
9125 : 13526373 : rtx result, subtarget;
9126 : 13526373 : tree inner, offset;
9127 : 13526373 : poly_int64 bitsize, bitpos;
9128 : 13526373 : int unsignedp, reversep, volatilep = 0;
9129 : 13526373 : machine_mode mode1;
9130 : :
9131 : : /* If we are taking the address of a constant and are at the top level,
9132 : : we have to use output_constant_def since we can't call force_const_mem
9133 : : at top level. */
9134 : : /* ??? This should be considered a front-end bug. We should not be
9135 : : generating ADDR_EXPR of something that isn't an LVALUE. The only
9136 : : exception here is STRING_CST. */
9137 : 13526373 : if (CONSTANT_CLASS_P (exp))
9138 : : {
9139 : 2514339 : result = XEXP (expand_expr_constant (exp, 0, modifier), 0);
9140 : 2514339 : if (modifier < EXPAND_SUM)
9141 : 1632648 : result = force_operand (result, target);
9142 : 2514339 : return result;
9143 : : }
9144 : :
9145 : : /* Everything must be something allowed by is_gimple_addressable. */
9146 : 11012034 : switch (TREE_CODE (exp))
9147 : : {
9148 : 36 : case INDIRECT_REF:
9149 : : /* This case will happen via recursion for &a->b. */
9150 : 36 : return expand_expr (TREE_OPERAND (exp, 0), target, tmode, modifier);
9151 : :
9152 : 552203 : case MEM_REF:
9153 : 552203 : {
9154 : 552203 : tree tem = TREE_OPERAND (exp, 0);
9155 : 552203 : if (!integer_zerop (TREE_OPERAND (exp, 1)))
9156 : 289481 : tem = fold_build_pointer_plus (tem, TREE_OPERAND (exp, 1));
9157 : 552203 : return expand_expr (tem, target, tmode, modifier);
9158 : : }
9159 : :
9160 : 1108 : case TARGET_MEM_REF:
9161 : 1108 : return addr_for_mem_ref (exp, as, true);
9162 : :
9163 : 59441 : case CONST_DECL:
9164 : : /* Expand the initializer like constants above. */
9165 : 59441 : result = XEXP (expand_expr_constant (DECL_INITIAL (exp),
9166 : : 0, modifier), 0);
9167 : 59441 : if (modifier < EXPAND_SUM)
9168 : 59435 : result = force_operand (result, target);
9169 : : return result;
9170 : :
9171 : 139 : case REALPART_EXPR:
9172 : : /* The real part of the complex number is always first, therefore
9173 : : the address is the same as the address of the parent object. */
9174 : 139 : offset = 0;
9175 : 139 : bitpos = 0;
9176 : 139 : inner = TREE_OPERAND (exp, 0);
9177 : 139 : break;
9178 : :
9179 : 52 : case IMAGPART_EXPR:
9180 : : /* The imaginary part of the complex number is always second.
9181 : : The expression is therefore always offset by the size of the
9182 : : scalar type. */
9183 : 52 : offset = 0;
9184 : 104 : bitpos = GET_MODE_BITSIZE (SCALAR_TYPE_MODE (TREE_TYPE (exp)));
9185 : 52 : inner = TREE_OPERAND (exp, 0);
9186 : 52 : break;
9187 : :
9188 : 13 : case COMPOUND_LITERAL_EXPR:
9189 : : /* Allow COMPOUND_LITERAL_EXPR in initializers or coming from
9190 : : initializers, if e.g. rtl_for_decl_init is called on DECL_INITIAL
9191 : : with COMPOUND_LITERAL_EXPRs in it, or ARRAY_REF on a const static
9192 : : array with address of COMPOUND_LITERAL_EXPR in DECL_INITIAL;
9193 : : the initializers aren't gimplified. */
9194 : 13 : if (COMPOUND_LITERAL_EXPR_DECL (exp)
9195 : 13 : && is_global_var (COMPOUND_LITERAL_EXPR_DECL (exp)))
9196 : 13 : return expand_expr_addr_expr_1 (COMPOUND_LITERAL_EXPR_DECL (exp),
9197 : 13 : target, tmode, modifier, as);
9198 : : /* FALLTHRU */
9199 : 10399042 : default:
9200 : : /* If the object is a DECL, then expand it for its rtl. Don't bypass
9201 : : expand_expr, as that can have various side effects; LABEL_DECLs for
9202 : : example, may not have their DECL_RTL set yet. Expand the rtl of
9203 : : CONSTRUCTORs too, which should yield a memory reference for the
9204 : : constructor's contents. Assume language specific tree nodes can
9205 : : be expanded in some interesting way. */
9206 : 10399042 : gcc_assert (TREE_CODE (exp) < LAST_AND_UNUSED_TREE_CODE);
9207 : 10399042 : if (DECL_P (exp)
9208 : 1233442 : || TREE_CODE (exp) == CONSTRUCTOR
9209 : 1233442 : || TREE_CODE (exp) == COMPOUND_LITERAL_EXPR)
9210 : : {
9211 : 14849780 : result = expand_expr (exp, target, tmode,
9212 : : modifier == EXPAND_INITIALIZER
9213 : : ? EXPAND_INITIALIZER : EXPAND_CONST_ADDRESS);
9214 : :
9215 : : /* If the DECL isn't in memory, then the DECL wasn't properly
9216 : : marked TREE_ADDRESSABLE, which will be either a front-end
9217 : : or a tree optimizer bug. */
9218 : :
9219 : 9165600 : gcc_assert (MEM_P (result));
9220 : 9165600 : result = XEXP (result, 0);
9221 : :
9222 : : /* ??? Is this needed anymore? */
9223 : 9165600 : if (DECL_P (exp))
9224 : 9165600 : TREE_USED (exp) = 1;
9225 : :
9226 : 9165600 : if (modifier != EXPAND_INITIALIZER
9227 : : && modifier != EXPAND_CONST_ADDRESS
9228 : 9165600 : && modifier != EXPAND_SUM)
9229 : 4025141 : result = force_operand (result, target);
9230 : 9165600 : return result;
9231 : : }
9232 : :
9233 : : /* Pass FALSE as the last argument to get_inner_reference although
9234 : : we are expanding to RTL. The rationale is that we know how to
9235 : : handle "aligning nodes" here: we can just bypass them because
9236 : : they won't change the final object whose address will be returned
9237 : : (they actually exist only for that purpose). */
9238 : 1233442 : inner = get_inner_reference (exp, &bitsize, &bitpos, &offset, &mode1,
9239 : : &unsignedp, &reversep, &volatilep);
9240 : 1233442 : break;
9241 : : }
9242 : :
9243 : : /* We must have made progress. */
9244 : 1233633 : gcc_assert (inner != exp);
9245 : :
9246 : 1233633 : subtarget = offset || maybe_ne (bitpos, 0) ? NULL_RTX : target;
9247 : : /* For VIEW_CONVERT_EXPR, where the outer alignment is bigger than
9248 : : inner alignment, force the inner to be sufficiently aligned. */
9249 : 1233633 : if (CONSTANT_CLASS_P (inner)
9250 : 1233633 : && TYPE_ALIGN (TREE_TYPE (inner)) < TYPE_ALIGN (TREE_TYPE (exp)))
9251 : : {
9252 : 0 : inner = copy_node (inner);
9253 : 0 : TREE_TYPE (inner) = copy_node (TREE_TYPE (inner));
9254 : 0 : SET_TYPE_ALIGN (TREE_TYPE (inner), TYPE_ALIGN (TREE_TYPE (exp)));
9255 : 0 : TYPE_USER_ALIGN (TREE_TYPE (inner)) = 1;
9256 : : }
9257 : 1233633 : result = expand_expr_addr_expr_1 (inner, subtarget, tmode, modifier, as);
9258 : :
9259 : 1233633 : if (offset)
9260 : : {
9261 : 43935 : rtx tmp;
9262 : :
9263 : 43935 : if (modifier != EXPAND_NORMAL)
9264 : 1952 : result = force_operand (result, NULL);
9265 : 45887 : tmp = expand_expr (offset, NULL_RTX, tmode,
9266 : : modifier == EXPAND_INITIALIZER
9267 : : ? EXPAND_INITIALIZER : EXPAND_NORMAL);
9268 : :
9269 : : /* expand_expr is allowed to return an object in a mode other
9270 : : than TMODE. If it did, we need to convert. */
9271 : 43935 : if (GET_MODE (tmp) != VOIDmode && tmode != GET_MODE (tmp))
9272 : 0 : tmp = convert_modes (tmode, GET_MODE (tmp),
9273 : 0 : tmp, TYPE_UNSIGNED (TREE_TYPE (offset)));
9274 : 43935 : result = convert_memory_address_addr_space (tmode, result, as);
9275 : 43935 : tmp = convert_memory_address_addr_space (tmode, tmp, as);
9276 : :
9277 : 43935 : if (modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
9278 : 1952 : result = simplify_gen_binary (PLUS, tmode, result, tmp);
9279 : : else
9280 : : {
9281 : 41983 : subtarget = maybe_ne (bitpos, 0) ? NULL_RTX : target;
9282 : 41983 : result = expand_simple_binop (tmode, PLUS, result, tmp, subtarget,
9283 : : 1, OPTAB_LIB_WIDEN);
9284 : : }
9285 : : }
9286 : :
9287 : 1233633 : if (maybe_ne (bitpos, 0))
9288 : : {
9289 : : /* Someone beforehand should have rejected taking the address
9290 : : of an object that isn't byte-aligned. */
9291 : 605060 : poly_int64 bytepos = exact_div (bitpos, BITS_PER_UNIT);
9292 : 605060 : result = convert_memory_address_addr_space (tmode, result, as);
9293 : 605060 : result = plus_constant (tmode, result, bytepos);
9294 : 605060 : if (modifier < EXPAND_SUM)
9295 : 570780 : result = force_operand (result, target);
9296 : : }
9297 : :
9298 : : return result;
9299 : : }
9300 : :
9301 : : /* A subroutine of expand_expr. Evaluate EXP, which is an ADDR_EXPR.
9302 : : The TARGET, TMODE and MODIFIER arguments are as for expand_expr. */
9303 : :
9304 : : static rtx
9305 : 12292725 : expand_expr_addr_expr (tree exp, rtx target, machine_mode tmode,
9306 : : enum expand_modifier modifier)
9307 : : {
9308 : 12292725 : addr_space_t as = ADDR_SPACE_GENERIC;
9309 : 12292725 : scalar_int_mode address_mode = Pmode;
9310 : 12292725 : scalar_int_mode pointer_mode = ptr_mode;
9311 : 12292725 : machine_mode rmode;
9312 : 12292725 : rtx result;
9313 : :
9314 : : /* Target mode of VOIDmode says "whatever's natural". */
9315 : 12292725 : if (tmode == VOIDmode)
9316 : 10466879 : tmode = TYPE_MODE (TREE_TYPE (exp));
9317 : :
9318 : 12292725 : if (POINTER_TYPE_P (TREE_TYPE (exp)))
9319 : : {
9320 : 12292725 : as = TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (exp)));
9321 : 12292725 : address_mode = targetm.addr_space.address_mode (as);
9322 : 12292725 : pointer_mode = targetm.addr_space.pointer_mode (as);
9323 : : }
9324 : :
9325 : : /* We can get called with some Weird Things if the user does silliness
9326 : : like "(short) &a". In that case, convert_memory_address won't do
9327 : : the right thing, so ignore the given target mode. */
9328 : 12292725 : scalar_int_mode new_tmode = (tmode == pointer_mode
9329 : 12292725 : ? pointer_mode
9330 : 12292725 : : address_mode);
9331 : :
9332 : 12292725 : result = expand_expr_addr_expr_1 (TREE_OPERAND (exp, 0), target,
9333 : : new_tmode, modifier, as);
9334 : :
9335 : : /* Despite expand_expr claims concerning ignoring TMODE when not
9336 : : strictly convenient, stuff breaks if we don't honor it. Note
9337 : : that combined with the above, we only do this for pointer modes. */
9338 : 12292725 : rmode = GET_MODE (result);
9339 : 12292725 : if (rmode == VOIDmode)
9340 : 6 : rmode = new_tmode;
9341 : 12292725 : if (rmode != new_tmode)
9342 : 75 : result = convert_memory_address_addr_space (new_tmode, result, as);
9343 : :
9344 : 12292725 : return result;
9345 : : }
9346 : :
9347 : : /* Generate code for computing CONSTRUCTOR EXP.
9348 : : An rtx for the computed value is returned. If AVOID_TEMP_MEM
9349 : : is TRUE, instead of creating a temporary variable in memory
9350 : : NULL is returned and the caller needs to handle it differently. */
9351 : :
9352 : : static rtx
9353 : 180565 : expand_constructor (tree exp, rtx target, enum expand_modifier modifier,
9354 : : bool avoid_temp_mem)
9355 : : {
9356 : 180565 : tree type = TREE_TYPE (exp);
9357 : 180565 : machine_mode mode = TYPE_MODE (type);
9358 : :
9359 : : /* Try to avoid creating a temporary at all. This is possible
9360 : : if all of the initializer is zero.
9361 : : FIXME: try to handle all [0..255] initializers we can handle
9362 : : with memset. */
9363 : 180565 : if (TREE_STATIC (exp)
9364 : 180565 : && !TREE_ADDRESSABLE (exp)
9365 : 3640 : && target != 0 && mode == BLKmode
9366 : 183292 : && all_zeros_p (exp))
9367 : : {
9368 : 2722 : clear_storage (target, expr_size (exp), BLOCK_OP_NORMAL);
9369 : 2722 : return target;
9370 : : }
9371 : :
9372 : : /* All elts simple constants => refer to a constant in memory. But
9373 : : if this is a non-BLKmode mode, let it store a field at a time
9374 : : since that should make a CONST_INT, CONST_WIDE_INT or
9375 : : CONST_DOUBLE when we fold. Likewise, if we have a target we can
9376 : : use, it is best to store directly into the target unless the type
9377 : : is large enough that memcpy will be used. If we are making an
9378 : : initializer and all operands are constant, put it in memory as
9379 : : well.
9380 : :
9381 : : FIXME: Avoid trying to fill vector constructors piece-meal.
9382 : : Output them with output_constant_def below unless we're sure
9383 : : they're zeros. This should go away when vector initializers
9384 : : are treated like VECTOR_CST instead of arrays. */
9385 : 177843 : if ((TREE_STATIC (exp)
9386 : 918 : && ((mode == BLKmode
9387 : 50 : && ! (target != 0 && safe_from_p (target, exp, 1)))
9388 : 873 : || TREE_ADDRESSABLE (exp)
9389 : 873 : || (tree_fits_uhwi_p (TYPE_SIZE_UNIT (type))
9390 : 873 : && (! can_move_by_pieces
9391 : 873 : (tree_to_uhwi (TYPE_SIZE_UNIT (type)),
9392 : 873 : TYPE_ALIGN (type)))
9393 : 2 : && ! mostly_zeros_p (exp))))
9394 : 178714 : || ((modifier == EXPAND_INITIALIZER || modifier == EXPAND_CONST_ADDRESS)
9395 : 0 : && TREE_CONSTANT (exp)))
9396 : : {
9397 : 47 : rtx constructor;
9398 : :
9399 : 47 : if (avoid_temp_mem)
9400 : : return NULL_RTX;
9401 : :
9402 : 45 : constructor = expand_expr_constant (exp, 1, modifier);
9403 : :
9404 : 45 : if (modifier != EXPAND_CONST_ADDRESS
9405 : : && modifier != EXPAND_INITIALIZER
9406 : 45 : && modifier != EXPAND_SUM)
9407 : 45 : constructor = validize_mem (constructor);
9408 : :
9409 : 45 : return constructor;
9410 : : }
9411 : :
9412 : : /* If the CTOR is available in static storage and not mostly
9413 : : zeros and we can move it by pieces prefer to do so since
9414 : : that's usually more efficient than performing a series of
9415 : : stores from immediates. */
9416 : 177796 : if (avoid_temp_mem
9417 : 64 : && TREE_STATIC (exp)
9418 : 36 : && TREE_CONSTANT (exp)
9419 : 36 : && tree_fits_uhwi_p (TYPE_SIZE_UNIT (type))
9420 : 36 : && can_move_by_pieces (tree_to_uhwi (TYPE_SIZE_UNIT (type)),
9421 : 36 : TYPE_ALIGN (type))
9422 : 177832 : && ! mostly_zeros_p (exp))
9423 : : return NULL_RTX;
9424 : :
9425 : : /* Handle calls that pass values in multiple non-contiguous
9426 : : locations. The Irix 6 ABI has examples of this. */
9427 : 132138 : if (target == 0 || ! safe_from_p (target, exp, 1)
9428 : 31129 : || GET_CODE (target) == PARALLEL || modifier == EXPAND_STACK_PARM
9429 : : /* Also make a temporary if the store is to volatile memory, to
9430 : : avoid individual accesses to aggregate members. */
9431 : 208885 : || (GET_CODE (target) == MEM
9432 : 27846 : && MEM_VOLATILE_P (target)
9433 : 132 : && !TREE_ADDRESSABLE (TREE_TYPE (exp))))
9434 : : {
9435 : 146773 : if (avoid_temp_mem)
9436 : : return NULL_RTX;
9437 : :
9438 : 146762 : target = assign_temp (type, TREE_ADDRESSABLE (exp), 1);
9439 : : }
9440 : :
9441 : 177755 : store_constructor (exp, target, 0, int_expr_size (exp), false);
9442 : 177755 : return target;
9443 : : }
9444 : :
9445 : :
9446 : : /* expand_expr: generate code for computing expression EXP.
9447 : : An rtx for the computed value is returned. The value is never null.
9448 : : In the case of a void EXP, const0_rtx is returned.
9449 : :
9450 : : The value may be stored in TARGET if TARGET is nonzero.
9451 : : TARGET is just a suggestion; callers must assume that
9452 : : the rtx returned may not be the same as TARGET.
9453 : :
9454 : : If TARGET is CONST0_RTX, it means that the value will be ignored.
9455 : :
9456 : : If TMODE is not VOIDmode, it suggests generating the
9457 : : result in mode TMODE. But this is done only when convenient.
9458 : : Otherwise, TMODE is ignored and the value generated in its natural mode.
9459 : : TMODE is just a suggestion; callers must assume that
9460 : : the rtx returned may not have mode TMODE.
9461 : :
9462 : : Note that TARGET may have neither TMODE nor MODE. In that case, it
9463 : : probably will not be used.
9464 : :
9465 : : If MODIFIER is EXPAND_SUM then when EXP is an addition
9466 : : we can return an rtx of the form (MULT (REG ...) (CONST_INT ...))
9467 : : or a nest of (PLUS ...) and (MINUS ...) where the terms are
9468 : : products as above, or REG or MEM, or constant.
9469 : : Ordinarily in such cases we would output mul or add instructions
9470 : : and then return a pseudo reg containing the sum.
9471 : :
9472 : : EXPAND_INITIALIZER is much like EXPAND_SUM except that
9473 : : it also marks a label as absolutely required (it can't be dead).
9474 : : It also makes a ZERO_EXTEND or SIGN_EXTEND instead of emitting extend insns.
9475 : : This is used for outputting expressions used in initializers.
9476 : :
9477 : : EXPAND_CONST_ADDRESS says that it is okay to return a MEM
9478 : : with a constant address even if that address is not normally legitimate.
9479 : : EXPAND_INITIALIZER and EXPAND_SUM also have this effect.
9480 : :
9481 : : EXPAND_STACK_PARM is used when expanding to a TARGET on the stack for
9482 : : a call parameter. Such targets require special care as we haven't yet
9483 : : marked TARGET so that it's safe from being trashed by libcalls. We
9484 : : don't want to use TARGET for anything but the final result;
9485 : : Intermediate values must go elsewhere. Additionally, calls to
9486 : : emit_block_move will be flagged with BLOCK_OP_CALL_PARM.
9487 : :
9488 : : If EXP is a VAR_DECL whose DECL_RTL was a MEM with an invalid
9489 : : address, and ALT_RTL is non-NULL, then *ALT_RTL is set to the
9490 : : DECL_RTL of the VAR_DECL. *ALT_RTL is also set if EXP is a
9491 : : COMPOUND_EXPR whose second argument is such a VAR_DECL, and so on
9492 : : recursively.
9493 : : If the result can be stored at TARGET, and ALT_RTL is non-NULL,
9494 : : then *ALT_RTL is set to TARGET (before legitimziation).
9495 : :
9496 : : If INNER_REFERENCE_P is true, we are expanding an inner reference.
9497 : : In this case, we don't adjust a returned MEM rtx that wouldn't be
9498 : : sufficiently aligned for its mode; instead, it's up to the caller
9499 : : to deal with it afterwards. This is used to make sure that unaligned
9500 : : base objects for which out-of-bounds accesses are supported, for
9501 : : example record types with trailing arrays, aren't realigned behind
9502 : : the back of the caller.
9503 : : The normal operating mode is to pass FALSE for this parameter. */
9504 : :
9505 : : rtx
9506 : 145814389 : expand_expr_real (tree exp, rtx target, machine_mode tmode,
9507 : : enum expand_modifier modifier, rtx *alt_rtl,
9508 : : bool inner_reference_p)
9509 : : {
9510 : 145814389 : rtx ret;
9511 : :
9512 : : /* Handle ERROR_MARK before anybody tries to access its type. */
9513 : 145814389 : if (TREE_CODE (exp) == ERROR_MARK
9514 : 145814389 : || (TREE_CODE (TREE_TYPE (exp)) == ERROR_MARK))
9515 : : {
9516 : 0 : ret = CONST0_RTX (tmode);
9517 : 0 : return ret ? ret : const0_rtx;
9518 : : }
9519 : :
9520 : 145814389 : ret = expand_expr_real_1 (exp, target, tmode, modifier, alt_rtl,
9521 : : inner_reference_p);
9522 : 145814389 : return ret;
9523 : : }
9524 : :
9525 : : /* Try to expand the conditional expression which is represented by
9526 : : TREEOP0 ? TREEOP1 : TREEOP2 using conditonal moves. If it succeeds
9527 : : return the rtl reg which represents the result. Otherwise return
9528 : : NULL_RTX. */
9529 : :
9530 : : static rtx
9531 : 16915 : expand_cond_expr_using_cmove (tree treeop0 ATTRIBUTE_UNUSED,
9532 : : tree treeop1 ATTRIBUTE_UNUSED,
9533 : : tree treeop2 ATTRIBUTE_UNUSED)
9534 : : {
9535 : 16915 : rtx insn;
9536 : 16915 : rtx op00, op01, op1, op2;
9537 : 16915 : enum rtx_code comparison_code;
9538 : 16915 : machine_mode comparison_mode;
9539 : 16915 : gimple *srcstmt;
9540 : 16915 : rtx temp;
9541 : 16915 : tree type = TREE_TYPE (treeop1);
9542 : 16915 : int unsignedp = TYPE_UNSIGNED (type);
9543 : 16915 : machine_mode mode = TYPE_MODE (type);
9544 : 16915 : machine_mode orig_mode = mode;
9545 : 16915 : static bool expanding_cond_expr_using_cmove = false;
9546 : :
9547 : : /* Conditional move expansion can end up TERing two operands which,
9548 : : when recursively hitting conditional expressions can result in
9549 : : exponential behavior if the cmove expansion ultimatively fails.
9550 : : It's hardly profitable to TER a cmove into a cmove so avoid doing
9551 : : that by failing early if we end up recursing. */
9552 : 16915 : if (expanding_cond_expr_using_cmove)
9553 : : return NULL_RTX;
9554 : :
9555 : : /* If we cannot do a conditional move on the mode, try doing it
9556 : : with the promoted mode. */
9557 : 15958 : if (!can_conditionally_move_p (mode))
9558 : : {
9559 : 145 : mode = promote_mode (type, mode, &unsignedp);
9560 : 145 : if (!can_conditionally_move_p (mode))
9561 : : return NULL_RTX;
9562 : 0 : temp = assign_temp (type, 0, 0); /* Use promoted mode for temp. */
9563 : : }
9564 : : else
9565 : 15813 : temp = assign_temp (type, 0, 1);
9566 : :
9567 : 15813 : expanding_cond_expr_using_cmove = true;
9568 : 15813 : start_sequence ();
9569 : 15813 : expand_operands (treeop1, treeop2,
9570 : : mode == orig_mode ? temp : NULL_RTX, &op1, &op2,
9571 : : EXPAND_NORMAL);
9572 : :
9573 : 15813 : if (TREE_CODE (treeop0) == SSA_NAME
9574 : 15784 : && (srcstmt = get_def_for_expr_class (treeop0, tcc_comparison))
9575 : 29349 : && !VECTOR_TYPE_P (TREE_TYPE (gimple_assign_rhs1 (srcstmt))))
9576 : : {
9577 : 13533 : type = TREE_TYPE (gimple_assign_rhs1 (srcstmt));
9578 : 13533 : enum tree_code cmpcode = gimple_assign_rhs_code (srcstmt);
9579 : 13533 : op00 = expand_normal (gimple_assign_rhs1 (srcstmt));
9580 : 13533 : op01 = expand_normal (gimple_assign_rhs2 (srcstmt));
9581 : 13533 : comparison_mode = TYPE_MODE (type);
9582 : 13533 : unsignedp = TYPE_UNSIGNED (type);
9583 : 13533 : comparison_code = convert_tree_comp_to_rtx (cmpcode, unsignedp);
9584 : : }
9585 : 2280 : else if (COMPARISON_CLASS_P (treeop0)
9586 : 2280 : && !VECTOR_TYPE_P (TREE_TYPE (TREE_OPERAND (treeop0, 0))))
9587 : : {
9588 : 29 : type = TREE_TYPE (TREE_OPERAND (treeop0, 0));
9589 : 29 : enum tree_code cmpcode = TREE_CODE (treeop0);
9590 : 29 : op00 = expand_normal (TREE_OPERAND (treeop0, 0));
9591 : 29 : op01 = expand_normal (TREE_OPERAND (treeop0, 1));
9592 : 29 : unsignedp = TYPE_UNSIGNED (type);
9593 : 29 : comparison_mode = TYPE_MODE (type);
9594 : 29 : comparison_code = convert_tree_comp_to_rtx (cmpcode, unsignedp);
9595 : : }
9596 : : else
9597 : : {
9598 : 2251 : op00 = expand_normal (treeop0);
9599 : 2251 : op01 = const0_rtx;
9600 : 2251 : comparison_code = NE;
9601 : 2251 : comparison_mode = GET_MODE (op00);
9602 : 2251 : if (comparison_mode == VOIDmode)
9603 : 0 : comparison_mode = TYPE_MODE (TREE_TYPE (treeop0));
9604 : : }
9605 : 15813 : expanding_cond_expr_using_cmove = false;
9606 : :
9607 : 15813 : if (GET_MODE (op1) != mode)
9608 : 1997 : op1 = gen_lowpart (mode, op1);
9609 : :
9610 : 15813 : if (GET_MODE (op2) != mode)
9611 : 8635 : op2 = gen_lowpart (mode, op2);
9612 : :
9613 : : /* Try to emit the conditional move. */
9614 : 15813 : insn = emit_conditional_move (temp,
9615 : : { comparison_code, op00, op01,
9616 : : comparison_mode },
9617 : : op1, op2, mode,
9618 : : unsignedp);
9619 : :
9620 : : /* If we could do the conditional move, emit the sequence,
9621 : : and return. */
9622 : 15813 : if (insn)
9623 : : {
9624 : 13363 : rtx_insn *seq = get_insns ();
9625 : 13363 : end_sequence ();
9626 : 13363 : emit_insn (seq);
9627 : 13363 : return convert_modes (orig_mode, mode, temp, 0);
9628 : : }
9629 : :
9630 : : /* Otherwise discard the sequence and fall back to code with
9631 : : branches. */
9632 : 2450 : end_sequence ();
9633 : 2450 : return NULL_RTX;
9634 : : }
9635 : :
9636 : : /* A helper function for expand_expr_real_2 to be used with a
9637 : : misaligned mem_ref TEMP. Assume an unsigned type if UNSIGNEDP
9638 : : is nonzero, with alignment ALIGN in bits.
9639 : : Store the value at TARGET if possible (if TARGET is nonzero).
9640 : : Regardless of TARGET, we return the rtx for where the value is placed.
9641 : : If the result can be stored at TARGET, and ALT_RTL is non-NULL,
9642 : : then *ALT_RTL is set to TARGET (before legitimziation). */
9643 : :
9644 : : static rtx
9645 : 182217 : expand_misaligned_mem_ref (rtx temp, machine_mode mode, int unsignedp,
9646 : : unsigned int align, rtx target, rtx *alt_rtl)
9647 : : {
9648 : 182217 : enum insn_code icode;
9649 : :
9650 : 182217 : if ((icode = optab_handler (movmisalign_optab, mode))
9651 : : != CODE_FOR_nothing)
9652 : : {
9653 : 118713 : class expand_operand ops[2];
9654 : :
9655 : : /* We've already validated the memory, and we're creating a
9656 : : new pseudo destination. The predicates really can't fail,
9657 : : nor can the generator. */
9658 : 118713 : create_output_operand (&ops[0], NULL_RTX, mode);
9659 : 118713 : create_fixed_operand (&ops[1], temp);
9660 : 118713 : expand_insn (icode, 2, ops);
9661 : 118713 : temp = ops[0].value;
9662 : : }
9663 : 63504 : else if (targetm.slow_unaligned_access (mode, align))
9664 : 0 : temp = extract_bit_field (temp, GET_MODE_BITSIZE (mode),
9665 : 0 : 0, unsignedp, target,
9666 : : mode, mode, false, alt_rtl);
9667 : 182217 : return temp;
9668 : : }
9669 : :
9670 : : /* Helper function of expand_expr_2, expand a division or modulo.
9671 : : op0 and op1 should be already expanded treeop0 and treeop1, using
9672 : : expand_operands. */
9673 : :
9674 : : static rtx
9675 : 141137 : expand_expr_divmod (tree_code code, machine_mode mode, tree treeop0,
9676 : : tree treeop1, rtx op0, rtx op1, rtx target, int unsignedp)
9677 : : {
9678 : 282274 : bool mod_p = (code == TRUNC_MOD_EXPR || code == FLOOR_MOD_EXPR
9679 : 141137 : || code == CEIL_MOD_EXPR || code == ROUND_MOD_EXPR);
9680 : 141137 : if (SCALAR_INT_MODE_P (mode)
9681 : 141137 : && optimize >= 2
9682 : 114119 : && get_range_pos_neg (treeop0) == 1
9683 : 170591 : && get_range_pos_neg (treeop1) == 1)
9684 : : {
9685 : : /* If both arguments are known to be positive when interpreted
9686 : : as signed, we can expand it as both signed and unsigned
9687 : : division or modulo. Choose the cheaper sequence in that case. */
9688 : 17486 : bool speed_p = optimize_insn_for_speed_p ();
9689 : 17486 : do_pending_stack_adjust ();
9690 : 17486 : start_sequence ();
9691 : 17486 : rtx uns_ret = expand_divmod (mod_p, code, mode, op0, op1, target, 1);
9692 : 17486 : rtx_insn *uns_insns = get_insns ();
9693 : 17486 : end_sequence ();
9694 : 17486 : start_sequence ();
9695 : 17486 : rtx sgn_ret = expand_divmod (mod_p, code, mode, op0, op1, target, 0);
9696 : 17486 : rtx_insn *sgn_insns = get_insns ();
9697 : 17486 : end_sequence ();
9698 : 17486 : unsigned uns_cost = seq_cost (uns_insns, speed_p);
9699 : 17486 : unsigned sgn_cost = seq_cost (sgn_insns, speed_p);
9700 : 17486 : bool was_tie = false;
9701 : :
9702 : : /* If costs are the same then use as tie breaker the other other
9703 : : factor. */
9704 : 17486 : if (uns_cost == sgn_cost)
9705 : : {
9706 : 5613 : uns_cost = seq_cost (uns_insns, !speed_p);
9707 : 5613 : sgn_cost = seq_cost (sgn_insns, !speed_p);
9708 : 5613 : was_tie = true;
9709 : : }
9710 : :
9711 : 17486 : if (dump_file && (dump_flags & TDF_DETAILS))
9712 : 0 : fprintf(dump_file, "positive division:%s unsigned cost: %u; "
9713 : : "signed cost: %u\n", was_tie ? "(needed tie breaker)" : "",
9714 : : uns_cost, sgn_cost);
9715 : :
9716 : 17486 : if (uns_cost < sgn_cost || (uns_cost == sgn_cost && unsignedp))
9717 : : {
9718 : 10933 : emit_insn (uns_insns);
9719 : 10933 : return uns_ret;
9720 : : }
9721 : 6553 : emit_insn (sgn_insns);
9722 : 6553 : return sgn_ret;
9723 : : }
9724 : 123651 : return expand_divmod (mod_p, code, mode, op0, op1, target, unsignedp);
9725 : : }
9726 : :
9727 : : rtx
9728 : 12252749 : expand_expr_real_2 (const_sepops ops, rtx target, machine_mode tmode,
9729 : : enum expand_modifier modifier)
9730 : : {
9731 : 12252749 : rtx op0, op1, op2, temp;
9732 : 12252749 : rtx_code_label *lab;
9733 : 12252749 : tree type;
9734 : 12252749 : int unsignedp;
9735 : 12252749 : machine_mode mode;
9736 : 12252749 : scalar_int_mode int_mode;
9737 : 12252749 : enum tree_code code = ops->code;
9738 : 12252749 : optab this_optab;
9739 : 12252749 : rtx subtarget, original_target;
9740 : 12252749 : int ignore;
9741 : 12252749 : bool reduce_bit_field;
9742 : 12252749 : location_t loc = ops->location;
9743 : 12252749 : tree treeop0, treeop1, treeop2;
9744 : : #define REDUCE_BIT_FIELD(expr) (reduce_bit_field \
9745 : : ? reduce_to_bit_field_precision ((expr), \
9746 : : target, \
9747 : : type) \
9748 : : : (expr))
9749 : :
9750 : 12252749 : type = ops->type;
9751 : 12252749 : mode = TYPE_MODE (type);
9752 : 12252749 : unsignedp = TYPE_UNSIGNED (type);
9753 : :
9754 : 12252749 : treeop0 = ops->op0;
9755 : 12252749 : treeop1 = ops->op1;
9756 : 12252749 : treeop2 = ops->op2;
9757 : :
9758 : : /* We should be called only on simple (binary or unary) expressions,
9759 : : exactly those that are valid in gimple expressions that aren't
9760 : : GIMPLE_SINGLE_RHS (or invalid). */
9761 : 12252749 : gcc_assert (get_gimple_rhs_class (code) == GIMPLE_UNARY_RHS
9762 : : || get_gimple_rhs_class (code) == GIMPLE_BINARY_RHS
9763 : : || get_gimple_rhs_class (code) == GIMPLE_TERNARY_RHS);
9764 : :
9765 : 24505498 : ignore = (target == const0_rtx
9766 : 12252749 : || ((CONVERT_EXPR_CODE_P (code)
9767 : 8709670 : || code == COND_EXPR || code == VIEW_CONVERT_EXPR)
9768 : 3559994 : && TREE_CODE (type) == VOID_TYPE));
9769 : :
9770 : : /* We should be called only if we need the result. */
9771 : 0 : gcc_assert (!ignore);
9772 : :
9773 : : /* An operation in what may be a bit-field type needs the
9774 : : result to be reduced to the precision of the bit-field type,
9775 : : which is narrower than that of the type's mode. */
9776 : 25153347 : reduce_bit_field = (INTEGRAL_TYPE_P (type)
9777 : 12252749 : && !type_has_mode_precision_p (type));
9778 : :
9779 : 647849 : if (reduce_bit_field
9780 : 647849 : && (modifier == EXPAND_STACK_PARM
9781 : 647335 : || (target && GET_MODE (target) != mode)))
9782 : 363987 : target = 0;
9783 : :
9784 : : /* Use subtarget as the target for operand 0 of a binary operation. */
9785 : 12252749 : subtarget = get_subtarget (target);
9786 : 12252749 : original_target = target;
9787 : :
9788 : 12252749 : switch (code)
9789 : : {
9790 : 3546360 : case NON_LVALUE_EXPR:
9791 : 3546360 : case PAREN_EXPR:
9792 : 3546360 : CASE_CONVERT:
9793 : 3546360 : if (treeop0 == error_mark_node)
9794 : 0 : return const0_rtx;
9795 : :
9796 : 3546360 : if (TREE_CODE (type) == UNION_TYPE)
9797 : : {
9798 : 0 : tree valtype = TREE_TYPE (treeop0);
9799 : :
9800 : : /* If both input and output are BLKmode, this conversion isn't doing
9801 : : anything except possibly changing memory attribute. */
9802 : 0 : if (mode == BLKmode && TYPE_MODE (valtype) == BLKmode)
9803 : : {
9804 : 0 : rtx result = expand_expr (treeop0, target, tmode,
9805 : : modifier);
9806 : :
9807 : 0 : result = copy_rtx (result);
9808 : 0 : set_mem_attributes (result, type, 0);
9809 : 0 : return result;
9810 : : }
9811 : :
9812 : 0 : if (target == 0)
9813 : : {
9814 : 0 : if (TYPE_MODE (type) != BLKmode)
9815 : 0 : target = gen_reg_rtx (TYPE_MODE (type));
9816 : : else
9817 : 0 : target = assign_temp (type, 1, 1);
9818 : : }
9819 : :
9820 : 0 : if (MEM_P (target))
9821 : : /* Store data into beginning of memory target. */
9822 : 0 : store_expr (treeop0,
9823 : 0 : adjust_address (target, TYPE_MODE (valtype), 0),
9824 : : modifier == EXPAND_STACK_PARM,
9825 : 0 : false, TYPE_REVERSE_STORAGE_ORDER (type));
9826 : :
9827 : : else
9828 : : {
9829 : 0 : gcc_assert (REG_P (target)
9830 : : && !TYPE_REVERSE_STORAGE_ORDER (type));
9831 : :
9832 : : /* Store this field into a union of the proper type. */
9833 : 0 : poly_uint64 op0_size
9834 : 0 : = tree_to_poly_uint64 (TYPE_SIZE (TREE_TYPE (treeop0)));
9835 : 0 : poly_uint64 union_size = GET_MODE_BITSIZE (mode);
9836 : 0 : store_field (target,
9837 : : /* The conversion must be constructed so that
9838 : : we know at compile time how many bits
9839 : : to preserve. */
9840 : 0 : ordered_min (op0_size, union_size),
9841 : 0 : 0, 0, 0, TYPE_MODE (valtype), treeop0, 0,
9842 : : false, false);
9843 : : }
9844 : :
9845 : : /* Return the entire union. */
9846 : 0 : return target;
9847 : : }
9848 : :
9849 : 3546360 : if (mode == TYPE_MODE (TREE_TYPE (treeop0)))
9850 : : {
9851 : 2035848 : op0 = expand_expr (treeop0, target, VOIDmode,
9852 : : modifier);
9853 : :
9854 : 2035848 : return REDUCE_BIT_FIELD (op0);
9855 : : }
9856 : :
9857 : 1861580 : op0 = expand_expr (treeop0, NULL_RTX, mode,
9858 : : modifier == EXPAND_SUM ? EXPAND_NORMAL : modifier);
9859 : 1510512 : if (GET_MODE (op0) == mode)
9860 : : ;
9861 : :
9862 : : /* If OP0 is a constant, just convert it into the proper mode. */
9863 : 1470678 : else if (CONSTANT_P (op0))
9864 : : {
9865 : 895 : tree inner_type = TREE_TYPE (treeop0);
9866 : 895 : machine_mode inner_mode = GET_MODE (op0);
9867 : :
9868 : 895 : if (inner_mode == VOIDmode)
9869 : 11 : inner_mode = TYPE_MODE (inner_type);
9870 : :
9871 : 895 : if (modifier == EXPAND_INITIALIZER)
9872 : 0 : op0 = force_lowpart_subreg (mode, op0, inner_mode);
9873 : : else
9874 : 895 : op0 = convert_modes (mode, inner_mode, op0,
9875 : 895 : TYPE_UNSIGNED (inner_type));
9876 : : }
9877 : :
9878 : 1469783 : else if (modifier == EXPAND_INITIALIZER)
9879 : 24 : op0 = gen_rtx_fmt_e (TYPE_UNSIGNED (TREE_TYPE (treeop0))
9880 : : ? ZERO_EXTEND : SIGN_EXTEND, mode, op0);
9881 : :
9882 : 1469771 : else if (target == 0)
9883 : 921978 : op0 = convert_to_mode (mode, op0,
9884 : 921978 : TYPE_UNSIGNED (TREE_TYPE
9885 : : (treeop0)));
9886 : : else
9887 : : {
9888 : 1095586 : convert_move (target, op0,
9889 : 547793 : TYPE_UNSIGNED (TREE_TYPE (treeop0)));
9890 : 547793 : op0 = target;
9891 : : }
9892 : :
9893 : 1510512 : return REDUCE_BIT_FIELD (op0);
9894 : :
9895 : 0 : case ADDR_SPACE_CONVERT_EXPR:
9896 : 0 : {
9897 : 0 : tree treeop0_type = TREE_TYPE (treeop0);
9898 : :
9899 : 0 : gcc_assert (POINTER_TYPE_P (type));
9900 : 0 : gcc_assert (POINTER_TYPE_P (treeop0_type));
9901 : :
9902 : 0 : addr_space_t as_to = TYPE_ADDR_SPACE (TREE_TYPE (type));
9903 : 0 : addr_space_t as_from = TYPE_ADDR_SPACE (TREE_TYPE (treeop0_type));
9904 : :
9905 : : /* Conversions between pointers to the same address space should
9906 : : have been implemented via CONVERT_EXPR / NOP_EXPR. */
9907 : 0 : gcc_assert (as_to != as_from);
9908 : :
9909 : 0 : op0 = expand_expr (treeop0, NULL_RTX, VOIDmode, modifier);
9910 : :
9911 : : /* Ask target code to handle conversion between pointers
9912 : : to overlapping address spaces. */
9913 : 0 : if (targetm.addr_space.subset_p (as_to, as_from)
9914 : 0 : || targetm.addr_space.subset_p (as_from, as_to))
9915 : : {
9916 : 0 : op0 = targetm.addr_space.convert (op0, treeop0_type, type);
9917 : : }
9918 : : else
9919 : : {
9920 : : /* For disjoint address spaces, converting anything but a null
9921 : : pointer invokes undefined behavior. We truncate or extend the
9922 : : value as if we'd converted via integers, which handles 0 as
9923 : : required, and all others as the programmer likely expects. */
9924 : : #ifndef POINTERS_EXTEND_UNSIGNED
9925 : : const int POINTERS_EXTEND_UNSIGNED = 1;
9926 : : #endif
9927 : 0 : op0 = convert_modes (mode, TYPE_MODE (treeop0_type),
9928 : : op0, POINTERS_EXTEND_UNSIGNED);
9929 : : }
9930 : 0 : gcc_assert (op0);
9931 : : return op0;
9932 : : }
9933 : :
9934 : 1297100 : case POINTER_PLUS_EXPR:
9935 : : /* Even though the sizetype mode and the pointer's mode can be different
9936 : : expand is able to handle this correctly and get the correct result out
9937 : : of the PLUS_EXPR code. */
9938 : : /* Make sure to sign-extend the sizetype offset in a POINTER_PLUS_EXPR
9939 : : if sizetype precision is smaller than pointer precision. */
9940 : 1297100 : if (TYPE_PRECISION (sizetype) < TYPE_PRECISION (type))
9941 : 0 : treeop1 = fold_convert_loc (loc, type,
9942 : : fold_convert_loc (loc, ssizetype,
9943 : : treeop1));
9944 : : /* If sizetype precision is larger than pointer precision, truncate the
9945 : : offset to have matching modes. */
9946 : 1297100 : else if (TYPE_PRECISION (sizetype) > TYPE_PRECISION (type))
9947 : 0 : treeop1 = fold_convert_loc (loc, type, treeop1);
9948 : : /* FALLTHRU */
9949 : :
9950 : 4906237 : case PLUS_EXPR:
9951 : : /* If we are adding a constant, a VAR_DECL that is sp, fp, or ap, and
9952 : : something else, make sure we add the register to the constant and
9953 : : then to the other thing. This case can occur during strength
9954 : : reduction and doing it this way will produce better code if the
9955 : : frame pointer or argument pointer is eliminated.
9956 : :
9957 : : fold-const.cc will ensure that the constant is always in the inner
9958 : : PLUS_EXPR, so the only case we need to do anything about is if
9959 : : sp, ap, or fp is our second argument, in which case we must swap
9960 : : the innermost first argument and our second argument. */
9961 : :
9962 : 4906237 : if (TREE_CODE (treeop0) == PLUS_EXPR
9963 : 6478 : && TREE_CODE (TREE_OPERAND (treeop0, 1)) == INTEGER_CST
9964 : 0 : && VAR_P (treeop1)
9965 : 4906237 : && (DECL_RTL (treeop1) == frame_pointer_rtx
9966 : 0 : || DECL_RTL (treeop1) == stack_pointer_rtx
9967 : 0 : || DECL_RTL (treeop1) == arg_pointer_rtx))
9968 : : {
9969 : 0 : gcc_unreachable ();
9970 : : }
9971 : :
9972 : : /* If the result is to be ptr_mode and we are adding an integer to
9973 : : something, we might be forming a constant. So try to use
9974 : : plus_constant. If it produces a sum and we can't accept it,
9975 : : use force_operand. This allows P = &ARR[const] to generate
9976 : : efficient code on machines where a SYMBOL_REF is not a valid
9977 : : address.
9978 : :
9979 : : If this is an EXPAND_SUM call, always return the sum. */
9980 : 4906237 : if (modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER
9981 : 4906237 : || (mode == ptr_mode && (unsignedp || ! flag_trapv)))
9982 : : {
9983 : 3165726 : if (modifier == EXPAND_STACK_PARM)
9984 : 18695 : target = 0;
9985 : 3165726 : if (TREE_CODE (treeop0) == INTEGER_CST
9986 : 3166733 : && HWI_COMPUTABLE_MODE_P (mode)
9987 : 3166737 : && TREE_CONSTANT (treeop1))
9988 : : {
9989 : 4 : rtx constant_part;
9990 : 4 : HOST_WIDE_INT wc;
9991 : 4 : machine_mode wmode = TYPE_MODE (TREE_TYPE (treeop1));
9992 : :
9993 : 4 : op1 = expand_expr (treeop1, subtarget, VOIDmode,
9994 : : EXPAND_SUM);
9995 : : /* Use wi::shwi to ensure that the constant is
9996 : : truncated according to the mode of OP1, then sign extended
9997 : : to a HOST_WIDE_INT. Using the constant directly can result
9998 : : in non-canonical RTL in a 64x32 cross compile. */
9999 : 4 : wc = TREE_INT_CST_LOW (treeop0);
10000 : 4 : constant_part =
10001 : 4 : immed_wide_int_const (wi::shwi (wc, wmode), wmode);
10002 : 4 : op1 = plus_constant (mode, op1, INTVAL (constant_part));
10003 : 4 : if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
10004 : 1 : op1 = force_operand (op1, target);
10005 : 4 : return REDUCE_BIT_FIELD (op1);
10006 : : }
10007 : :
10008 : 3165722 : else if (TREE_CODE (treeop1) == INTEGER_CST
10009 : 6778825 : && HWI_COMPUTABLE_MODE_P (mode)
10010 : 5304573 : && TREE_CONSTANT (treeop0))
10011 : : {
10012 : 266259 : rtx constant_part;
10013 : 266259 : HOST_WIDE_INT wc;
10014 : 266259 : machine_mode wmode = TYPE_MODE (TREE_TYPE (treeop0));
10015 : :
10016 : 465121 : op0 = expand_expr (treeop0, subtarget, VOIDmode,
10017 : : (modifier == EXPAND_INITIALIZER
10018 : : ? EXPAND_INITIALIZER : EXPAND_SUM));
10019 : 266259 : if (! CONSTANT_P (op0))
10020 : : {
10021 : 6 : op1 = expand_expr (treeop1, NULL_RTX,
10022 : : VOIDmode, modifier);
10023 : : /* Return a PLUS if modifier says it's OK. */
10024 : 6 : if (modifier == EXPAND_SUM
10025 : : || modifier == EXPAND_INITIALIZER)
10026 : 6 : return simplify_gen_binary (PLUS, mode, op0, op1);
10027 : 0 : goto binop2;
10028 : : }
10029 : : /* Use wi::shwi to ensure that the constant is
10030 : : truncated according to the mode of OP1, then sign extended
10031 : : to a HOST_WIDE_INT. Using the constant directly can result
10032 : : in non-canonical RTL in a 64x32 cross compile. */
10033 : 266253 : wc = TREE_INT_CST_LOW (treeop1);
10034 : 266253 : constant_part
10035 : 266253 : = immed_wide_int_const (wi::shwi (wc, wmode), wmode);
10036 : 266253 : op0 = plus_constant (mode, op0, INTVAL (constant_part));
10037 : 266253 : if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
10038 : 198064 : op0 = force_operand (op0, target);
10039 : 266253 : return REDUCE_BIT_FIELD (op0);
10040 : : }
10041 : : }
10042 : :
10043 : : /* Use TER to expand pointer addition of a negated value
10044 : : as pointer subtraction. */
10045 : 8268752 : if ((POINTER_TYPE_P (TREE_TYPE (treeop0))
10046 : 3609124 : || (TREE_CODE (TREE_TYPE (treeop0)) == VECTOR_TYPE
10047 : 74324 : && POINTER_TYPE_P (TREE_TYPE (TREE_TYPE (treeop0)))))
10048 : 1030850 : && TREE_CODE (treeop1) == SSA_NAME
10049 : 5709560 : && TYPE_MODE (TREE_TYPE (treeop0))
10050 : 534793 : == TYPE_MODE (TREE_TYPE (treeop1)))
10051 : : {
10052 : 534793 : gimple *def = get_def_for_expr (treeop1, NEGATE_EXPR);
10053 : 534793 : if (def)
10054 : : {
10055 : 2893 : treeop1 = gimple_assign_rhs1 (def);
10056 : 2893 : code = MINUS_EXPR;
10057 : 2893 : goto do_minus;
10058 : : }
10059 : : }
10060 : :
10061 : : /* No sense saving up arithmetic to be done
10062 : : if it's all in the wrong mode to form part of an address.
10063 : : And force_operand won't know whether to sign-extend or
10064 : : zero-extend. */
10065 : 4637081 : if (modifier != EXPAND_INITIALIZER
10066 : 4637081 : && (modifier != EXPAND_SUM || mode != ptr_mode))
10067 : : {
10068 : 4104946 : expand_operands (treeop0, treeop1,
10069 : : subtarget, &op0, &op1, modifier);
10070 : 4104946 : if (op0 == const0_rtx)
10071 : 6502 : return op1;
10072 : 4098444 : if (op1 == const0_rtx)
10073 : : return op0;
10074 : 4098193 : goto binop2;
10075 : : }
10076 : :
10077 : 532135 : expand_operands (treeop0, treeop1,
10078 : : subtarget, &op0, &op1, modifier);
10079 : 532135 : return REDUCE_BIT_FIELD (simplify_gen_binary (PLUS, mode, op0, op1));
10080 : :
10081 : 459179 : case MINUS_EXPR:
10082 : 459179 : case POINTER_DIFF_EXPR:
10083 : 459179 : do_minus:
10084 : : /* For initializers, we are allowed to return a MINUS of two
10085 : : symbolic constants. Here we handle all cases when both operands
10086 : : are constant. */
10087 : : /* Handle difference of two symbolic constants,
10088 : : for the sake of an initializer. */
10089 : 459179 : if ((modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
10090 : 3014 : && really_constant_p (treeop0)
10091 : 459659 : && really_constant_p (treeop1))
10092 : : {
10093 : 68 : expand_operands (treeop0, treeop1,
10094 : : NULL_RTX, &op0, &op1, modifier);
10095 : 68 : return simplify_gen_binary (MINUS, mode, op0, op1);
10096 : : }
10097 : :
10098 : : /* No sense saving up arithmetic to be done
10099 : : if it's all in the wrong mode to form part of an address.
10100 : : And force_operand won't know whether to sign-extend or
10101 : : zero-extend. */
10102 : 459111 : if (modifier != EXPAND_INITIALIZER
10103 : 459111 : && (modifier != EXPAND_SUM || mode != ptr_mode))
10104 : 456165 : goto binop;
10105 : :
10106 : 2946 : expand_operands (treeop0, treeop1,
10107 : : subtarget, &op0, &op1, modifier);
10108 : :
10109 : : /* Convert A - const to A + (-const). */
10110 : 2946 : if (CONST_INT_P (op1))
10111 : : {
10112 : 0 : op1 = negate_rtx (mode, op1);
10113 : 0 : return REDUCE_BIT_FIELD (simplify_gen_binary (PLUS, mode, op0, op1));
10114 : : }
10115 : :
10116 : 2946 : goto binop2;
10117 : :
10118 : 0 : case WIDEN_MULT_PLUS_EXPR:
10119 : 0 : case WIDEN_MULT_MINUS_EXPR:
10120 : 0 : expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
10121 : 0 : op2 = expand_normal (treeop2);
10122 : 0 : target = expand_widen_pattern_expr (ops, op0, op1, op2,
10123 : : target, unsignedp);
10124 : 0 : return target;
10125 : :
10126 : 18637 : case WIDEN_MULT_EXPR:
10127 : : /* If first operand is constant, swap them.
10128 : : Thus the following special case checks need only
10129 : : check the second operand. */
10130 : 18637 : if (TREE_CODE (treeop0) == INTEGER_CST)
10131 : 368 : std::swap (treeop0, treeop1);
10132 : :
10133 : : /* First, check if we have a multiplication of one signed and one
10134 : : unsigned operand. */
10135 : 18637 : if (TREE_CODE (treeop1) != INTEGER_CST
10136 : 18637 : && (TYPE_UNSIGNED (TREE_TYPE (treeop0))
10137 : 14246 : != TYPE_UNSIGNED (TREE_TYPE (treeop1))))
10138 : : {
10139 : 0 : machine_mode innermode = TYPE_MODE (TREE_TYPE (treeop0));
10140 : 0 : this_optab = usmul_widen_optab;
10141 : 0 : if (find_widening_optab_handler (this_optab, mode, innermode)
10142 : : != CODE_FOR_nothing)
10143 : : {
10144 : 0 : if (TYPE_UNSIGNED (TREE_TYPE (treeop0)))
10145 : 0 : expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1,
10146 : : EXPAND_NORMAL);
10147 : : else
10148 : 0 : expand_operands (treeop0, treeop1, NULL_RTX, &op1, &op0,
10149 : : EXPAND_NORMAL);
10150 : : /* op0 and op1 might still be constant, despite the above
10151 : : != INTEGER_CST check. Handle it. */
10152 : 0 : if (GET_MODE (op0) == VOIDmode && GET_MODE (op1) == VOIDmode)
10153 : : {
10154 : 0 : op0 = convert_modes (mode, innermode, op0, true);
10155 : 0 : op1 = convert_modes (mode, innermode, op1, false);
10156 : 0 : return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1,
10157 : : target, unsignedp));
10158 : : }
10159 : 0 : goto binop3;
10160 : : }
10161 : : }
10162 : : /* Check for a multiplication with matching signedness. */
10163 : 18637 : else if ((TREE_CODE (treeop1) == INTEGER_CST
10164 : 4391 : && int_fits_type_p (treeop1, TREE_TYPE (treeop0)))
10165 : 18637 : || (TYPE_UNSIGNED (TREE_TYPE (treeop1))
10166 : 14246 : == TYPE_UNSIGNED (TREE_TYPE (treeop0))))
10167 : : {
10168 : 18637 : tree op0type = TREE_TYPE (treeop0);
10169 : 18637 : machine_mode innermode = TYPE_MODE (op0type);
10170 : 18637 : bool zextend_p = TYPE_UNSIGNED (op0type);
10171 : 18637 : optab other_optab = zextend_p ? smul_widen_optab : umul_widen_optab;
10172 : 2584 : this_optab = zextend_p ? umul_widen_optab : smul_widen_optab;
10173 : :
10174 : 18637 : if (TREE_CODE (treeop0) != INTEGER_CST)
10175 : : {
10176 : 18637 : if (find_widening_optab_handler (this_optab, mode, innermode)
10177 : : != CODE_FOR_nothing)
10178 : : {
10179 : 18637 : expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1,
10180 : : EXPAND_NORMAL);
10181 : : /* op0 and op1 might still be constant, despite the above
10182 : : != INTEGER_CST check. Handle it. */
10183 : 18637 : if (GET_MODE (op0) == VOIDmode && GET_MODE (op1) == VOIDmode)
10184 : : {
10185 : 0 : widen_mult_const:
10186 : 0 : op0 = convert_modes (mode, innermode, op0, zextend_p);
10187 : 0 : op1
10188 : 0 : = convert_modes (mode, innermode, op1,
10189 : 0 : TYPE_UNSIGNED (TREE_TYPE (treeop1)));
10190 : 0 : return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1,
10191 : : target,
10192 : : unsignedp));
10193 : : }
10194 : 18637 : temp = expand_widening_mult (mode, op0, op1, target,
10195 : : unsignedp, this_optab);
10196 : 18637 : return REDUCE_BIT_FIELD (temp);
10197 : : }
10198 : 0 : if (find_widening_optab_handler (other_optab, mode, innermode)
10199 : : != CODE_FOR_nothing
10200 : 0 : && innermode == word_mode)
10201 : : {
10202 : 0 : rtx htem, hipart;
10203 : 0 : op0 = expand_normal (treeop0);
10204 : 0 : op1 = expand_normal (treeop1);
10205 : : /* op0 and op1 might be constants, despite the above
10206 : : != INTEGER_CST check. Handle it. */
10207 : 0 : if (GET_MODE (op0) == VOIDmode && GET_MODE (op1) == VOIDmode)
10208 : 0 : goto widen_mult_const;
10209 : 0 : temp = expand_binop (mode, other_optab, op0, op1, target,
10210 : : unsignedp, OPTAB_LIB_WIDEN);
10211 : 0 : hipart = gen_highpart (word_mode, temp);
10212 : 0 : htem = expand_mult_highpart_adjust (word_mode, hipart,
10213 : : op0, op1, hipart,
10214 : : zextend_p);
10215 : 0 : if (htem != hipart)
10216 : 0 : emit_move_insn (hipart, htem);
10217 : 0 : return REDUCE_BIT_FIELD (temp);
10218 : : }
10219 : : }
10220 : : }
10221 : 0 : treeop0 = fold_build1 (CONVERT_EXPR, type, treeop0);
10222 : 0 : treeop1 = fold_build1 (CONVERT_EXPR, type, treeop1);
10223 : 0 : expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
10224 : 0 : return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1, target, unsignedp));
10225 : :
10226 : 1267725 : case MULT_EXPR:
10227 : : /* If this is a fixed-point operation, then we cannot use the code
10228 : : below because "expand_mult" doesn't support sat/no-sat fixed-point
10229 : : multiplications. */
10230 : 1267725 : if (ALL_FIXED_POINT_MODE_P (mode))
10231 : 0 : goto binop;
10232 : :
10233 : : /* If first operand is constant, swap them.
10234 : : Thus the following special case checks need only
10235 : : check the second operand. */
10236 : 1267725 : if (TREE_CODE (treeop0) == INTEGER_CST)
10237 : 686 : std::swap (treeop0, treeop1);
10238 : :
10239 : : /* Attempt to return something suitable for generating an
10240 : : indexed address, for machines that support that. */
10241 : :
10242 : 511771 : if (modifier == EXPAND_SUM && mode == ptr_mode
10243 : 1779496 : && tree_fits_shwi_p (treeop1))
10244 : : {
10245 : 506279 : tree exp1 = treeop1;
10246 : :
10247 : 506279 : op0 = expand_expr (treeop0, subtarget, VOIDmode,
10248 : : EXPAND_SUM);
10249 : :
10250 : 506279 : if (!REG_P (op0))
10251 : 239430 : op0 = force_operand (op0, NULL_RTX);
10252 : 506279 : if (!REG_P (op0))
10253 : 1644 : op0 = copy_to_mode_reg (mode, op0);
10254 : :
10255 : 506279 : op1 = gen_int_mode (tree_to_shwi (exp1),
10256 : 506279 : TYPE_MODE (TREE_TYPE (exp1)));
10257 : 506279 : return REDUCE_BIT_FIELD (gen_rtx_MULT (mode, op0, op1));
10258 : : }
10259 : :
10260 : 761446 : if (modifier == EXPAND_STACK_PARM)
10261 : 3006 : target = 0;
10262 : :
10263 : 761446 : if (SCALAR_INT_MODE_P (mode) && optimize >= 2)
10264 : : {
10265 : 452085 : gimple *def_stmt0 = get_def_for_expr (treeop0, TRUNC_DIV_EXPR);
10266 : 452085 : gimple *def_stmt1 = get_def_for_expr (treeop1, TRUNC_DIV_EXPR);
10267 : 452085 : if (def_stmt0
10268 : 452085 : && !operand_equal_p (treeop1, gimple_assign_rhs2 (def_stmt0), 0))
10269 : : def_stmt0 = NULL;
10270 : 452085 : if (def_stmt1
10271 : 452085 : && !operand_equal_p (treeop0, gimple_assign_rhs2 (def_stmt1), 0))
10272 : : def_stmt1 = NULL;
10273 : :
10274 : 452085 : if (def_stmt0 || def_stmt1)
10275 : : {
10276 : : /* X / Y * Y can be expanded as X - X % Y too.
10277 : : Choose the cheaper sequence of those two. */
10278 : 483 : if (def_stmt0)
10279 : 483 : treeop0 = gimple_assign_rhs1 (def_stmt0);
10280 : : else
10281 : : {
10282 : 0 : treeop1 = treeop0;
10283 : 0 : treeop0 = gimple_assign_rhs1 (def_stmt1);
10284 : : }
10285 : 483 : expand_operands (treeop0, treeop1, subtarget, &op0, &op1,
10286 : : EXPAND_NORMAL);
10287 : 483 : bool speed_p = optimize_insn_for_speed_p ();
10288 : 483 : do_pending_stack_adjust ();
10289 : 483 : start_sequence ();
10290 : 483 : rtx divmul_ret
10291 : 483 : = expand_expr_divmod (TRUNC_DIV_EXPR, mode, treeop0, treeop1,
10292 : : op0, op1, NULL_RTX, unsignedp);
10293 : 483 : divmul_ret = expand_mult (mode, divmul_ret, op1, target,
10294 : : unsignedp);
10295 : 483 : rtx_insn *divmul_insns = get_insns ();
10296 : 483 : end_sequence ();
10297 : 483 : start_sequence ();
10298 : 483 : rtx modsub_ret
10299 : 483 : = expand_expr_divmod (TRUNC_MOD_EXPR, mode, treeop0, treeop1,
10300 : : op0, op1, NULL_RTX, unsignedp);
10301 : 483 : this_optab = optab_for_tree_code (MINUS_EXPR, type,
10302 : : optab_default);
10303 : 483 : modsub_ret = expand_binop (mode, this_optab, op0, modsub_ret,
10304 : : target, unsignedp, OPTAB_LIB_WIDEN);
10305 : 483 : rtx_insn *modsub_insns = get_insns ();
10306 : 483 : end_sequence ();
10307 : 483 : unsigned divmul_cost = seq_cost (divmul_insns, speed_p);
10308 : 483 : unsigned modsub_cost = seq_cost (modsub_insns, speed_p);
10309 : : /* If costs are the same then use as tie breaker the other other
10310 : : factor. */
10311 : 483 : if (divmul_cost == modsub_cost)
10312 : : {
10313 : 20 : divmul_cost = seq_cost (divmul_insns, !speed_p);
10314 : 20 : modsub_cost = seq_cost (modsub_insns, !speed_p);
10315 : : }
10316 : :
10317 : 483 : if (divmul_cost <= modsub_cost)
10318 : : {
10319 : 423 : emit_insn (divmul_insns);
10320 : 423 : return REDUCE_BIT_FIELD (divmul_ret);
10321 : : }
10322 : 60 : emit_insn (modsub_insns);
10323 : 60 : return REDUCE_BIT_FIELD (modsub_ret);
10324 : : }
10325 : : }
10326 : :
10327 : 760963 : expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
10328 : :
10329 : : /* Expand X*Y as X&-Y when Y must be zero or one. */
10330 : 760963 : if (SCALAR_INT_MODE_P (mode))
10331 : : {
10332 : 630590 : bool gimple_zero_one_valued_p (tree, tree (*)(tree));
10333 : 630590 : bool bit0_p = gimple_zero_one_valued_p (treeop0, nullptr);
10334 : 630590 : bool bit1_p = gimple_zero_one_valued_p (treeop1, nullptr);
10335 : :
10336 : : /* Expand X*Y as X&Y when both X and Y must be zero or one. */
10337 : 630590 : if (bit0_p && bit1_p)
10338 : 2 : return REDUCE_BIT_FIELD (expand_and (mode, op0, op1, target));
10339 : :
10340 : 630588 : if (bit0_p || bit1_p)
10341 : : {
10342 : 4313 : bool speed = optimize_insn_for_speed_p ();
10343 : 4313 : int cost = add_cost (speed, mode) + neg_cost (speed, mode);
10344 : 4313 : struct algorithm algorithm;
10345 : 4313 : enum mult_variant variant;
10346 : 4313 : if (CONST_INT_P (op1)
10347 : 4313 : ? !choose_mult_variant (mode, INTVAL (op1),
10348 : : &algorithm, &variant, cost)
10349 : 625 : : cost < mul_cost (speed, mode))
10350 : : {
10351 : 2051 : temp = bit0_p ? expand_and (mode, negate_rtx (mode, op0),
10352 : : op1, target)
10353 : 254 : : expand_and (mode, op0,
10354 : : negate_rtx (mode, op1),
10355 : : target);
10356 : 2051 : return REDUCE_BIT_FIELD (temp);
10357 : : }
10358 : : }
10359 : : }
10360 : :
10361 : 758910 : return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1, target, unsignedp));
10362 : :
10363 : 140171 : case TRUNC_MOD_EXPR:
10364 : 140171 : case FLOOR_MOD_EXPR:
10365 : 140171 : case CEIL_MOD_EXPR:
10366 : 140171 : case ROUND_MOD_EXPR:
10367 : :
10368 : 140171 : case TRUNC_DIV_EXPR:
10369 : 140171 : case FLOOR_DIV_EXPR:
10370 : 140171 : case CEIL_DIV_EXPR:
10371 : 140171 : case ROUND_DIV_EXPR:
10372 : 140171 : case EXACT_DIV_EXPR:
10373 : : /* If this is a fixed-point operation, then we cannot use the code
10374 : : below because "expand_divmod" doesn't support sat/no-sat fixed-point
10375 : : divisions. */
10376 : 140171 : if (ALL_FIXED_POINT_MODE_P (mode))
10377 : 0 : goto binop;
10378 : :
10379 : 140171 : if (modifier == EXPAND_STACK_PARM)
10380 : 287 : target = 0;
10381 : : /* Possible optimization: compute the dividend with EXPAND_SUM
10382 : : then if the divisor is constant can optimize the case
10383 : : where some terms of the dividend have coeffs divisible by it. */
10384 : 140171 : expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
10385 : 140171 : return expand_expr_divmod (code, mode, treeop0, treeop1, op0, op1,
10386 : 140171 : target, unsignedp);
10387 : :
10388 : 28946 : case RDIV_EXPR:
10389 : 28946 : goto binop;
10390 : :
10391 : 1619 : case MULT_HIGHPART_EXPR:
10392 : 1619 : expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
10393 : 1619 : temp = expand_mult_highpart (mode, op0, op1, target, unsignedp);
10394 : 1619 : gcc_assert (temp);
10395 : : return temp;
10396 : :
10397 : 0 : case FIXED_CONVERT_EXPR:
10398 : 0 : op0 = expand_normal (treeop0);
10399 : 0 : if (target == 0 || modifier == EXPAND_STACK_PARM)
10400 : 0 : target = gen_reg_rtx (mode);
10401 : :
10402 : 0 : if ((TREE_CODE (TREE_TYPE (treeop0)) == INTEGER_TYPE
10403 : 0 : && TYPE_UNSIGNED (TREE_TYPE (treeop0)))
10404 : 0 : || (TREE_CODE (type) == INTEGER_TYPE && TYPE_UNSIGNED (type)))
10405 : 0 : expand_fixed_convert (target, op0, 1, TYPE_SATURATING (type));
10406 : : else
10407 : 0 : expand_fixed_convert (target, op0, 0, TYPE_SATURATING (type));
10408 : : return target;
10409 : :
10410 : 47401 : case FIX_TRUNC_EXPR:
10411 : 47401 : op0 = expand_normal (treeop0);
10412 : 47401 : if (target == 0 || modifier == EXPAND_STACK_PARM)
10413 : 3505 : target = gen_reg_rtx (mode);
10414 : 47401 : expand_fix (target, op0, unsignedp);
10415 : 47401 : return target;
10416 : :
10417 : 129935 : case FLOAT_EXPR:
10418 : 129935 : op0 = expand_normal (treeop0);
10419 : 129935 : if (target == 0 || modifier == EXPAND_STACK_PARM)
10420 : 60994 : target = gen_reg_rtx (mode);
10421 : : /* expand_float can't figure out what to do if FROM has VOIDmode.
10422 : : So give it the correct mode. With -O, cse will optimize this. */
10423 : 129935 : if (GET_MODE (op0) == VOIDmode)
10424 : 94 : op0 = copy_to_mode_reg (TYPE_MODE (TREE_TYPE (treeop0)),
10425 : : op0);
10426 : 259870 : expand_float (target, op0,
10427 : 129935 : TYPE_UNSIGNED (TREE_TYPE (treeop0)));
10428 : 129935 : return target;
10429 : :
10430 : 48351 : case NEGATE_EXPR:
10431 : 48351 : op0 = expand_expr (treeop0, subtarget,
10432 : : VOIDmode, EXPAND_NORMAL);
10433 : 48351 : if (modifier == EXPAND_STACK_PARM)
10434 : 241 : target = 0;
10435 : 48351 : temp = expand_unop (mode,
10436 : : optab_for_tree_code (NEGATE_EXPR, type,
10437 : : optab_default),
10438 : : op0, target, 0);
10439 : 48351 : gcc_assert (temp);
10440 : 48351 : return REDUCE_BIT_FIELD (temp);
10441 : :
10442 : 23324 : case ABS_EXPR:
10443 : 23324 : case ABSU_EXPR:
10444 : 23324 : op0 = expand_expr (treeop0, subtarget,
10445 : : VOIDmode, EXPAND_NORMAL);
10446 : 23324 : if (modifier == EXPAND_STACK_PARM)
10447 : 50 : target = 0;
10448 : :
10449 : : /* ABS_EXPR is not valid for complex arguments. */
10450 : 23324 : gcc_assert (GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
10451 : : && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT);
10452 : :
10453 : : /* Unsigned abs is simply the operand. Testing here means we don't
10454 : : risk generating incorrect code below. */
10455 : 23324 : if (TYPE_UNSIGNED (TREE_TYPE (treeop0)))
10456 : : return op0;
10457 : :
10458 : 23324 : return expand_abs (mode, op0, target, unsignedp,
10459 : 46648 : safe_from_p (target, treeop0, 1));
10460 : :
10461 : 97510 : case MAX_EXPR:
10462 : 97510 : case MIN_EXPR:
10463 : 97510 : target = original_target;
10464 : 97510 : if (target == 0
10465 : 97510 : || modifier == EXPAND_STACK_PARM
10466 : 56151 : || (MEM_P (target) && MEM_VOLATILE_P (target))
10467 : 56151 : || GET_MODE (target) != mode
10468 : 153661 : || (REG_P (target)
10469 : 49732 : && REGNO (target) < FIRST_PSEUDO_REGISTER))
10470 : 41359 : target = gen_reg_rtx (mode);
10471 : 97510 : expand_operands (treeop0, treeop1,
10472 : : target, &op0, &op1, EXPAND_NORMAL);
10473 : :
10474 : : /* First try to do it with a special MIN or MAX instruction.
10475 : : If that does not win, use a conditional jump to select the proper
10476 : : value. */
10477 : 97510 : this_optab = optab_for_tree_code (code, type, optab_default);
10478 : 97510 : temp = expand_binop (mode, this_optab, op0, op1, target, unsignedp,
10479 : : OPTAB_WIDEN);
10480 : 97510 : if (temp != 0)
10481 : : return temp;
10482 : :
10483 : 122 : if (VECTOR_TYPE_P (type))
10484 : 0 : gcc_unreachable ();
10485 : :
10486 : : /* At this point, a MEM target is no longer useful; we will get better
10487 : : code without it. */
10488 : :
10489 : 122 : if (! REG_P (target))
10490 : 1 : target = gen_reg_rtx (mode);
10491 : :
10492 : : /* If op1 was placed in target, swap op0 and op1. */
10493 : 122 : if (target != op0 && target == op1)
10494 : 0 : std::swap (op0, op1);
10495 : :
10496 : : /* We generate better code and avoid problems with op1 mentioning
10497 : : target by forcing op1 into a pseudo if it isn't a constant. */
10498 : 122 : if (! CONSTANT_P (op1))
10499 : 42 : op1 = force_reg (mode, op1);
10500 : :
10501 : 122 : {
10502 : 122 : enum rtx_code comparison_code;
10503 : 122 : rtx cmpop1 = op1;
10504 : :
10505 : 122 : if (code == MAX_EXPR)
10506 : 62 : comparison_code = unsignedp ? GEU : GE;
10507 : : else
10508 : 60 : comparison_code = unsignedp ? LEU : LE;
10509 : :
10510 : : /* Canonicalize to comparisons against 0. */
10511 : 122 : if (op1 == const1_rtx)
10512 : : {
10513 : : /* Converting (a >= 1 ? a : 1) into (a > 0 ? a : 1)
10514 : : or (a != 0 ? a : 1) for unsigned.
10515 : : For MIN we are safe converting (a <= 1 ? a : 1)
10516 : : into (a <= 0 ? a : 1) */
10517 : 0 : cmpop1 = const0_rtx;
10518 : 0 : if (code == MAX_EXPR)
10519 : 0 : comparison_code = unsignedp ? NE : GT;
10520 : : }
10521 : 122 : if (op1 == constm1_rtx && !unsignedp)
10522 : : {
10523 : : /* Converting (a >= -1 ? a : -1) into (a >= 0 ? a : -1)
10524 : : and (a <= -1 ? a : -1) into (a < 0 ? a : -1) */
10525 : 0 : cmpop1 = const0_rtx;
10526 : 0 : if (code == MIN_EXPR)
10527 : 0 : comparison_code = LT;
10528 : : }
10529 : :
10530 : : /* Use a conditional move if possible. */
10531 : 122 : if (can_conditionally_move_p (mode))
10532 : : {
10533 : 75 : rtx insn;
10534 : :
10535 : 75 : start_sequence ();
10536 : :
10537 : : /* Try to emit the conditional move. */
10538 : 75 : insn = emit_conditional_move (target,
10539 : : { comparison_code,
10540 : : op0, cmpop1, mode },
10541 : : op0, op1, mode,
10542 : : unsignedp);
10543 : :
10544 : : /* If we could do the conditional move, emit the sequence,
10545 : : and return. */
10546 : 75 : if (insn)
10547 : : {
10548 : 41 : rtx_insn *seq = get_insns ();
10549 : 41 : end_sequence ();
10550 : 41 : emit_insn (seq);
10551 : 41 : return target;
10552 : : }
10553 : :
10554 : : /* Otherwise discard the sequence and fall back to code with
10555 : : branches. */
10556 : 34 : end_sequence ();
10557 : : }
10558 : :
10559 : 81 : if (target != op0)
10560 : 52 : emit_move_insn (target, op0);
10561 : :
10562 : 81 : lab = gen_label_rtx ();
10563 : 81 : do_compare_rtx_and_jump (target, cmpop1, comparison_code,
10564 : : unsignedp, mode, NULL_RTX, NULL, lab,
10565 : : profile_probability::uninitialized ());
10566 : : }
10567 : 81 : emit_move_insn (target, op1);
10568 : 81 : emit_label (lab);
10569 : 81 : return target;
10570 : :
10571 : 51764 : case BIT_NOT_EXPR:
10572 : 51764 : op0 = expand_expr (treeop0, subtarget,
10573 : : VOIDmode, EXPAND_NORMAL);
10574 : 51764 : if (modifier == EXPAND_STACK_PARM)
10575 : 86 : target = 0;
10576 : : /* In case we have to reduce the result to bitfield precision
10577 : : for unsigned bitfield expand this as XOR with a proper constant
10578 : : instead. */
10579 : 51764 : if (reduce_bit_field && TYPE_UNSIGNED (type))
10580 : : {
10581 : 19680 : int_mode = SCALAR_INT_TYPE_MODE (type);
10582 : 19680 : wide_int mask = wi::mask (TYPE_PRECISION (type),
10583 : 39360 : false, GET_MODE_PRECISION (int_mode));
10584 : :
10585 : 39360 : temp = expand_binop (int_mode, xor_optab, op0,
10586 : 39360 : immed_wide_int_const (mask, int_mode),
10587 : : target, 1, OPTAB_LIB_WIDEN);
10588 : 19680 : }
10589 : : else
10590 : 32084 : temp = expand_unop (mode, one_cmpl_optab, op0, target, 1);
10591 : 51764 : gcc_assert (temp);
10592 : : return temp;
10593 : :
10594 : : /* ??? Can optimize bitwise operations with one arg constant.
10595 : : Can optimize (a bitwise1 n) bitwise2 (a bitwise3 b)
10596 : : and (a bitwise1 b) bitwise2 b (etc)
10597 : : but that is probably not worth while. */
10598 : :
10599 : 588809 : case BIT_AND_EXPR:
10600 : 588809 : case BIT_IOR_EXPR:
10601 : 588809 : case BIT_XOR_EXPR:
10602 : 588809 : goto binop;
10603 : :
10604 : 7183 : case LROTATE_EXPR:
10605 : 7183 : case RROTATE_EXPR:
10606 : 7183 : gcc_assert (VECTOR_MODE_P (TYPE_MODE (type))
10607 : : || type_has_mode_precision_p (type));
10608 : : /* fall through */
10609 : :
10610 : 252750 : case LSHIFT_EXPR:
10611 : 252750 : case RSHIFT_EXPR:
10612 : 252750 : {
10613 : : /* If this is a fixed-point operation, then we cannot use the code
10614 : : below because "expand_shift" doesn't support sat/no-sat fixed-point
10615 : : shifts. */
10616 : 252750 : if (ALL_FIXED_POINT_MODE_P (mode))
10617 : 0 : goto binop;
10618 : :
10619 : 252750 : if (! safe_from_p (subtarget, treeop1, 1))
10620 : 5113 : subtarget = 0;
10621 : 252750 : if (modifier == EXPAND_STACK_PARM)
10622 : 2551 : target = 0;
10623 : 252750 : op0 = expand_expr (treeop0, subtarget,
10624 : : VOIDmode, EXPAND_NORMAL);
10625 : :
10626 : : /* Left shift optimization when shifting across word_size boundary.
10627 : :
10628 : : If mode == GET_MODE_WIDER_MODE (word_mode), then normally
10629 : : there isn't native instruction to support this wide mode
10630 : : left shift. Given below scenario:
10631 : :
10632 : : Type A = (Type) B << C
10633 : :
10634 : : |< T >|
10635 : : | dest_high | dest_low |
10636 : :
10637 : : | word_size |
10638 : :
10639 : : If the shift amount C caused we shift B to across the word
10640 : : size boundary, i.e part of B shifted into high half of
10641 : : destination register, and part of B remains in the low
10642 : : half, then GCC will use the following left shift expand
10643 : : logic:
10644 : :
10645 : : 1. Initialize dest_low to B.
10646 : : 2. Initialize every bit of dest_high to the sign bit of B.
10647 : : 3. Logic left shift dest_low by C bit to finalize dest_low.
10648 : : The value of dest_low before this shift is kept in a temp D.
10649 : : 4. Logic left shift dest_high by C.
10650 : : 5. Logic right shift D by (word_size - C).
10651 : : 6. Or the result of 4 and 5 to finalize dest_high.
10652 : :
10653 : : While, by checking gimple statements, if operand B is
10654 : : coming from signed extension, then we can simplify above
10655 : : expand logic into:
10656 : :
10657 : : 1. dest_high = src_low >> (word_size - C).
10658 : : 2. dest_low = src_low << C.
10659 : :
10660 : : We can use one arithmetic right shift to finish all the
10661 : : purpose of steps 2, 4, 5, 6, thus we reduce the steps
10662 : : needed from 6 into 2.
10663 : :
10664 : : The case is similar for zero extension, except that we
10665 : : initialize dest_high to zero rather than copies of the sign
10666 : : bit from B. Furthermore, we need to use a logical right shift
10667 : : in this case.
10668 : :
10669 : : The choice of sign-extension versus zero-extension is
10670 : : determined entirely by whether or not B is signed and is
10671 : : independent of the current setting of unsignedp. */
10672 : :
10673 : 252750 : temp = NULL_RTX;
10674 : 252750 : if (code == LSHIFT_EXPR
10675 : 252750 : && target
10676 : 31117 : && REG_P (target)
10677 : 281793 : && GET_MODE_2XWIDER_MODE (word_mode).exists (&int_mode)
10678 : 29108 : && mode == int_mode
10679 : 1482 : && TREE_CONSTANT (treeop1)
10680 : 253564 : && TREE_CODE (treeop0) == SSA_NAME)
10681 : : {
10682 : 814 : gimple *def = SSA_NAME_DEF_STMT (treeop0);
10683 : 814 : if (is_gimple_assign (def)
10684 : 814 : && gimple_assign_rhs_code (def) == NOP_EXPR)
10685 : : {
10686 : 315 : scalar_int_mode rmode = SCALAR_INT_TYPE_MODE
10687 : : (TREE_TYPE (gimple_assign_rhs1 (def)));
10688 : :
10689 : 630 : if (GET_MODE_SIZE (rmode) < GET_MODE_SIZE (int_mode)
10690 : 584 : && TREE_INT_CST_LOW (treeop1) < GET_MODE_BITSIZE (word_mode)
10691 : 453 : && ((TREE_INT_CST_LOW (treeop1) + GET_MODE_BITSIZE (rmode))
10692 : 69 : >= GET_MODE_BITSIZE (word_mode)))
10693 : : {
10694 : 65 : rtx_insn *seq, *seq_old;
10695 : 65 : poly_uint64 high_off = subreg_highpart_offset (word_mode,
10696 : : int_mode);
10697 : 65 : bool extend_unsigned
10698 : 65 : = TYPE_UNSIGNED (TREE_TYPE (gimple_assign_rhs1 (def)));
10699 : 65 : rtx low = lowpart_subreg (word_mode, op0, int_mode);
10700 : 65 : rtx dest_low = lowpart_subreg (word_mode, target, int_mode);
10701 : 65 : rtx dest_high = simplify_gen_subreg (word_mode, target,
10702 : : int_mode, high_off);
10703 : 65 : HOST_WIDE_INT ramount = (BITS_PER_WORD
10704 : 65 : - TREE_INT_CST_LOW (treeop1));
10705 : 65 : tree rshift = build_int_cst (TREE_TYPE (treeop1), ramount);
10706 : :
10707 : 65 : start_sequence ();
10708 : : /* dest_high = src_low >> (word_size - C). */
10709 : 65 : temp = expand_variable_shift (RSHIFT_EXPR, word_mode, low,
10710 : : rshift, dest_high,
10711 : : extend_unsigned);
10712 : 65 : if (temp != dest_high)
10713 : 0 : emit_move_insn (dest_high, temp);
10714 : :
10715 : : /* dest_low = src_low << C. */
10716 : 65 : temp = expand_variable_shift (LSHIFT_EXPR, word_mode, low,
10717 : : treeop1, dest_low, unsignedp);
10718 : 65 : if (temp != dest_low)
10719 : 0 : emit_move_insn (dest_low, temp);
10720 : :
10721 : 65 : seq = get_insns ();
10722 : 65 : end_sequence ();
10723 : 65 : temp = target ;
10724 : :
10725 : 65 : if (have_insn_for (ASHIFT, int_mode))
10726 : : {
10727 : 65 : bool speed_p = optimize_insn_for_speed_p ();
10728 : 65 : start_sequence ();
10729 : 65 : rtx ret_old = expand_variable_shift (code, int_mode,
10730 : : op0, treeop1,
10731 : : target,
10732 : : unsignedp);
10733 : :
10734 : 65 : seq_old = get_insns ();
10735 : 65 : end_sequence ();
10736 : 130 : if (seq_cost (seq, speed_p)
10737 : 65 : >= seq_cost (seq_old, speed_p))
10738 : : {
10739 : 65 : seq = seq_old;
10740 : 65 : temp = ret_old;
10741 : : }
10742 : : }
10743 : 65 : emit_insn (seq);
10744 : : }
10745 : : }
10746 : : }
10747 : :
10748 : 65 : if (temp == NULL_RTX)
10749 : 252685 : temp = expand_variable_shift (code, mode, op0, treeop1, target,
10750 : : unsignedp);
10751 : 252750 : if (code == LSHIFT_EXPR)
10752 : 73034 : temp = REDUCE_BIT_FIELD (temp);
10753 : : return temp;
10754 : : }
10755 : :
10756 : : /* Could determine the answer when only additive constants differ. Also,
10757 : : the addition of one can be handled by changing the condition. */
10758 : 512785 : case LT_EXPR:
10759 : 512785 : case LE_EXPR:
10760 : 512785 : case GT_EXPR:
10761 : 512785 : case GE_EXPR:
10762 : 512785 : case EQ_EXPR:
10763 : 512785 : case NE_EXPR:
10764 : 512785 : case UNORDERED_EXPR:
10765 : 512785 : case ORDERED_EXPR:
10766 : 512785 : case UNLT_EXPR:
10767 : 512785 : case UNLE_EXPR:
10768 : 512785 : case UNGT_EXPR:
10769 : 512785 : case UNGE_EXPR:
10770 : 512785 : case UNEQ_EXPR:
10771 : 512785 : case LTGT_EXPR:
10772 : 512785 : {
10773 : 817645 : temp = do_store_flag (ops,
10774 : : modifier != EXPAND_STACK_PARM ? target : NULL_RTX,
10775 : : tmode != VOIDmode ? tmode : mode);
10776 : 512785 : if (temp)
10777 : : return temp;
10778 : :
10779 : : /* Use a compare and a jump for BLKmode comparisons, or for function
10780 : : type comparisons is have_canonicalize_funcptr_for_compare. */
10781 : :
10782 : 0 : if ((target == 0
10783 : 0 : || modifier == EXPAND_STACK_PARM
10784 : 0 : || ! safe_from_p (target, treeop0, 1)
10785 : 0 : || ! safe_from_p (target, treeop1, 1)
10786 : : /* Make sure we don't have a hard reg (such as function's return
10787 : : value) live across basic blocks, if not optimizing. */
10788 : 0 : || (!optimize && REG_P (target)
10789 : 0 : && REGNO (target) < FIRST_PSEUDO_REGISTER)))
10790 : 0 : target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
10791 : :
10792 : 0 : emit_move_insn (target, const0_rtx);
10793 : :
10794 : 0 : rtx_code_label *lab1 = gen_label_rtx ();
10795 : 0 : jumpifnot_1 (code, treeop0, treeop1, lab1,
10796 : : profile_probability::uninitialized ());
10797 : :
10798 : 0 : if (TYPE_PRECISION (type) == 1 && !TYPE_UNSIGNED (type))
10799 : 0 : emit_move_insn (target, constm1_rtx);
10800 : : else
10801 : 0 : emit_move_insn (target, const1_rtx);
10802 : :
10803 : 0 : emit_label (lab1);
10804 : 0 : return target;
10805 : : }
10806 : 25057 : case COMPLEX_EXPR:
10807 : : /* Get the rtx code of the operands. */
10808 : 25057 : op0 = expand_normal (treeop0);
10809 : 25057 : op1 = expand_normal (treeop1);
10810 : :
10811 : 25057 : if (!target)
10812 : 2540 : target = gen_reg_rtx (TYPE_MODE (type));
10813 : : else
10814 : : /* If target overlaps with op1, then either we need to force
10815 : : op1 into a pseudo (if target also overlaps with op0),
10816 : : or write the complex parts in reverse order. */
10817 : 22517 : switch (GET_CODE (target))
10818 : : {
10819 : 22192 : case CONCAT:
10820 : 22192 : if (reg_overlap_mentioned_p (XEXP (target, 0), op1))
10821 : : {
10822 : 0 : if (reg_overlap_mentioned_p (XEXP (target, 1), op0))
10823 : : {
10824 : 0 : complex_expr_force_op1:
10825 : 296 : temp = gen_reg_rtx (GET_MODE_INNER (GET_MODE (target)));
10826 : 148 : emit_move_insn (temp, op1);
10827 : 148 : op1 = temp;
10828 : 148 : break;
10829 : : }
10830 : 0 : complex_expr_swap_order:
10831 : : /* Move the imaginary (op1) and real (op0) parts to their
10832 : : location. */
10833 : 1 : write_complex_part (target, op1, true, true);
10834 : 1 : write_complex_part (target, op0, false, false);
10835 : :
10836 : 1 : return target;
10837 : : }
10838 : : break;
10839 : 325 : case MEM:
10840 : 650 : temp = adjust_address_nv (target,
10841 : : GET_MODE_INNER (GET_MODE (target)), 0);
10842 : 325 : if (reg_overlap_mentioned_p (temp, op1))
10843 : : {
10844 : 149 : scalar_mode imode = GET_MODE_INNER (GET_MODE (target));
10845 : 298 : temp = adjust_address_nv (target, imode,
10846 : : GET_MODE_SIZE (imode));
10847 : 149 : if (reg_overlap_mentioned_p (temp, op0))
10848 : 148 : goto complex_expr_force_op1;
10849 : 1 : goto complex_expr_swap_order;
10850 : : }
10851 : : break;
10852 : 0 : default:
10853 : 0 : if (reg_overlap_mentioned_p (target, op1))
10854 : : {
10855 : 0 : if (reg_overlap_mentioned_p (target, op0))
10856 : 0 : goto complex_expr_force_op1;
10857 : 0 : goto complex_expr_swap_order;
10858 : : }
10859 : : break;
10860 : : }
10861 : :
10862 : : /* Move the real (op0) and imaginary (op1) parts to their location. */
10863 : 25056 : write_complex_part (target, op0, false, true);
10864 : 25056 : write_complex_part (target, op1, true, false);
10865 : :
10866 : 25056 : return target;
10867 : :
10868 : 0 : case WIDEN_SUM_EXPR:
10869 : 0 : {
10870 : 0 : tree oprnd0 = treeop0;
10871 : 0 : tree oprnd1 = treeop1;
10872 : :
10873 : 0 : expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
10874 : 0 : target = expand_widen_pattern_expr (ops, op0, NULL_RTX, op1,
10875 : : target, unsignedp);
10876 : 0 : return target;
10877 : : }
10878 : :
10879 : 15121 : case VEC_UNPACK_HI_EXPR:
10880 : 15121 : case VEC_UNPACK_LO_EXPR:
10881 : 15121 : case VEC_UNPACK_FIX_TRUNC_HI_EXPR:
10882 : 15121 : case VEC_UNPACK_FIX_TRUNC_LO_EXPR:
10883 : 15121 : {
10884 : 15121 : op0 = expand_normal (treeop0);
10885 : 15121 : temp = expand_widen_pattern_expr (ops, op0, NULL_RTX, NULL_RTX,
10886 : : target, unsignedp);
10887 : 15121 : gcc_assert (temp);
10888 : : return temp;
10889 : : }
10890 : :
10891 : 1710 : case VEC_UNPACK_FLOAT_HI_EXPR:
10892 : 1710 : case VEC_UNPACK_FLOAT_LO_EXPR:
10893 : 1710 : {
10894 : 1710 : op0 = expand_normal (treeop0);
10895 : : /* The signedness is determined from input operand. */
10896 : 1710 : temp = expand_widen_pattern_expr
10897 : 3420 : (ops, op0, NULL_RTX, NULL_RTX,
10898 : 1710 : target, TYPE_UNSIGNED (TREE_TYPE (treeop0)));
10899 : :
10900 : 1710 : gcc_assert (temp);
10901 : : return temp;
10902 : : }
10903 : :
10904 : 881 : case VEC_WIDEN_MULT_HI_EXPR:
10905 : 881 : case VEC_WIDEN_MULT_LO_EXPR:
10906 : 881 : case VEC_WIDEN_MULT_EVEN_EXPR:
10907 : 881 : case VEC_WIDEN_MULT_ODD_EXPR:
10908 : 881 : case VEC_WIDEN_LSHIFT_HI_EXPR:
10909 : 881 : case VEC_WIDEN_LSHIFT_LO_EXPR:
10910 : 881 : expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
10911 : 881 : target = expand_widen_pattern_expr (ops, op0, op1, NULL_RTX,
10912 : : target, unsignedp);
10913 : 881 : gcc_assert (target);
10914 : : return target;
10915 : :
10916 : 324 : case VEC_PACK_SAT_EXPR:
10917 : 324 : case VEC_PACK_FIX_TRUNC_EXPR:
10918 : 324 : mode = TYPE_MODE (TREE_TYPE (treeop0));
10919 : 324 : subtarget = NULL_RTX;
10920 : 324 : goto binop;
10921 : :
10922 : 10015 : case VEC_PACK_TRUNC_EXPR:
10923 : 10015 : if (VECTOR_BOOLEAN_TYPE_P (type)
10924 : 1446 : && VECTOR_BOOLEAN_TYPE_P (TREE_TYPE (treeop0))
10925 : 1446 : && mode == TYPE_MODE (TREE_TYPE (treeop0))
10926 : 10449 : && SCALAR_INT_MODE_P (mode))
10927 : : {
10928 : 434 : class expand_operand eops[4];
10929 : 434 : machine_mode imode = TYPE_MODE (TREE_TYPE (treeop0));
10930 : 434 : expand_operands (treeop0, treeop1,
10931 : : subtarget, &op0, &op1, EXPAND_NORMAL);
10932 : 434 : this_optab = vec_pack_sbool_trunc_optab;
10933 : 434 : enum insn_code icode = optab_handler (this_optab, imode);
10934 : 434 : create_output_operand (&eops[0], target, mode);
10935 : 434 : create_convert_operand_from (&eops[1], op0, imode, false);
10936 : 434 : create_convert_operand_from (&eops[2], op1, imode, false);
10937 : 434 : temp = GEN_INT (TYPE_VECTOR_SUBPARTS (type).to_constant ());
10938 : 434 : create_input_operand (&eops[3], temp, imode);
10939 : 434 : expand_insn (icode, 4, eops);
10940 : 434 : return eops[0].value;
10941 : : }
10942 : 9581 : mode = TYPE_MODE (TREE_TYPE (treeop0));
10943 : 9581 : subtarget = NULL_RTX;
10944 : 9581 : goto binop;
10945 : :
10946 : 23 : case VEC_PACK_FLOAT_EXPR:
10947 : 23 : mode = TYPE_MODE (TREE_TYPE (treeop0));
10948 : 23 : expand_operands (treeop0, treeop1,
10949 : : subtarget, &op0, &op1, EXPAND_NORMAL);
10950 : 23 : this_optab = optab_for_tree_code (code, TREE_TYPE (treeop0),
10951 : : optab_default);
10952 : 69 : target = expand_binop (mode, this_optab, op0, op1, target,
10953 : 23 : TYPE_UNSIGNED (TREE_TYPE (treeop0)),
10954 : : OPTAB_LIB_WIDEN);
10955 : 23 : gcc_assert (target);
10956 : : return target;
10957 : :
10958 : 62914 : case VEC_PERM_EXPR:
10959 : 62914 : {
10960 : 62914 : expand_operands (treeop0, treeop1, target, &op0, &op1, EXPAND_NORMAL);
10961 : 62914 : vec_perm_builder sel;
10962 : 62914 : if (TREE_CODE (treeop2) == VECTOR_CST
10963 : 62914 : && tree_to_vec_perm_builder (&sel, treeop2))
10964 : : {
10965 : 62904 : machine_mode sel_mode = TYPE_MODE (TREE_TYPE (treeop2));
10966 : 62904 : temp = expand_vec_perm_const (mode, op0, op1, sel,
10967 : : sel_mode, target);
10968 : : }
10969 : : else
10970 : : {
10971 : 10 : op2 = expand_normal (treeop2);
10972 : 10 : temp = expand_vec_perm_var (mode, op0, op1, op2, target);
10973 : : }
10974 : 62914 : gcc_assert (temp);
10975 : 62914 : return temp;
10976 : 62914 : }
10977 : :
10978 : 236 : case DOT_PROD_EXPR:
10979 : 236 : {
10980 : 236 : tree oprnd0 = treeop0;
10981 : 236 : tree oprnd1 = treeop1;
10982 : 236 : tree oprnd2 = treeop2;
10983 : :
10984 : 236 : expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
10985 : 236 : op2 = expand_normal (oprnd2);
10986 : 236 : target = expand_widen_pattern_expr (ops, op0, op1, op2,
10987 : : target, unsignedp);
10988 : 236 : return target;
10989 : : }
10990 : :
10991 : 108 : case SAD_EXPR:
10992 : 108 : {
10993 : 108 : tree oprnd0 = treeop0;
10994 : 108 : tree oprnd1 = treeop1;
10995 : 108 : tree oprnd2 = treeop2;
10996 : :
10997 : 108 : expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
10998 : 108 : op2 = expand_normal (oprnd2);
10999 : 108 : target = expand_widen_pattern_expr (ops, op0, op1, op2,
11000 : : target, unsignedp);
11001 : 108 : return target;
11002 : : }
11003 : :
11004 : 0 : case REALIGN_LOAD_EXPR:
11005 : 0 : {
11006 : 0 : tree oprnd0 = treeop0;
11007 : 0 : tree oprnd1 = treeop1;
11008 : 0 : tree oprnd2 = treeop2;
11009 : :
11010 : 0 : this_optab = optab_for_tree_code (code, type, optab_default);
11011 : 0 : expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
11012 : 0 : op2 = expand_normal (oprnd2);
11013 : 0 : temp = expand_ternary_op (mode, this_optab, op0, op1, op2,
11014 : : target, unsignedp);
11015 : 0 : gcc_assert (temp);
11016 : : return temp;
11017 : : }
11018 : :
11019 : 16915 : case COND_EXPR:
11020 : 16915 : {
11021 : : /* A COND_EXPR with its type being VOID_TYPE represents a
11022 : : conditional jump and is handled in
11023 : : expand_gimple_cond_expr. */
11024 : 16915 : gcc_assert (!VOID_TYPE_P (type));
11025 : :
11026 : : /* Note that COND_EXPRs whose type is a structure or union
11027 : : are required to be constructed to contain assignments of
11028 : : a temporary variable, so that we can evaluate them here
11029 : : for side effect only. If type is void, we must do likewise. */
11030 : :
11031 : 16915 : gcc_assert (!TREE_ADDRESSABLE (type)
11032 : : && !ignore
11033 : : && TREE_TYPE (treeop1) != void_type_node
11034 : : && TREE_TYPE (treeop2) != void_type_node);
11035 : :
11036 : 16915 : temp = expand_cond_expr_using_cmove (treeop0, treeop1, treeop2);
11037 : 16915 : if (temp)
11038 : : return temp;
11039 : :
11040 : : /* If we are not to produce a result, we have no target. Otherwise,
11041 : : if a target was specified use it; it will not be used as an
11042 : : intermediate target unless it is safe. If no target, use a
11043 : : temporary. */
11044 : :
11045 : 3552 : if (modifier != EXPAND_STACK_PARM
11046 : 3552 : && original_target
11047 : 1967 : && safe_from_p (original_target, treeop0, 1)
11048 : 0 : && GET_MODE (original_target) == mode
11049 : 3552 : && !MEM_P (original_target))
11050 : : temp = original_target;
11051 : : else
11052 : 3552 : temp = assign_temp (type, 0, 1);
11053 : :
11054 : 3552 : do_pending_stack_adjust ();
11055 : 3552 : NO_DEFER_POP;
11056 : 3552 : rtx_code_label *lab0 = gen_label_rtx ();
11057 : 3552 : rtx_code_label *lab1 = gen_label_rtx ();
11058 : 3552 : jumpifnot (treeop0, lab0,
11059 : : profile_probability::uninitialized ());
11060 : 3552 : store_expr (treeop1, temp,
11061 : : modifier == EXPAND_STACK_PARM,
11062 : : false, false);
11063 : :
11064 : 3552 : emit_jump_insn (targetm.gen_jump (lab1));
11065 : 3552 : emit_barrier ();
11066 : 3552 : emit_label (lab0);
11067 : 3552 : store_expr (treeop2, temp,
11068 : : modifier == EXPAND_STACK_PARM,
11069 : : false, false);
11070 : :
11071 : 3552 : emit_label (lab1);
11072 : 3552 : OK_DEFER_POP;
11073 : 3552 : return temp;
11074 : : }
11075 : :
11076 : 0 : case VEC_DUPLICATE_EXPR:
11077 : 0 : op0 = expand_expr (treeop0, NULL_RTX, VOIDmode, modifier);
11078 : 0 : target = expand_vector_broadcast (mode, op0);
11079 : 0 : gcc_assert (target);
11080 : : return target;
11081 : :
11082 : 0 : case VEC_SERIES_EXPR:
11083 : 0 : expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1, modifier);
11084 : 0 : return expand_vec_series_expr (mode, op0, op1, target);
11085 : :
11086 : 835 : case BIT_INSERT_EXPR:
11087 : 835 : {
11088 : 835 : unsigned bitpos = tree_to_uhwi (treeop2);
11089 : 835 : unsigned bitsize;
11090 : 835 : if (INTEGRAL_TYPE_P (TREE_TYPE (treeop1)))
11091 : 530 : bitsize = TYPE_PRECISION (TREE_TYPE (treeop1));
11092 : : else
11093 : 305 : bitsize = tree_to_uhwi (TYPE_SIZE (TREE_TYPE (treeop1)));
11094 : 835 : op0 = expand_normal (treeop0);
11095 : 835 : op1 = expand_normal (treeop1);
11096 : 835 : rtx dst = gen_reg_rtx (mode);
11097 : 835 : emit_move_insn (dst, op0);
11098 : 835 : store_bit_field (dst, bitsize, bitpos, 0, 0,
11099 : 835 : TYPE_MODE (TREE_TYPE (treeop1)), op1, false, false);
11100 : 835 : return dst;
11101 : : }
11102 : :
11103 : 0 : default:
11104 : 0 : gcc_unreachable ();
11105 : : }
11106 : :
11107 : : /* Here to do an ordinary binary operator. */
11108 : 1083825 : binop:
11109 : 1083825 : expand_operands (treeop0, treeop1,
11110 : : subtarget, &op0, &op1, EXPAND_NORMAL);
11111 : 5184964 : binop2:
11112 : 5184964 : this_optab = optab_for_tree_code (code, type, optab_default);
11113 : 5184964 : binop3:
11114 : 5184964 : if (modifier == EXPAND_STACK_PARM)
11115 : 25032 : target = 0;
11116 : 5184964 : temp = expand_binop (mode, this_optab, op0, op1, target,
11117 : : unsignedp, OPTAB_LIB_WIDEN);
11118 : 5184964 : gcc_assert (temp);
11119 : : /* Bitwise operations do not need bitfield reduction as we expect their
11120 : : operands being properly truncated. */
11121 : 5184964 : if (code == BIT_XOR_EXPR
11122 : : || code == BIT_AND_EXPR
11123 : 5184964 : || code == BIT_IOR_EXPR)
11124 : : return temp;
11125 : 4596155 : return REDUCE_BIT_FIELD (temp);
11126 : : }
11127 : : #undef REDUCE_BIT_FIELD
11128 : :
11129 : :
11130 : : /* Return TRUE if expression STMT is suitable for replacement.
11131 : : Never consider memory loads as replaceable, because those don't ever lead
11132 : : into constant expressions. */
11133 : :
11134 : : static bool
11135 : 8 : stmt_is_replaceable_p (gimple *stmt)
11136 : : {
11137 : 8 : if (ssa_is_replaceable_p (stmt))
11138 : : {
11139 : : /* Don't move around loads. */
11140 : 7 : if (!gimple_assign_single_p (stmt)
11141 : 7 : || is_gimple_val (gimple_assign_rhs1 (stmt)))
11142 : 6 : return true;
11143 : : }
11144 : : return false;
11145 : : }
11146 : :
11147 : : /* A subroutine of expand_expr_real_1. Expand gimple assignment G,
11148 : : which is known to set an SSA_NAME result. The other arguments are
11149 : : as for expand_expr_real_1. */
11150 : :
11151 : : rtx
11152 : 13635055 : expand_expr_real_gassign (gassign *g, rtx target, machine_mode tmode,
11153 : : enum expand_modifier modifier, rtx *alt_rtl,
11154 : : bool inner_reference_p)
11155 : : {
11156 : 13635055 : separate_ops ops;
11157 : 13635055 : rtx r;
11158 : 13635055 : location_t saved_loc = curr_insn_location ();
11159 : 13635055 : auto loc = gimple_location (g);
11160 : 13635055 : if (loc != UNKNOWN_LOCATION)
11161 : 10886284 : set_curr_insn_location (loc);
11162 : 13635055 : tree lhs = gimple_assign_lhs (g);
11163 : 13635055 : ops.code = gimple_assign_rhs_code (g);
11164 : 13635055 : ops.type = TREE_TYPE (lhs);
11165 : 13635055 : switch (get_gimple_rhs_class (ops.code))
11166 : : {
11167 : 80979 : case GIMPLE_TERNARY_RHS:
11168 : 161958 : ops.op2 = gimple_assign_rhs3 (g);
11169 : : /* Fallthru */
11170 : 7171495 : case GIMPLE_BINARY_RHS:
11171 : 7171495 : ops.op1 = gimple_assign_rhs2 (g);
11172 : :
11173 : : /* Try to expand conditonal compare. */
11174 : 7171495 : if (targetm.have_ccmp ())
11175 : : {
11176 : 977 : gcc_checking_assert (targetm.gen_ccmp_next != NULL);
11177 : 977 : r = expand_ccmp_expr (g, TYPE_MODE (ops.type));
11178 : 977 : if (r)
11179 : : break;
11180 : : }
11181 : : /* Fallthru */
11182 : 10458338 : case GIMPLE_UNARY_RHS:
11183 : 10458338 : ops.op0 = gimple_assign_rhs1 (g);
11184 : 10458338 : ops.location = loc;
11185 : 10458338 : r = expand_expr_real_2 (&ops, target, tmode, modifier);
11186 : 10458338 : break;
11187 : 3176699 : case GIMPLE_SINGLE_RHS:
11188 : 3176699 : {
11189 : 3176699 : r = expand_expr_real (gimple_assign_rhs1 (g), target,
11190 : : tmode, modifier, alt_rtl,
11191 : : inner_reference_p);
11192 : 3176699 : break;
11193 : : }
11194 : 0 : default:
11195 : 0 : gcc_unreachable ();
11196 : : }
11197 : 13635055 : set_curr_insn_location (saved_loc);
11198 : 13635055 : if (REG_P (r) && !REG_EXPR (r))
11199 : 3470737 : set_reg_attrs_for_decl_rtl (lhs, r);
11200 : 13635055 : return r;
11201 : : }
11202 : :
11203 : : rtx
11204 : 145815722 : expand_expr_real_1 (tree exp, rtx target, machine_mode tmode,
11205 : : enum expand_modifier modifier, rtx *alt_rtl,
11206 : : bool inner_reference_p)
11207 : : {
11208 : 145815722 : rtx op0, op1, temp, decl_rtl;
11209 : 145815722 : tree type;
11210 : 145815722 : int unsignedp;
11211 : 145815722 : machine_mode mode, dmode;
11212 : 145815722 : enum tree_code code = TREE_CODE (exp);
11213 : 145815722 : rtx subtarget, original_target;
11214 : 145815722 : int ignore;
11215 : 145815722 : bool reduce_bit_field;
11216 : 145815722 : location_t loc = EXPR_LOCATION (exp);
11217 : 145815722 : struct separate_ops ops;
11218 : 145815722 : tree treeop0, treeop1, treeop2;
11219 : 145815722 : tree ssa_name = NULL_TREE;
11220 : 145815722 : gimple *g;
11221 : :
11222 : : /* Some ABIs define padding bits in _BitInt uninitialized. Normally, RTL
11223 : : expansion sign/zero extends integral types with less than mode precision
11224 : : when reading from bit-fields and after arithmetic operations (see
11225 : : REDUCE_BIT_FIELD in expand_expr_real_2) and on subsequent loads relies
11226 : : on those extensions to have been already performed, but because of the
11227 : : above for _BitInt they need to be sign/zero extended when reading from
11228 : : locations that could be exposed to ABI boundaries (when loading from
11229 : : objects in memory, or function arguments, return value). Because we
11230 : : internally extend after arithmetic operations, we can avoid doing that
11231 : : when reading from SSA_NAMEs of vars. */
11232 : : #define EXTEND_BITINT(expr) \
11233 : : ((TREE_CODE (type) == BITINT_TYPE \
11234 : : && reduce_bit_field \
11235 : : && mode != BLKmode \
11236 : : && modifier != EXPAND_MEMORY \
11237 : : && modifier != EXPAND_WRITE \
11238 : : && modifier != EXPAND_INITIALIZER \
11239 : : && modifier != EXPAND_CONST_ADDRESS) \
11240 : : ? reduce_to_bit_field_precision ((expr), NULL_RTX, type) : (expr))
11241 : :
11242 : 145815722 : type = TREE_TYPE (exp);
11243 : 145815722 : mode = TYPE_MODE (type);
11244 : 145815722 : unsignedp = TYPE_UNSIGNED (type);
11245 : :
11246 : 145815722 : treeop0 = treeop1 = treeop2 = NULL_TREE;
11247 : 145815722 : if (!VL_EXP_CLASS_P (exp))
11248 : 139520190 : switch (TREE_CODE_LENGTH (code))
11249 : : {
11250 : 5304286 : default:
11251 : 5304286 : case 3: treeop2 = TREE_OPERAND (exp, 2); /* FALLTHRU */
11252 : 12366186 : case 2: treeop1 = TREE_OPERAND (exp, 1); /* FALLTHRU */
11253 : 25890261 : case 1: treeop0 = TREE_OPERAND (exp, 0); /* FALLTHRU */
11254 : : case 0: break;
11255 : : }
11256 : 145815722 : ops.code = code;
11257 : 145815722 : ops.type = type;
11258 : 145815722 : ops.op0 = treeop0;
11259 : 145815722 : ops.op1 = treeop1;
11260 : 145815722 : ops.op2 = treeop2;
11261 : 145815722 : ops.location = loc;
11262 : :
11263 : 291631444 : ignore = (target == const0_rtx
11264 : 145815722 : || ((CONVERT_EXPR_CODE_P (code)
11265 : 141098965 : || code == COND_EXPR || code == VIEW_CONVERT_EXPR)
11266 : 900686 : && TREE_CODE (type) == VOID_TYPE));
11267 : :
11268 : : /* An operation in what may be a bit-field type needs the
11269 : : result to be reduced to the precision of the bit-field type,
11270 : : which is narrower than that of the type's mode. */
11271 : 291631155 : reduce_bit_field = (!ignore
11272 : 141675352 : && INTEGRAL_TYPE_P (type)
11273 : 74162365 : && !type_has_mode_precision_p (type));
11274 : :
11275 : : /* If we are going to ignore this result, we need only do something
11276 : : if there is a side-effect somewhere in the expression. If there
11277 : : is, short-circuit the most common cases here. Note that we must
11278 : : not call expand_expr with anything but const0_rtx in case this
11279 : : is an initial expansion of a size that contains a PLACEHOLDER_EXPR. */
11280 : :
11281 : 4140370 : if (ignore)
11282 : : {
11283 : 4140370 : if (! TREE_SIDE_EFFECTS (exp))
11284 : : return const0_rtx;
11285 : :
11286 : : /* Ensure we reference a volatile object even if value is ignored, but
11287 : : don't do this if all we are doing is taking its address. */
11288 : 4140081 : if (TREE_THIS_VOLATILE (exp)
11289 : 0 : && TREE_CODE (exp) != FUNCTION_DECL
11290 : 0 : && mode != VOIDmode && mode != BLKmode
11291 : 0 : && modifier != EXPAND_CONST_ADDRESS)
11292 : : {
11293 : 0 : temp = expand_expr (exp, NULL_RTX, VOIDmode, modifier);
11294 : 0 : if (MEM_P (temp))
11295 : 0 : copy_to_reg (temp);
11296 : 0 : return const0_rtx;
11297 : : }
11298 : :
11299 : 4140081 : if (TREE_CODE_CLASS (code) == tcc_unary
11300 : : || code == BIT_FIELD_REF
11301 : 4140081 : || code == COMPONENT_REF
11302 : 4140081 : || code == INDIRECT_REF)
11303 : 0 : return expand_expr (treeop0, const0_rtx, VOIDmode,
11304 : 0 : modifier);
11305 : :
11306 : 4140081 : else if (TREE_CODE_CLASS (code) == tcc_binary
11307 : 4140081 : || TREE_CODE_CLASS (code) == tcc_comparison
11308 : 4140081 : || code == ARRAY_REF || code == ARRAY_RANGE_REF)
11309 : : {
11310 : 0 : expand_expr (treeop0, const0_rtx, VOIDmode, modifier);
11311 : 0 : expand_expr (treeop1, const0_rtx, VOIDmode, modifier);
11312 : 0 : return const0_rtx;
11313 : : }
11314 : :
11315 : : target = 0;
11316 : : }
11317 : :
11318 : 145815433 : if (reduce_bit_field && modifier == EXPAND_STACK_PARM)
11319 : 29902 : target = 0;
11320 : :
11321 : : /* Use subtarget as the target for operand 0 of a binary operation. */
11322 : 145815433 : subtarget = get_subtarget (target);
11323 : 145815433 : original_target = target;
11324 : :
11325 : 145815433 : switch (code)
11326 : : {
11327 : 10792 : case LABEL_DECL:
11328 : 10792 : {
11329 : 10792 : tree function = decl_function_context (exp);
11330 : :
11331 : 10792 : temp = label_rtx (exp);
11332 : 10792 : temp = gen_rtx_LABEL_REF (Pmode, temp);
11333 : :
11334 : 10792 : if (function != current_function_decl
11335 : 1262 : && function != 0)
11336 : 1262 : LABEL_REF_NONLOCAL_P (temp) = 1;
11337 : :
11338 : 10792 : temp = gen_rtx_MEM (FUNCTION_MODE, temp);
11339 : 10792 : return temp;
11340 : : }
11341 : :
11342 : 52107719 : case SSA_NAME:
11343 : : /* ??? ivopts calls expander, without any preparation from
11344 : : out-of-ssa. So fake instructions as if this was an access to the
11345 : : base variable. This unnecessarily allocates a pseudo, see how we can
11346 : : reuse it, if partition base vars have it set already. */
11347 : 52107719 : if (!currently_expanding_to_rtl)
11348 : : {
11349 : 0 : tree var = SSA_NAME_VAR (exp);
11350 : 0 : if (var && DECL_RTL_SET_P (var))
11351 : 0 : return DECL_RTL (var);
11352 : 0 : return gen_raw_REG (TYPE_MODE (TREE_TYPE (exp)),
11353 : 0 : LAST_VIRTUAL_REGISTER + 1);
11354 : : }
11355 : :
11356 : 52107719 : g = get_gimple_for_ssa_name (exp);
11357 : : /* For EXPAND_INITIALIZER try harder to get something simpler. */
11358 : 52107719 : if (g == NULL
11359 : 52107719 : && modifier == EXPAND_INITIALIZER
11360 : 26 : && !SSA_NAME_IS_DEFAULT_DEF (exp)
11361 : 11 : && (optimize || !SSA_NAME_VAR (exp)
11362 : 1 : || DECL_IGNORED_P (SSA_NAME_VAR (exp)))
11363 : 10 : && is_gimple_assign (SSA_NAME_DEF_STMT (exp))
11364 : 52107727 : && stmt_is_replaceable_p (SSA_NAME_DEF_STMT (exp)))
11365 : 6 : g = SSA_NAME_DEF_STMT (exp);
11366 : 52107719 : if (safe_is_a <gassign *> (g))
11367 : 8170932 : return expand_expr_real_gassign (as_a<gassign *> (g), target, tmode,
11368 : 8170932 : modifier, alt_rtl, inner_reference_p);
11369 : 43936787 : else if (safe_is_a <gcall *> (g))
11370 : : {
11371 : : /* ??? internal call expansion doesn't follow the usual API
11372 : : of returning the destination RTX and being passed a desired
11373 : : target. */
11374 : 39518 : rtx dest = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
11375 : 39518 : tree tmplhs = make_tree (TREE_TYPE (exp), dest);
11376 : 39518 : gimple_call_set_lhs (g, tmplhs);
11377 : 39518 : expand_internal_call (as_a <gcall *> (g));
11378 : 39518 : gimple_call_set_lhs (g, exp);
11379 : 39518 : return dest;
11380 : : }
11381 : :
11382 : 43897269 : ssa_name = exp;
11383 : 43897269 : decl_rtl = get_rtx_for_ssa_name (ssa_name);
11384 : 43897269 : exp = SSA_NAME_VAR (ssa_name);
11385 : : /* Optimize and avoid to EXTEND_BITINIT doing anything if it is an
11386 : : SSA_NAME computed within the current function. In such case the
11387 : : value have been already extended before. While if it is a function
11388 : : parameter, result or some memory location, we need to be prepared
11389 : : for some other compiler leaving the bits uninitialized. */
11390 : 17213184 : if (!exp || VAR_P (exp))
11391 : : reduce_bit_field = false;
11392 : 43897269 : goto expand_decl_rtl;
11393 : :
11394 : 18932238 : case VAR_DECL:
11395 : : /* Allow accel compiler to handle variables that require special
11396 : : treatment, e.g. if they have been modified in some way earlier in
11397 : : compilation by the adjust_private_decl OpenACC hook. */
11398 : 18932238 : if (flag_openacc && targetm.goacc.expand_var_decl)
11399 : : {
11400 : 0 : temp = targetm.goacc.expand_var_decl (exp);
11401 : 0 : if (temp)
11402 : : return temp;
11403 : : }
11404 : : /* Expand const VAR_DECLs with CONSTRUCTOR initializers that
11405 : : have scalar integer modes to a reg via store_constructor. */
11406 : 18932238 : if (TREE_READONLY (exp)
11407 : 3331094 : && !TREE_SIDE_EFFECTS (exp)
11408 : 3308680 : && (modifier == EXPAND_NORMAL || modifier == EXPAND_STACK_PARM)
11409 : 14905 : && immediate_const_ctor_p (DECL_INITIAL (exp))
11410 : 89 : && SCALAR_INT_MODE_P (TYPE_MODE (TREE_TYPE (exp)))
11411 : 57 : && crtl->emit.regno_pointer_align_length
11412 : 18932295 : && !target)
11413 : : {
11414 : 31 : target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
11415 : 31 : store_constructor (DECL_INITIAL (exp), target, 0,
11416 : 31 : int_expr_size (DECL_INITIAL (exp)), false);
11417 : 31 : return target;
11418 : : }
11419 : : /* ... fall through ... */
11420 : :
11421 : 19516130 : case PARM_DECL:
11422 : : /* If a static var's type was incomplete when the decl was written,
11423 : : but the type is complete now, lay out the decl now. */
11424 : 19516130 : if (DECL_SIZE (exp) == 0
11425 : 42508 : && COMPLETE_OR_UNBOUND_ARRAY_TYPE_P (TREE_TYPE (exp))
11426 : 19558529 : && (TREE_STATIC (exp) || DECL_EXTERNAL (exp)))
11427 : 42399 : layout_decl (exp, 0);
11428 : :
11429 : : /* fall through */
11430 : :
11431 : 20918452 : case FUNCTION_DECL:
11432 : 20918452 : case RESULT_DECL:
11433 : 20918452 : decl_rtl = DECL_RTL (exp);
11434 : 64815721 : expand_decl_rtl:
11435 : 64815721 : gcc_assert (decl_rtl);
11436 : :
11437 : : /* DECL_MODE might change when TYPE_MODE depends on attribute target
11438 : : settings for VECTOR_TYPE_P that might switch for the function. */
11439 : 64815721 : if (currently_expanding_to_rtl
11440 : 61178367 : && code == VAR_DECL && MEM_P (decl_rtl)
11441 : 78803049 : && VECTOR_TYPE_P (type) && exp && DECL_MODE (exp) != mode)
11442 : 57 : decl_rtl = change_address (decl_rtl, TYPE_MODE (type), 0);
11443 : : else
11444 : 64815664 : decl_rtl = copy_rtx (decl_rtl);
11445 : :
11446 : : /* Record writes to register variables. */
11447 : 64815721 : if (modifier == EXPAND_WRITE
11448 : 20663548 : && REG_P (decl_rtl)
11449 : 79847307 : && HARD_REGISTER_P (decl_rtl))
11450 : 2024 : add_to_hard_reg_set (&crtl->asm_clobbers,
11451 : 2024 : GET_MODE (decl_rtl), REGNO (decl_rtl));
11452 : :
11453 : : /* Ensure variable marked as used even if it doesn't go through
11454 : : a parser. If it hasn't be used yet, write out an external
11455 : : definition. */
11456 : 64815721 : if (exp)
11457 : 38131636 : TREE_USED (exp) = 1;
11458 : :
11459 : : /* Show we haven't gotten RTL for this yet. */
11460 : 102947357 : temp = 0;
11461 : :
11462 : : /* Variables inherited from containing functions should have
11463 : : been lowered by this point. */
11464 : 38131636 : if (exp)
11465 : : {
11466 : 38131636 : tree context = decl_function_context (exp);
11467 : 38131636 : gcc_assert (SCOPE_FILE_SCOPE_P (context)
11468 : : || context == current_function_decl
11469 : : || TREE_STATIC (exp)
11470 : : || DECL_EXTERNAL (exp)
11471 : : /* ??? C++ creates functions that are not
11472 : : TREE_STATIC. */
11473 : : || TREE_CODE (exp) == FUNCTION_DECL);
11474 : : }
11475 : :
11476 : : /* This is the case of an array whose size is to be determined
11477 : : from its initializer, while the initializer is still being parsed.
11478 : : ??? We aren't parsing while expanding anymore. */
11479 : :
11480 : 64815721 : if (MEM_P (decl_rtl) && REG_P (XEXP (decl_rtl, 0)))
11481 : 384946 : temp = validize_mem (decl_rtl);
11482 : :
11483 : : /* If DECL_RTL is memory, we are in the normal case and the
11484 : : address is not valid, get the address into a register. */
11485 : :
11486 : 64430775 : else if (MEM_P (decl_rtl) && modifier != EXPAND_INITIALIZER)
11487 : : {
11488 : 17749322 : if (alt_rtl)
11489 : 2014407 : *alt_rtl = decl_rtl;
11490 : 17749322 : decl_rtl = use_anchored_address (decl_rtl);
11491 : 17749322 : if (modifier != EXPAND_CONST_ADDRESS
11492 : 17749322 : && modifier != EXPAND_SUM
11493 : 29668090 : && !memory_address_addr_space_p (exp ? DECL_MODE (exp)
11494 : 16947 : : GET_MODE (decl_rtl),
11495 : : XEXP (decl_rtl, 0),
11496 : 11918768 : MEM_ADDR_SPACE (decl_rtl)))
11497 : 133746 : temp = replace_equiv_address (decl_rtl,
11498 : : copy_rtx (XEXP (decl_rtl, 0)));
11499 : : }
11500 : :
11501 : : /* If we got something, return it. But first, set the alignment
11502 : : if the address is a register. */
11503 : 18134268 : if (temp != 0)
11504 : : {
11505 : 518692 : if (exp && MEM_P (temp) && REG_P (XEXP (temp, 0)))
11506 : 489274 : mark_reg_pointer (XEXP (temp, 0), DECL_ALIGN (exp));
11507 : : }
11508 : 64297029 : else if (MEM_P (decl_rtl))
11509 : : temp = decl_rtl;
11510 : :
11511 : 43690051 : if (temp != 0)
11512 : : {
11513 : 21614954 : if (MEM_P (temp)
11514 : : && modifier != EXPAND_WRITE
11515 : 21614954 : && modifier != EXPAND_MEMORY
11516 : : && modifier != EXPAND_INITIALIZER
11517 : 15877673 : && modifier != EXPAND_CONST_ADDRESS
11518 : 6722858 : && modifier != EXPAND_SUM
11519 : 6722858 : && !inner_reference_p
11520 : 4371188 : && mode != BLKmode
11521 : 25618850 : && MEM_ALIGN (temp) < GET_MODE_ALIGNMENT (mode))
11522 : 18571 : temp = expand_misaligned_mem_ref (temp, mode, unsignedp,
11523 : 18571 : MEM_ALIGN (temp), NULL_RTX, NULL);
11524 : :
11525 : 21614954 : return EXTEND_BITINT (temp);
11526 : : }
11527 : :
11528 : 43200767 : if (exp)
11529 : 16533639 : dmode = DECL_MODE (exp);
11530 : : else
11531 : 26667128 : dmode = TYPE_MODE (TREE_TYPE (ssa_name));
11532 : :
11533 : : /* If the mode of DECL_RTL does not match that of the decl,
11534 : : there are two cases: we are dealing with a BLKmode value
11535 : : that is returned in a register, or we are dealing with
11536 : : a promoted value. In the latter case, return a SUBREG
11537 : : of the wanted mode, but mark it so that we know that it
11538 : : was already extended. */
11539 : 43200767 : if (REG_P (decl_rtl)
11540 : 42686244 : && dmode != BLKmode
11541 : 42686244 : && GET_MODE (decl_rtl) != dmode)
11542 : : {
11543 : 69 : machine_mode pmode;
11544 : :
11545 : : /* Get the signedness to be used for this variable. Ensure we get
11546 : : the same mode we got when the variable was declared. */
11547 : 69 : if (code != SSA_NAME)
11548 : 0 : pmode = promote_decl_mode (exp, &unsignedp);
11549 : 69 : else if ((g = SSA_NAME_DEF_STMT (ssa_name))
11550 : 69 : && gimple_code (g) == GIMPLE_CALL
11551 : 71 : && !gimple_call_internal_p (g))
11552 : 2 : pmode = promote_function_mode (type, mode, &unsignedp,
11553 : 2 : gimple_call_fntype (g),
11554 : : 2);
11555 : : else
11556 : 67 : pmode = promote_ssa_mode (ssa_name, &unsignedp);
11557 : 69 : gcc_assert (GET_MODE (decl_rtl) == pmode);
11558 : :
11559 : : /* Some ABIs require scalar floating point modes to be passed
11560 : : in a wider scalar integer mode. We need to explicitly
11561 : : truncate to an integer mode of the correct precision before
11562 : : using a SUBREG to reinterpret as a floating point value. */
11563 : 69 : if (SCALAR_FLOAT_MODE_P (mode)
11564 : 0 : && SCALAR_INT_MODE_P (pmode)
11565 : 69 : && known_lt (GET_MODE_SIZE (mode), GET_MODE_SIZE (pmode)))
11566 : 0 : return convert_wider_int_to_float (mode, pmode, decl_rtl);
11567 : :
11568 : 69 : temp = gen_lowpart_SUBREG (mode, decl_rtl);
11569 : 69 : SUBREG_PROMOTED_VAR_P (temp) = 1;
11570 : 69 : SUBREG_PROMOTED_SET (temp, unsignedp);
11571 : 69 : return EXTEND_BITINT (temp);
11572 : : }
11573 : :
11574 : 43200698 : return EXTEND_BITINT (decl_rtl);
11575 : :
11576 : 38883075 : case INTEGER_CST:
11577 : 38883075 : {
11578 : 38883075 : if (TREE_CODE (type) == BITINT_TYPE)
11579 : : {
11580 : 10232 : unsigned int prec = TYPE_PRECISION (type);
11581 : 10232 : struct bitint_info info;
11582 : 10232 : bool ok = targetm.c.bitint_type_info (prec, &info);
11583 : 10232 : gcc_assert (ok);
11584 : 10232 : scalar_int_mode limb_mode
11585 : 10232 : = as_a <scalar_int_mode> (info.limb_mode);
11586 : 10232 : unsigned int limb_prec = GET_MODE_PRECISION (limb_mode);
11587 : 16920 : if (prec > limb_prec && prec > MAX_FIXED_MODE_SIZE)
11588 : : {
11589 : : /* Emit large/huge _BitInt INTEGER_CSTs into memory. */
11590 : 4268 : exp = tree_output_constant_def (exp);
11591 : 4268 : return expand_expr (exp, target, VOIDmode, modifier);
11592 : : }
11593 : : }
11594 : :
11595 : : /* Given that TYPE_PRECISION (type) is not always equal to
11596 : : GET_MODE_PRECISION (TYPE_MODE (type)), we need to extend from
11597 : : the former to the latter according to the signedness of the
11598 : : type. */
11599 : 38878807 : scalar_int_mode int_mode = SCALAR_INT_TYPE_MODE (type);
11600 : 38878807 : temp = immed_wide_int_const
11601 : 38878807 : (wi::to_wide (exp, GET_MODE_PRECISION (int_mode)), int_mode);
11602 : 38878807 : return temp;
11603 : : }
11604 : :
11605 : 524163 : case VECTOR_CST:
11606 : 524163 : {
11607 : 524163 : tree tmp = NULL_TREE;
11608 : 524163 : if (VECTOR_MODE_P (mode))
11609 : 522302 : return const_vector_from_tree (exp);
11610 : 1861 : scalar_int_mode int_mode;
11611 : 1861 : if (is_int_mode (mode, &int_mode))
11612 : : {
11613 : 183 : tree type_for_mode = lang_hooks.types.type_for_mode (int_mode, 1);
11614 : 183 : if (type_for_mode)
11615 : 183 : tmp = fold_unary_loc (loc, VIEW_CONVERT_EXPR,
11616 : : type_for_mode, exp);
11617 : : }
11618 : 183 : if (!tmp)
11619 : : {
11620 : 1678 : vec<constructor_elt, va_gc> *v;
11621 : : /* Constructors need to be fixed-length. FIXME. */
11622 : 1678 : unsigned int nunits = VECTOR_CST_NELTS (exp).to_constant ();
11623 : 1678 : vec_alloc (v, nunits);
11624 : 24229 : for (unsigned int i = 0; i < nunits; ++i)
11625 : 22551 : CONSTRUCTOR_APPEND_ELT (v, NULL_TREE, VECTOR_CST_ELT (exp, i));
11626 : 1678 : tmp = build_constructor (type, v);
11627 : : }
11628 : 1861 : return expand_expr (tmp, ignore ? const0_rtx : target,
11629 : 1861 : tmode, modifier);
11630 : : }
11631 : :
11632 : 127 : case CONST_DECL:
11633 : 127 : if (modifier == EXPAND_WRITE)
11634 : : {
11635 : : /* Writing into CONST_DECL is always invalid, but handle it
11636 : : gracefully. */
11637 : 2 : addr_space_t as = TYPE_ADDR_SPACE (TREE_TYPE (exp));
11638 : 2 : scalar_int_mode address_mode = targetm.addr_space.address_mode (as);
11639 : 2 : op0 = expand_expr_addr_expr_1 (exp, NULL_RTX, address_mode,
11640 : : EXPAND_NORMAL, as);
11641 : 2 : op0 = memory_address_addr_space (mode, op0, as);
11642 : 2 : temp = gen_rtx_MEM (mode, op0);
11643 : 2 : set_mem_addr_space (temp, as);
11644 : 2 : return temp;
11645 : : }
11646 : 125 : return expand_expr (DECL_INITIAL (exp), target, VOIDmode, modifier);
11647 : :
11648 : 849409 : case REAL_CST:
11649 : : /* If optimized, generate immediate CONST_DOUBLE
11650 : : which will be turned into memory by reload if necessary.
11651 : :
11652 : : We used to force a register so that loop.c could see it. But
11653 : : this does not allow gen_* patterns to perform optimizations with
11654 : : the constants. It also produces two insns in cases like "x = 1.0;".
11655 : : On most machines, floating-point constants are not permitted in
11656 : : many insns, so we'd end up copying it to a register in any case.
11657 : :
11658 : : Now, we do the copying in expand_binop, if appropriate. */
11659 : 849409 : return const_double_from_real_value (TREE_REAL_CST (exp),
11660 : 1698818 : TYPE_MODE (TREE_TYPE (exp)));
11661 : :
11662 : 0 : case FIXED_CST:
11663 : 0 : return CONST_FIXED_FROM_FIXED_VALUE (TREE_FIXED_CST (exp),
11664 : : TYPE_MODE (TREE_TYPE (exp)));
11665 : :
11666 : 18354 : case COMPLEX_CST:
11667 : : /* Handle evaluating a complex constant in a CONCAT target. */
11668 : 18354 : if (original_target && GET_CODE (original_target) == CONCAT)
11669 : : {
11670 : 218 : rtx rtarg, itarg;
11671 : :
11672 : 218 : mode = TYPE_MODE (TREE_TYPE (TREE_TYPE (exp)));
11673 : 218 : rtarg = XEXP (original_target, 0);
11674 : 218 : itarg = XEXP (original_target, 1);
11675 : :
11676 : : /* Move the real and imaginary parts separately. */
11677 : 218 : op0 = expand_expr (TREE_REALPART (exp), rtarg, mode, EXPAND_NORMAL);
11678 : 218 : op1 = expand_expr (TREE_IMAGPART (exp), itarg, mode, EXPAND_NORMAL);
11679 : :
11680 : 218 : if (op0 != rtarg)
11681 : 218 : emit_move_insn (rtarg, op0);
11682 : 218 : if (op1 != itarg)
11683 : 218 : emit_move_insn (itarg, op1);
11684 : :
11685 : 218 : return original_target;
11686 : : }
11687 : :
11688 : : /* fall through */
11689 : :
11690 : 155351 : case STRING_CST:
11691 : 155351 : temp = expand_expr_constant (exp, 1, modifier);
11692 : :
11693 : : /* temp contains a constant address.
11694 : : On RISC machines where a constant address isn't valid,
11695 : : make some insns to get that address into a register. */
11696 : 155351 : if (modifier != EXPAND_CONST_ADDRESS
11697 : : && modifier != EXPAND_INITIALIZER
11698 : 155351 : && modifier != EXPAND_SUM
11699 : 173921 : && ! memory_address_addr_space_p (mode, XEXP (temp, 0),
11700 : 18570 : MEM_ADDR_SPACE (temp)))
11701 : 12 : return replace_equiv_address (temp,
11702 : 12 : copy_rtx (XEXP (temp, 0)));
11703 : : return temp;
11704 : :
11705 : 0 : case POLY_INT_CST:
11706 : 0 : return immed_wide_int_const (poly_int_cst_value (exp), mode);
11707 : :
11708 : 1333 : case SAVE_EXPR:
11709 : 1333 : {
11710 : 1333 : tree val = treeop0;
11711 : 1333 : rtx ret = expand_expr_real_1 (val, target, tmode, modifier, alt_rtl,
11712 : : inner_reference_p);
11713 : :
11714 : 1333 : if (!SAVE_EXPR_RESOLVED_P (exp))
11715 : : {
11716 : : /* We can indeed still hit this case, typically via builtin
11717 : : expanders calling save_expr immediately before expanding
11718 : : something. Assume this means that we only have to deal
11719 : : with non-BLKmode values. */
11720 : 1309 : gcc_assert (GET_MODE (ret) != BLKmode);
11721 : :
11722 : 1309 : val = build_decl (curr_insn_location (),
11723 : 1309 : VAR_DECL, NULL, TREE_TYPE (exp));
11724 : 1309 : DECL_ARTIFICIAL (val) = 1;
11725 : 1309 : DECL_IGNORED_P (val) = 1;
11726 : 1309 : treeop0 = val;
11727 : 1309 : TREE_OPERAND (exp, 0) = treeop0;
11728 : 1309 : SAVE_EXPR_RESOLVED_P (exp) = 1;
11729 : :
11730 : 1309 : if (!CONSTANT_P (ret))
11731 : 1309 : ret = copy_to_reg (ret);
11732 : 1309 : SET_DECL_RTL (val, ret);
11733 : : }
11734 : :
11735 : : return ret;
11736 : : }
11737 : :
11738 : :
11739 : 180498 : case CONSTRUCTOR:
11740 : : /* If we don't need the result, just ensure we evaluate any
11741 : : subexpressions. */
11742 : 180498 : if (ignore)
11743 : : {
11744 : : unsigned HOST_WIDE_INT idx;
11745 : : tree value;
11746 : :
11747 : 0 : FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (exp), idx, value)
11748 : 0 : expand_expr (value, const0_rtx, VOIDmode, EXPAND_NORMAL);
11749 : :
11750 : 0 : return const0_rtx;
11751 : : }
11752 : :
11753 : 180498 : return expand_constructor (exp, target, modifier, false);
11754 : :
11755 : 769628 : case TARGET_MEM_REF:
11756 : 769628 : {
11757 : 769628 : addr_space_t as
11758 : 769628 : = TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))));
11759 : 769628 : unsigned int align;
11760 : :
11761 : 769628 : op0 = addr_for_mem_ref (exp, as, true);
11762 : 769628 : op0 = memory_address_addr_space (mode, op0, as);
11763 : 769628 : temp = gen_rtx_MEM (mode, op0);
11764 : 769628 : set_mem_attributes (temp, exp, 0);
11765 : 769628 : set_mem_addr_space (temp, as);
11766 : 769628 : align = get_object_alignment (exp);
11767 : 769628 : if (modifier != EXPAND_WRITE
11768 : 769628 : && modifier != EXPAND_MEMORY
11769 : 536021 : && mode != BLKmode
11770 : 1300409 : && align < GET_MODE_ALIGNMENT (mode))
11771 : 45836 : temp = expand_misaligned_mem_ref (temp, mode, unsignedp,
11772 : : align, NULL_RTX, NULL);
11773 : 769628 : return EXTEND_BITINT (temp);
11774 : : }
11775 : :
11776 : 5820527 : case MEM_REF:
11777 : 5820527 : {
11778 : 5820527 : const bool reverse = REF_REVERSE_STORAGE_ORDER (exp);
11779 : 5820527 : addr_space_t as
11780 : 5820527 : = TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))));
11781 : 5820527 : machine_mode address_mode;
11782 : 5820527 : tree base = TREE_OPERAND (exp, 0);
11783 : 5820527 : gimple *def_stmt;
11784 : 5820527 : unsigned align;
11785 : : /* Handle expansion of non-aliased memory with non-BLKmode. That
11786 : : might end up in a register. */
11787 : 5820527 : if (mem_ref_refers_to_non_mem_p (exp))
11788 : : {
11789 : 56757 : poly_int64 offset = mem_ref_offset (exp).force_shwi ();
11790 : 56757 : base = TREE_OPERAND (base, 0);
11791 : 56757 : poly_uint64 type_size;
11792 : 56757 : if (known_eq (offset, 0)
11793 : 31636 : && !reverse
11794 : 31636 : && poly_int_tree_p (TYPE_SIZE (type), &type_size)
11795 : 120029 : && known_eq (GET_MODE_BITSIZE (DECL_MODE (base)), type_size))
11796 : 13450 : return expand_expr (build1 (VIEW_CONVERT_EXPR, type, base),
11797 : 13450 : target, tmode, modifier);
11798 : 43307 : if (TYPE_MODE (type) == BLKmode)
11799 : : {
11800 : 191 : temp = assign_stack_temp (DECL_MODE (base),
11801 : 382 : GET_MODE_SIZE (DECL_MODE (base)));
11802 : 191 : store_expr (base, temp, 0, false, false);
11803 : 191 : temp = adjust_address (temp, BLKmode, offset);
11804 : 191 : set_mem_size (temp, int_size_in_bytes (type));
11805 : 191 : return temp;
11806 : : }
11807 : 43116 : exp = build3 (BIT_FIELD_REF, type, base, TYPE_SIZE (type),
11808 : : bitsize_int (offset * BITS_PER_UNIT));
11809 : 43116 : REF_REVERSE_STORAGE_ORDER (exp) = reverse;
11810 : 43116 : return expand_expr (exp, target, tmode, modifier);
11811 : : }
11812 : 5763770 : address_mode = targetm.addr_space.address_mode (as);
11813 : 5763770 : if ((def_stmt = get_def_for_expr (base, BIT_AND_EXPR)))
11814 : : {
11815 : 39 : tree mask = gimple_assign_rhs2 (def_stmt);
11816 : 39 : base = build2 (BIT_AND_EXPR, TREE_TYPE (base),
11817 : : gimple_assign_rhs1 (def_stmt), mask);
11818 : 39 : TREE_OPERAND (exp, 0) = base;
11819 : : }
11820 : 5763770 : align = get_object_alignment (exp);
11821 : 5763770 : op0 = expand_expr (base, NULL_RTX, VOIDmode, EXPAND_SUM);
11822 : 5763770 : op0 = memory_address_addr_space (mode, op0, as);
11823 : 5763770 : if (!integer_zerop (TREE_OPERAND (exp, 1)))
11824 : : {
11825 : 1641307 : rtx off = immed_wide_int_const (mem_ref_offset (exp), address_mode);
11826 : 1641307 : op0 = simplify_gen_binary (PLUS, address_mode, op0, off);
11827 : 1641307 : op0 = memory_address_addr_space (mode, op0, as);
11828 : : }
11829 : 5763770 : temp = gen_rtx_MEM (mode, op0);
11830 : 5763770 : set_mem_attributes (temp, exp, 0);
11831 : 5763770 : set_mem_addr_space (temp, as);
11832 : 5763770 : if (TREE_THIS_VOLATILE (exp))
11833 : 11253 : MEM_VOLATILE_P (temp) = 1;
11834 : 5763770 : if (modifier == EXPAND_WRITE || modifier == EXPAND_MEMORY)
11835 : : return temp;
11836 : 3528476 : if (!inner_reference_p
11837 : 1767808 : && mode != BLKmode
11838 : 5238279 : && align < GET_MODE_ALIGNMENT (mode))
11839 : 124886 : temp = expand_misaligned_mem_ref (temp, mode, unsignedp, align,
11840 : : modifier == EXPAND_STACK_PARM
11841 : : ? NULL_RTX : target, alt_rtl);
11842 : 3528476 : if (reverse)
11843 : 7 : temp = flip_storage_order (mode, temp);
11844 : 3528476 : return EXTEND_BITINT (temp);
11845 : : }
11846 : :
11847 : 587724 : case ARRAY_REF:
11848 : :
11849 : 587724 : {
11850 : 587724 : tree array = treeop0;
11851 : 587724 : tree index = treeop1;
11852 : 587724 : tree init;
11853 : :
11854 : : /* Fold an expression like: "foo"[2].
11855 : : This is not done in fold so it won't happen inside &.
11856 : : Don't fold if this is for wide characters since it's too
11857 : : difficult to do correctly and this is a very rare case. */
11858 : :
11859 : 587724 : if (modifier != EXPAND_CONST_ADDRESS
11860 : 587724 : && modifier != EXPAND_INITIALIZER
11861 : 587724 : && modifier != EXPAND_MEMORY)
11862 : : {
11863 : 587615 : tree t = fold_read_from_constant_string (exp);
11864 : :
11865 : 587615 : if (t)
11866 : 0 : return expand_expr (t, target, tmode, modifier);
11867 : : }
11868 : :
11869 : : /* If this is a constant index into a constant array,
11870 : : just get the value from the array. Handle both the cases when
11871 : : we have an explicit constructor and when our operand is a variable
11872 : : that was declared const. */
11873 : :
11874 : 587724 : if (modifier != EXPAND_CONST_ADDRESS
11875 : : && modifier != EXPAND_INITIALIZER
11876 : : && modifier != EXPAND_MEMORY
11877 : 587615 : && TREE_CODE (array) == CONSTRUCTOR
11878 : 0 : && ! TREE_SIDE_EFFECTS (array)
11879 : 587724 : && TREE_CODE (index) == INTEGER_CST)
11880 : : {
11881 : : unsigned HOST_WIDE_INT ix;
11882 : : tree field, value;
11883 : :
11884 : 0 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (array), ix,
11885 : : field, value)
11886 : 0 : if (tree_int_cst_equal (field, index))
11887 : : {
11888 : 0 : if (!TREE_SIDE_EFFECTS (value)
11889 : 0 : && TREE_CODE (value) != RAW_DATA_CST)
11890 : 0 : return expand_expr (fold (value), target, tmode, modifier);
11891 : : break;
11892 : : }
11893 : : }
11894 : :
11895 : 587724 : else if (optimize >= 1
11896 : : && modifier != EXPAND_CONST_ADDRESS
11897 : 326017 : && modifier != EXPAND_INITIALIZER
11898 : 326017 : && modifier != EXPAND_MEMORY
11899 : 325912 : && TREE_READONLY (array) && ! TREE_SIDE_EFFECTS (array)
11900 : 7611 : && TREE_CODE (index) == INTEGER_CST
11901 : 1580 : && (VAR_P (array) || TREE_CODE (array) == CONST_DECL)
11902 : 587868 : && (init = ctor_for_folding (array)) != error_mark_node)
11903 : : {
11904 : 98 : if (init == NULL_TREE)
11905 : : {
11906 : 5 : tree value = build_zero_cst (type);
11907 : 5 : if (TREE_CODE (value) == CONSTRUCTOR)
11908 : : {
11909 : : /* If VALUE is a CONSTRUCTOR, this optimization is only
11910 : : useful if this doesn't store the CONSTRUCTOR into
11911 : : memory. If it does, it is more efficient to just
11912 : : load the data from the array directly. */
11913 : 5 : rtx ret = expand_constructor (value, target,
11914 : : modifier, true);
11915 : 5 : if (ret == NULL_RTX)
11916 : : value = NULL_TREE;
11917 : : }
11918 : :
11919 : : if (value)
11920 : 0 : return expand_expr (value, target, tmode, modifier);
11921 : : }
11922 : 93 : else if (TREE_CODE (init) == CONSTRUCTOR)
11923 : : {
11924 : : unsigned HOST_WIDE_INT ix;
11925 : : tree field, value;
11926 : :
11927 : 190 : FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (init), ix,
11928 : : field, value)
11929 : 165 : if (tree_int_cst_equal (field, index))
11930 : : {
11931 : 67 : if (TREE_SIDE_EFFECTS (value)
11932 : 67 : || TREE_CODE (value) == RAW_DATA_CST)
11933 : : break;
11934 : :
11935 : 67 : if (TREE_CODE (value) == CONSTRUCTOR)
11936 : : {
11937 : : /* If VALUE is a CONSTRUCTOR, this
11938 : : optimization is only useful if
11939 : : this doesn't store the CONSTRUCTOR
11940 : : into memory. If it does, it is more
11941 : : efficient to just load the data from
11942 : : the array directly. */
11943 : 62 : rtx ret = expand_constructor (value, target,
11944 : : modifier, true);
11945 : 62 : if (ret == NULL_RTX)
11946 : : break;
11947 : : }
11948 : :
11949 : 29 : return expand_expr (fold (value), target, tmode,
11950 : 29 : modifier);
11951 : : }
11952 : : }
11953 : 1 : else if (TREE_CODE (init) == STRING_CST)
11954 : : {
11955 : 1 : tree low_bound = array_ref_low_bound (exp);
11956 : 1 : tree index1 = fold_convert_loc (loc, sizetype, treeop1);
11957 : :
11958 : : /* Optimize the special case of a zero lower bound.
11959 : :
11960 : : We convert the lower bound to sizetype to avoid problems
11961 : : with constant folding. E.g. suppose the lower bound is
11962 : : 1 and its mode is QI. Without the conversion
11963 : : (ARRAY + (INDEX - (unsigned char)1))
11964 : : becomes
11965 : : (ARRAY + (-(unsigned char)1) + INDEX)
11966 : : which becomes
11967 : : (ARRAY + 255 + INDEX). Oops! */
11968 : 1 : if (!integer_zerop (low_bound))
11969 : 0 : index1 = size_diffop_loc (loc, index1,
11970 : : fold_convert_loc (loc, sizetype,
11971 : : low_bound));
11972 : :
11973 : 1 : if (tree_fits_uhwi_p (index1)
11974 : 2 : && compare_tree_int (index1, TREE_STRING_LENGTH (init)) < 0)
11975 : : {
11976 : 0 : tree char_type = TREE_TYPE (TREE_TYPE (init));
11977 : 0 : scalar_int_mode char_mode;
11978 : :
11979 : 587695 : if (is_int_mode (TYPE_MODE (char_type), &char_mode)
11980 : 0 : && GET_MODE_SIZE (char_mode) == 1)
11981 : 0 : return gen_int_mode (TREE_STRING_POINTER (init)
11982 : 0 : [TREE_INT_CST_LOW (index1)],
11983 : : char_mode);
11984 : : }
11985 : : }
11986 : : }
11987 : : }
11988 : 587695 : goto normal_inner_ref;
11989 : :
11990 : 3652983 : case COMPONENT_REF:
11991 : 3652983 : gcc_assert (TREE_CODE (treeop0) != CONSTRUCTOR);
11992 : : /* Fall through. */
11993 : 4473191 : case BIT_FIELD_REF:
11994 : 4473191 : case ARRAY_RANGE_REF:
11995 : 3652983 : normal_inner_ref:
11996 : 4473191 : {
11997 : 4473191 : machine_mode mode1, mode2;
11998 : 4473191 : poly_int64 bitsize, bitpos, bytepos;
11999 : 4473191 : tree offset;
12000 : 4473191 : int reversep, volatilep = 0;
12001 : 4473191 : tree tem
12002 : 4473191 : = get_inner_reference (exp, &bitsize, &bitpos, &offset, &mode1,
12003 : : &unsignedp, &reversep, &volatilep);
12004 : 4473191 : rtx orig_op0, memloc;
12005 : 4473191 : bool clear_mem_expr = false;
12006 : 4473191 : bool must_force_mem;
12007 : :
12008 : : /* If we got back the original object, something is wrong. Perhaps
12009 : : we are evaluating an expression too early. In any event, don't
12010 : : infinitely recurse. */
12011 : 4473191 : gcc_assert (tem != exp);
12012 : :
12013 : : /* Make sure bitpos is not negative, this can wreak havoc later. */
12014 : 4473191 : if (maybe_lt (bitpos, 0))
12015 : : {
12016 : 256 : gcc_checking_assert (offset == NULL_TREE);
12017 : 256 : offset = size_int (bits_to_bytes_round_down (bitpos));
12018 : 256 : bitpos = num_trailing_bits (bitpos);
12019 : : }
12020 : :
12021 : : /* If we have either an offset, a BLKmode result, or a reference
12022 : : outside the underlying object, we must force it to memory.
12023 : : Such a case can occur in Ada if we have unchecked conversion
12024 : : of an expression from a scalar type to an aggregate type or
12025 : : for an ARRAY_RANGE_REF whose type is BLKmode, or if we were
12026 : : passed a partially uninitialized object or a view-conversion
12027 : : to a larger size. */
12028 : 8946382 : must_force_mem = offset != NULL_TREE
12029 : 4207213 : || mode1 == BLKmode
12030 : 8609081 : || (mode == BLKmode
12031 : 0 : && !int_mode_for_size (bitsize, 1).exists ());
12032 : :
12033 : 337301 : const enum expand_modifier tem_modifier
12034 : : = must_force_mem
12035 : : ? EXPAND_MEMORY
12036 : 4135890 : : modifier == EXPAND_SUM ? EXPAND_NORMAL : modifier;
12037 : :
12038 : : /* If TEM's type is a union of variable size, pass TARGET to the inner
12039 : : computation, since it will need a temporary and TARGET is known
12040 : : to have to do. This occurs in unchecked conversion in Ada. */
12041 : 4473191 : const rtx tem_target
12042 : 4473191 : = TREE_CODE (TREE_TYPE (tem)) == UNION_TYPE
12043 : 33543 : && COMPLETE_TYPE_P (TREE_TYPE (tem))
12044 : 33538 : && TREE_CODE (TYPE_SIZE (TREE_TYPE (tem))) != INTEGER_CST
12045 : 0 : && modifier != EXPAND_STACK_PARM
12046 : 4473191 : ? target
12047 : 4473191 : : NULL_RTX;
12048 : :
12049 : 8946382 : orig_op0 = op0
12050 : 4473191 : = expand_expr_real (tem, tem_target, VOIDmode, tem_modifier, NULL,
12051 : : true);
12052 : :
12053 : : /* If the field has a mode, we want to access it in the
12054 : : field's mode, not the computed mode.
12055 : : If a MEM has VOIDmode (external with incomplete type),
12056 : : use BLKmode for it instead. */
12057 : 4473191 : if (MEM_P (op0))
12058 : : {
12059 : 4104840 : if (mode1 != VOIDmode)
12060 : 3936800 : op0 = adjust_address (op0, mode1, 0);
12061 : 168040 : else if (GET_MODE (op0) == VOIDmode)
12062 : 0 : op0 = adjust_address (op0, BLKmode, 0);
12063 : : }
12064 : :
12065 : 4473191 : mode2
12066 : 4473191 : = CONSTANT_P (op0) ? TYPE_MODE (TREE_TYPE (tem)) : GET_MODE (op0);
12067 : :
12068 : : /* See above for the rationale. */
12069 : 8946382 : if (maybe_gt (bitpos + bitsize, GET_MODE_BITSIZE (mode2)))
12070 : 2791616 : must_force_mem = true;
12071 : :
12072 : : /* Handle CONCAT first. */
12073 : 4473191 : if (GET_CODE (op0) == CONCAT && !must_force_mem)
12074 : : {
12075 : 120 : if (known_eq (bitpos, 0)
12076 : 218 : && known_eq (bitsize, GET_MODE_BITSIZE (GET_MODE (op0)))
12077 : 106 : && COMPLEX_MODE_P (mode1)
12078 : 101 : && COMPLEX_MODE_P (GET_MODE (op0))
12079 : 423 : && (GET_MODE_PRECISION (GET_MODE_INNER (mode1))
12080 : 202 : == GET_MODE_PRECISION (GET_MODE_INNER (GET_MODE (op0)))))
12081 : : {
12082 : 101 : if (reversep)
12083 : 0 : op0 = flip_storage_order (GET_MODE (op0), op0);
12084 : 101 : if (mode1 != GET_MODE (op0))
12085 : : {
12086 : : rtx parts[2];
12087 : 0 : for (int i = 0; i < 2; i++)
12088 : : {
12089 : 0 : rtx op = read_complex_part (op0, i != 0);
12090 : 0 : if (GET_CODE (op) == SUBREG)
12091 : 0 : op = force_reg (GET_MODE (op), op);
12092 : 0 : temp = gen_lowpart_common (GET_MODE_INNER (mode1), op);
12093 : 0 : if (temp)
12094 : : op = temp;
12095 : : else
12096 : : {
12097 : 0 : if (!REG_P (op) && !MEM_P (op))
12098 : 0 : op = force_reg (GET_MODE (op), op);
12099 : 0 : op = gen_lowpart (GET_MODE_INNER (mode1), op);
12100 : : }
12101 : 0 : parts[i] = op;
12102 : : }
12103 : 0 : op0 = gen_rtx_CONCAT (mode1, parts[0], parts[1]);
12104 : : }
12105 : 101 : return op0;
12106 : : }
12107 : 19 : if (known_eq (bitpos, 0)
12108 : 16 : && known_eq (bitsize,
12109 : : GET_MODE_BITSIZE (GET_MODE (XEXP (op0, 0))))
12110 : 19 : && maybe_ne (bitsize, 0))
12111 : : {
12112 : : op0 = XEXP (op0, 0);
12113 : : mode2 = GET_MODE (op0);
12114 : : }
12115 : 19 : else if (known_eq (bitpos,
12116 : : GET_MODE_BITSIZE (GET_MODE (XEXP (op0, 0))))
12117 : 4 : && known_eq (bitsize,
12118 : : GET_MODE_BITSIZE (GET_MODE (XEXP (op0, 1))))
12119 : 0 : && maybe_ne (bitpos, 0)
12120 : 19 : && maybe_ne (bitsize, 0))
12121 : : {
12122 : 0 : op0 = XEXP (op0, 1);
12123 : 0 : bitpos = 0;
12124 : 0 : mode2 = GET_MODE (op0);
12125 : : }
12126 : : else
12127 : : /* Otherwise force into memory. */
12128 : : must_force_mem = true;
12129 : : }
12130 : :
12131 : : /* If this is a constant, put it in a register if it is a legitimate
12132 : : constant and we don't need a memory reference. */
12133 : 4473090 : if (CONSTANT_P (op0)
12134 : 45 : && mode2 != BLKmode
12135 : 45 : && targetm.legitimate_constant_p (mode2, op0)
12136 : 4473123 : && !must_force_mem)
12137 : 33 : op0 = force_reg (mode2, op0);
12138 : :
12139 : : /* Otherwise, if this is a constant, try to force it to the constant
12140 : : pool. Note that back-ends, e.g. MIPS, may refuse to do so if it
12141 : : is a legitimate constant. */
12142 : 4473057 : else if (CONSTANT_P (op0) && (memloc = force_const_mem (mode2, op0)))
12143 : 12 : op0 = validize_mem (memloc);
12144 : :
12145 : : /* Otherwise, if this is a constant or the object is not in memory
12146 : : and need be, put it there. */
12147 : 4473045 : else if (CONSTANT_P (op0) || (!MEM_P (op0) && must_force_mem))
12148 : : {
12149 : 1167 : memloc = assign_temp (TREE_TYPE (tem), 1, 1);
12150 : 1167 : emit_move_insn (memloc, op0);
12151 : 1167 : op0 = memloc;
12152 : 1167 : clear_mem_expr = true;
12153 : : }
12154 : :
12155 : 4473090 : if (offset)
12156 : : {
12157 : 265978 : machine_mode address_mode;
12158 : 265978 : rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode,
12159 : : EXPAND_SUM);
12160 : :
12161 : 265978 : gcc_assert (MEM_P (op0));
12162 : :
12163 : 265978 : address_mode = get_address_mode (op0);
12164 : 265978 : if (GET_MODE (offset_rtx) != address_mode)
12165 : : {
12166 : : /* We cannot be sure that the RTL in offset_rtx is valid outside
12167 : : of a memory address context, so force it into a register
12168 : : before attempting to convert it to the desired mode. */
12169 : 423 : offset_rtx = force_operand (offset_rtx, NULL_RTX);
12170 : 423 : offset_rtx = convert_to_mode (address_mode, offset_rtx, 0);
12171 : : }
12172 : :
12173 : : /* See the comment in expand_assignment for the rationale. */
12174 : 265978 : if (mode1 != VOIDmode
12175 : 265731 : && maybe_ne (bitpos, 0)
12176 : 68503 : && maybe_gt (bitsize, 0)
12177 : 334481 : && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
12178 : 333946 : && multiple_p (bitpos, bitsize)
12179 : 135936 : && multiple_p (bitsize, GET_MODE_ALIGNMENT (mode1))
12180 : 333946 : && MEM_ALIGN (op0) >= GET_MODE_ALIGNMENT (mode1))
12181 : : {
12182 : 67941 : op0 = adjust_address (op0, mode1, bytepos);
12183 : 67941 : bitpos = 0;
12184 : : }
12185 : :
12186 : 265978 : op0 = offset_address (op0, offset_rtx,
12187 : : highest_pow2_factor (offset));
12188 : : }
12189 : :
12190 : : /* If OFFSET is making OP0 more aligned than BIGGEST_ALIGNMENT,
12191 : : record its alignment as BIGGEST_ALIGNMENT. */
12192 : 4473090 : if (MEM_P (op0)
12193 : 4106019 : && known_eq (bitpos, 0)
12194 : 1405826 : && offset != 0
12195 : 4738340 : && is_aligning_offset (offset, tem))
12196 : 0 : set_mem_align (op0, BIGGEST_ALIGNMENT);
12197 : :
12198 : : /* Don't forget about volatility even if this is a bitfield. */
12199 : 4473090 : if (MEM_P (op0) && volatilep && ! MEM_VOLATILE_P (op0))
12200 : : {
12201 : 416 : if (op0 == orig_op0)
12202 : 123 : op0 = copy_rtx (op0);
12203 : :
12204 : 416 : MEM_VOLATILE_P (op0) = 1;
12205 : : }
12206 : :
12207 : 4473090 : if (MEM_P (op0) && TREE_CODE (tem) == FUNCTION_DECL)
12208 : : {
12209 : 6 : if (op0 == orig_op0)
12210 : 0 : op0 = copy_rtx (op0);
12211 : :
12212 : 6 : set_mem_align (op0, BITS_PER_UNIT);
12213 : : }
12214 : :
12215 : : /* In cases where an aligned union has an unaligned object
12216 : : as a field, we might be extracting a BLKmode value from
12217 : : an integer-mode (e.g., SImode) object. Handle this case
12218 : : by doing the extract into an object as wide as the field
12219 : : (which we know to be the width of a basic mode), then
12220 : : storing into memory, and changing the mode to BLKmode. */
12221 : 4473090 : if (mode1 == VOIDmode
12222 : 4246542 : || REG_P (op0) || GET_CODE (op0) == SUBREG
12223 : 3937853 : || (mode1 != BLKmode && ! direct_load[(int) mode1]
12224 : 26371 : && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
12225 : 22221 : && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT
12226 : : && modifier != EXPAND_CONST_ADDRESS
12227 : 15299 : && modifier != EXPAND_INITIALIZER
12228 : 15299 : && modifier != EXPAND_MEMORY)
12229 : : /* If the bitfield is volatile and the bitsize
12230 : : is narrower than the access size of the bitfield,
12231 : : we need to extract bitfields from the access. */
12232 : 3922554 : || (volatilep && TREE_CODE (exp) == COMPONENT_REF
12233 : 1309 : && DECL_BIT_FIELD_TYPE (TREE_OPERAND (exp, 1))
12234 : 10 : && mode1 != BLKmode
12235 : 20 : && maybe_lt (bitsize, GET_MODE_SIZE (mode1) * BITS_PER_UNIT))
12236 : : /* If the field isn't aligned enough to fetch as a memref,
12237 : : fetch it as a bit field. */
12238 : 3922545 : || (mode1 != BLKmode
12239 : 3850419 : && (((MEM_P (op0)
12240 : 3850419 : ? MEM_ALIGN (op0) < GET_MODE_ALIGNMENT (mode1)
12241 : 7561067 : || !multiple_p (bitpos, GET_MODE_ALIGNMENT (mode1))
12242 : 0 : : TYPE_ALIGN (TREE_TYPE (tem)) < GET_MODE_ALIGNMENT (mode)
12243 : 0 : || !multiple_p (bitpos, GET_MODE_ALIGNMENT (mode)))
12244 : 72435 : && modifier != EXPAND_MEMORY
12245 : 72435 : && ((modifier == EXPAND_CONST_ADDRESS
12246 : 72435 : || modifier == EXPAND_INITIALIZER)
12247 : 72435 : ? STRICT_ALIGNMENT
12248 : 72435 : : targetm.slow_unaligned_access (mode1,
12249 : 72435 : MEM_ALIGN (op0))))
12250 : 3850419 : || !multiple_p (bitpos, BITS_PER_UNIT)))
12251 : : /* If the type and the field are a constant size and the
12252 : : size of the type isn't the same size as the bitfield,
12253 : : we must use bitfield operations. */
12254 : 12246054 : || (known_size_p (bitsize)
12255 : 3922545 : && TYPE_SIZE (TREE_TYPE (exp))
12256 : 3922545 : && poly_int_tree_p (TYPE_SIZE (TREE_TYPE (exp)))
12257 : 3922545 : && maybe_ne (wi::to_poly_offset (TYPE_SIZE (TREE_TYPE (exp))),
12258 : : bitsize)))
12259 : : {
12260 : 550558 : machine_mode ext_mode = mode;
12261 : :
12262 : 550558 : if (ext_mode == BLKmode
12263 : 550558 : && ! (target != 0 && MEM_P (op0)
12264 : 6 : && MEM_P (target)
12265 : 6 : && multiple_p (bitpos, BITS_PER_UNIT)))
12266 : 3 : ext_mode = int_mode_for_size (bitsize, 1).else_blk ();
12267 : :
12268 : 550558 : if (ext_mode == BLKmode)
12269 : : {
12270 : 9 : if (target == 0)
12271 : 3 : target = assign_temp (type, 1, 1);
12272 : :
12273 : : /* ??? Unlike the similar test a few lines below, this one is
12274 : : very likely obsolete. */
12275 : 9 : if (known_eq (bitsize, 0))
12276 : : return target;
12277 : :
12278 : : /* In this case, BITPOS must start at a byte boundary and
12279 : : TARGET, if specified, must be a MEM. */
12280 : 9 : gcc_assert (MEM_P (op0)
12281 : : && (!target || MEM_P (target)));
12282 : :
12283 : 9 : bytepos = exact_div (bitpos, BITS_PER_UNIT);
12284 : 9 : poly_int64 bytesize = bits_to_bytes_round_up (bitsize);
12285 : 18 : emit_block_move (target,
12286 : 9 : adjust_address (op0, VOIDmode, bytepos),
12287 : 9 : gen_int_mode (bytesize, Pmode),
12288 : : (modifier == EXPAND_STACK_PARM
12289 : : ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
12290 : :
12291 : 9 : return target;
12292 : : }
12293 : :
12294 : : /* If we have nothing to extract, the result will be 0 for targets
12295 : : with SHIFT_COUNT_TRUNCATED == 0 and garbage otherwise. Always
12296 : : return 0 for the sake of consistency, as reading a zero-sized
12297 : : bitfield is valid in Ada and the value is fully specified. */
12298 : 550549 : if (known_eq (bitsize, 0))
12299 : 0 : return const0_rtx;
12300 : :
12301 : 550549 : op0 = validize_mem (op0);
12302 : :
12303 : 550549 : if (MEM_P (op0) && REG_P (XEXP (op0, 0)))
12304 : 55491 : mark_reg_pointer (XEXP (op0, 0), MEM_ALIGN (op0));
12305 : :
12306 : : /* If the result has aggregate type and the extraction is done in
12307 : : an integral mode, then the field may be not aligned on a byte
12308 : : boundary; in this case, if it has reverse storage order, it
12309 : : needs to be extracted as a scalar field with reverse storage
12310 : : order and put back into memory order afterwards. */
12311 : 550549 : if (AGGREGATE_TYPE_P (type)
12312 : 762 : && GET_MODE_CLASS (ext_mode) == MODE_INT)
12313 : 685 : reversep = TYPE_REVERSE_STORAGE_ORDER (type);
12314 : :
12315 : 550549 : gcc_checking_assert (known_ge (bitpos, 0));
12316 : 563214 : op0 = extract_bit_field (op0, bitsize, bitpos, unsignedp,
12317 : : (modifier == EXPAND_STACK_PARM
12318 : : ? NULL_RTX : target),
12319 : : ext_mode, ext_mode, reversep, alt_rtl);
12320 : :
12321 : : /* If the result has aggregate type and the mode of OP0 is an
12322 : : integral mode then, if BITSIZE is narrower than this mode
12323 : : and this is for big-endian data, we must put the field
12324 : : into the high-order bits. And we must also put it back
12325 : : into memory order if it has been previously reversed. */
12326 : 550549 : scalar_int_mode op0_mode;
12327 : 550549 : if (AGGREGATE_TYPE_P (type)
12328 : 550549 : && is_int_mode (GET_MODE (op0), &op0_mode))
12329 : : {
12330 : 685 : HOST_WIDE_INT size = GET_MODE_BITSIZE (op0_mode);
12331 : :
12332 : 685 : gcc_checking_assert (known_le (bitsize, size));
12333 : 685 : if (maybe_lt (bitsize, size)
12334 : 685 : && reversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
12335 : 0 : op0 = expand_shift (LSHIFT_EXPR, op0_mode, op0,
12336 : : size - bitsize, op0, 1);
12337 : :
12338 : 685 : if (reversep)
12339 : 0 : op0 = flip_storage_order (op0_mode, op0);
12340 : : }
12341 : :
12342 : : /* If the result type is BLKmode, store the data into a temporary
12343 : : of the appropriate type, but with the mode corresponding to the
12344 : : mode for the data we have (op0's mode). */
12345 : 550549 : if (mode == BLKmode)
12346 : : {
12347 : 0 : rtx new_rtx
12348 : 0 : = assign_stack_temp_for_type (ext_mode,
12349 : 0 : GET_MODE_BITSIZE (ext_mode),
12350 : : type);
12351 : 0 : emit_move_insn (new_rtx, op0);
12352 : 0 : op0 = copy_rtx (new_rtx);
12353 : 0 : PUT_MODE (op0, BLKmode);
12354 : : }
12355 : :
12356 : 550549 : return op0;
12357 : : }
12358 : :
12359 : : /* If the result is BLKmode, use that to access the object
12360 : : now as well. */
12361 : 3922532 : if (mode == BLKmode)
12362 : 72117 : mode1 = BLKmode;
12363 : :
12364 : : /* Get a reference to just this component. */
12365 : 3922532 : bytepos = bits_to_bytes_round_down (bitpos);
12366 : 3922532 : if (modifier == EXPAND_CONST_ADDRESS
12367 : 3922532 : || modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
12368 : 164963 : op0 = adjust_address_nv (op0, mode1, bytepos);
12369 : : else
12370 : 3757569 : op0 = adjust_address (op0, mode1, bytepos);
12371 : :
12372 : 3922532 : if (op0 == orig_op0)
12373 : 118449 : op0 = copy_rtx (op0);
12374 : :
12375 : : /* Don't set memory attributes if the base expression is
12376 : : SSA_NAME that got expanded as a MEM or a CONSTANT. In that case,
12377 : : we should just honor its original memory attributes. */
12378 : 3922532 : if (!(TREE_CODE (tem) == SSA_NAME
12379 : 8349 : && (MEM_P (orig_op0) || CONSTANT_P (orig_op0))))
12380 : 3914183 : set_mem_attributes (op0, exp, 0);
12381 : :
12382 : 3922532 : if (REG_P (XEXP (op0, 0)))
12383 : 612902 : mark_reg_pointer (XEXP (op0, 0), MEM_ALIGN (op0));
12384 : :
12385 : : /* If op0 is a temporary because the original expressions was forced
12386 : : to memory, clear MEM_EXPR so that the original expression cannot
12387 : : be marked as addressable through MEM_EXPR of the temporary. */
12388 : 3922532 : if (clear_mem_expr)
12389 : 1041 : set_mem_expr (op0, NULL_TREE);
12390 : :
12391 : 3922532 : MEM_VOLATILE_P (op0) |= volatilep;
12392 : :
12393 : 3922532 : if (reversep
12394 : : && modifier != EXPAND_MEMORY
12395 : 439 : && modifier != EXPAND_WRITE)
12396 : 439 : op0 = flip_storage_order (mode1, op0);
12397 : :
12398 : 3922532 : op0 = EXTEND_BITINT (op0);
12399 : :
12400 : 3922532 : if (mode == mode1 || mode1 == BLKmode || mode1 == tmode
12401 : : || modifier == EXPAND_CONST_ADDRESS
12402 : 0 : || modifier == EXPAND_INITIALIZER)
12403 : : return op0;
12404 : :
12405 : 0 : if (target == 0)
12406 : 0 : target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
12407 : :
12408 : 0 : convert_move (target, op0, unsignedp);
12409 : 0 : return target;
12410 : : }
12411 : :
12412 : 61409 : case OBJ_TYPE_REF:
12413 : 61409 : return expand_expr (OBJ_TYPE_REF_EXPR (exp), target, tmode, modifier);
12414 : :
12415 : 6295337 : case CALL_EXPR:
12416 : : /* All valid uses of __builtin_va_arg_pack () are removed during
12417 : : inlining. */
12418 : 6295337 : if (CALL_EXPR_VA_ARG_PACK (exp))
12419 : 6 : error ("invalid use of %<__builtin_va_arg_pack ()%>");
12420 : 6295337 : {
12421 : 6295337 : tree fndecl = get_callee_fndecl (exp), attr;
12422 : :
12423 : 6295337 : if (fndecl
12424 : : /* Don't diagnose the error attribute in thunks, those are
12425 : : artificially created. */
12426 : 6114763 : && !CALL_FROM_THUNK_P (exp)
12427 : 12406036 : && (attr = lookup_attribute ("error",
12428 : 6110699 : DECL_ATTRIBUTES (fndecl))) != NULL)
12429 : : {
12430 : 5 : const char *ident = lang_hooks.decl_printable_name (fndecl, 1);
12431 : 10 : error ("call to %qs declared with attribute error: %s",
12432 : : identifier_to_locale (ident),
12433 : 5 : TREE_STRING_POINTER (TREE_VALUE (TREE_VALUE (attr))));
12434 : : }
12435 : 6295337 : if (fndecl
12436 : : /* Don't diagnose the warning attribute in thunks, those are
12437 : : artificially created. */
12438 : 6114763 : && !CALL_FROM_THUNK_P (exp)
12439 : 12406036 : && (attr = lookup_attribute ("warning",
12440 : 6110699 : DECL_ATTRIBUTES (fndecl))) != NULL)
12441 : : {
12442 : 17 : const char *ident = lang_hooks.decl_printable_name (fndecl, 1);
12443 : 34 : warning_at (EXPR_LOCATION (exp),
12444 : : OPT_Wattribute_warning,
12445 : : "call to %qs declared with attribute warning: %s",
12446 : : identifier_to_locale (ident),
12447 : 17 : TREE_STRING_POINTER (TREE_VALUE (TREE_VALUE (attr))));
12448 : : }
12449 : :
12450 : : /* Check for a built-in function. */
12451 : 6295337 : if (fndecl && fndecl_built_in_p (fndecl))
12452 : : {
12453 : 1872234 : gcc_assert (DECL_BUILT_IN_CLASS (fndecl) != BUILT_IN_FRONTEND);
12454 : 1872234 : return expand_builtin (exp, target, subtarget, tmode, ignore);
12455 : : }
12456 : : }
12457 : 4423103 : temp = expand_call (exp, target, ignore);
12458 : 4423103 : return EXTEND_BITINT (temp);
12459 : :
12460 : 324270 : case VIEW_CONVERT_EXPR:
12461 : 324270 : op0 = NULL_RTX;
12462 : :
12463 : : /* If we are converting to BLKmode, try to avoid an intermediate
12464 : : temporary by fetching an inner memory reference. */
12465 : 324270 : if (mode == BLKmode
12466 : 73489 : && poly_int_tree_p (TYPE_SIZE (type))
12467 : 73489 : && TYPE_MODE (TREE_TYPE (treeop0)) != BLKmode
12468 : 324270 : && handled_component_p (treeop0))
12469 : : {
12470 : 0 : machine_mode mode1;
12471 : 0 : poly_int64 bitsize, bitpos, bytepos;
12472 : 0 : tree offset;
12473 : 0 : int reversep, volatilep = 0;
12474 : 0 : tree tem
12475 : 0 : = get_inner_reference (treeop0, &bitsize, &bitpos, &offset, &mode1,
12476 : : &unsignedp, &reversep, &volatilep);
12477 : :
12478 : : /* ??? We should work harder and deal with non-zero offsets. */
12479 : 0 : if (!offset
12480 : 0 : && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
12481 : 0 : && !reversep
12482 : 0 : && known_size_p (bitsize)
12483 : 0 : && known_eq (wi::to_poly_offset (TYPE_SIZE (type)), bitsize))
12484 : : {
12485 : : /* See the normal_inner_ref case for the rationale. */
12486 : 0 : rtx orig_op0
12487 : 0 : = expand_expr_real (tem,
12488 : 0 : (TREE_CODE (TREE_TYPE (tem)) == UNION_TYPE
12489 : 0 : && (TREE_CODE (TYPE_SIZE (TREE_TYPE (tem)))
12490 : : != INTEGER_CST)
12491 : 0 : && modifier != EXPAND_STACK_PARM
12492 : : ? target : NULL_RTX),
12493 : : VOIDmode,
12494 : : modifier == EXPAND_SUM ? EXPAND_NORMAL : modifier,
12495 : : NULL, true);
12496 : :
12497 : 0 : if (MEM_P (orig_op0))
12498 : : {
12499 : 0 : op0 = orig_op0;
12500 : :
12501 : : /* Get a reference to just this component. */
12502 : 0 : if (modifier == EXPAND_CONST_ADDRESS
12503 : : || modifier == EXPAND_SUM
12504 : 0 : || modifier == EXPAND_INITIALIZER)
12505 : 0 : op0 = adjust_address_nv (op0, mode, bytepos);
12506 : : else
12507 : 0 : op0 = adjust_address (op0, mode, bytepos);
12508 : :
12509 : 0 : if (op0 == orig_op0)
12510 : 0 : op0 = copy_rtx (op0);
12511 : :
12512 : 0 : set_mem_attributes (op0, treeop0, 0);
12513 : 0 : if (REG_P (XEXP (op0, 0)))
12514 : 0 : mark_reg_pointer (XEXP (op0, 0), MEM_ALIGN (op0));
12515 : :
12516 : 0 : MEM_VOLATILE_P (op0) |= volatilep;
12517 : : }
12518 : : }
12519 : : }
12520 : :
12521 : 0 : if (!op0)
12522 : 324270 : op0 = expand_expr_real (treeop0, NULL_RTX, VOIDmode, modifier,
12523 : 324270 : NULL, inner_reference_p || mode == BLKmode);
12524 : :
12525 : : /* If the input and output modes are both the same, we are done. */
12526 : 324270 : if (mode == GET_MODE (op0))
12527 : : ;
12528 : : /* Similarly if the output mode is BLKmode and input is a MEM,
12529 : : adjust_address done below is all we need. */
12530 : 145411 : else if (mode == BLKmode && MEM_P (op0))
12531 : : ;
12532 : : /* If neither mode is BLKmode, and both modes are the same size
12533 : : then we can use gen_lowpart. */
12534 : : else if (mode != BLKmode
12535 : 145384 : && GET_MODE (op0) != BLKmode
12536 : 144071 : && known_eq (GET_MODE_PRECISION (mode),
12537 : : GET_MODE_PRECISION (GET_MODE (op0)))
12538 : 140175 : && !COMPLEX_MODE_P (GET_MODE (op0)))
12539 : : {
12540 : 138774 : if (GET_CODE (op0) == SUBREG)
12541 : 119 : op0 = force_reg (GET_MODE (op0), op0);
12542 : 138774 : temp = gen_lowpart_common (mode, op0);
12543 : 138774 : if (temp)
12544 : : op0 = temp;
12545 : : else
12546 : : {
12547 : 26907 : if (!REG_P (op0) && !MEM_P (op0))
12548 : 16 : op0 = force_reg (GET_MODE (op0), op0);
12549 : 26907 : op0 = gen_lowpart (mode, op0);
12550 : : }
12551 : : }
12552 : : /* If both types are integral, convert from one mode to the other. */
12553 : 6635 : else if (INTEGRAL_TYPE_P (type)
12554 : 3140 : && INTEGRAL_TYPE_P (TREE_TYPE (treeop0))
12555 : 0 : && mode != BLKmode
12556 : 6635 : && GET_MODE (op0) != BLKmode)
12557 : 0 : op0 = convert_modes (mode, GET_MODE (op0), op0,
12558 : 0 : TYPE_UNSIGNED (TREE_TYPE (treeop0)));
12559 : : /* If the output type is a bit-field type, do an extraction. */
12560 : 6635 : else if (reduce_bit_field
12561 : 1 : && mode != BLKmode
12562 : 1 : && (MEM_P (op0) || !COMPLEX_MODE_P (GET_MODE (op0))))
12563 : 0 : return extract_bit_field (op0, TYPE_PRECISION (type), 0,
12564 : 0 : TYPE_UNSIGNED (type), NULL_RTX,
12565 : : mode, mode, false, NULL);
12566 : : /* As a last resort, spill op0 to memory, and reload it in a
12567 : : different mode. */
12568 : 6635 : else if (!MEM_P (op0))
12569 : : {
12570 : : /* If the operand is not a MEM, force it into memory. Since we
12571 : : are going to be changing the mode of the MEM, don't call
12572 : : force_const_mem for constants because we don't allow pool
12573 : : constants to change mode. */
12574 : 5317 : tree inner_type = TREE_TYPE (treeop0);
12575 : :
12576 : 5317 : gcc_assert (!TREE_ADDRESSABLE (exp));
12577 : :
12578 : 5317 : if (target == 0 || GET_MODE (target) != TYPE_MODE (inner_type))
12579 : 5311 : target
12580 : : = assign_stack_temp_for_type
12581 : 5311 : (TYPE_MODE (inner_type),
12582 : 10622 : GET_MODE_SIZE (TYPE_MODE (inner_type)), inner_type);
12583 : :
12584 : 5317 : emit_move_insn (target, op0);
12585 : 5317 : op0 = target;
12586 : :
12587 : 5317 : if (reduce_bit_field && mode != BLKmode)
12588 : 1 : return extract_bit_field (op0, TYPE_PRECISION (type), 0,
12589 : 1 : TYPE_UNSIGNED (type), NULL_RTX,
12590 : : mode, mode, false, NULL);
12591 : : }
12592 : :
12593 : : /* If OP0 is (now) a MEM, we need to deal with alignment issues. If the
12594 : : output type is such that the operand is known to be aligned, indicate
12595 : : that it is. Otherwise, we need only be concerned about alignment for
12596 : : non-BLKmode results. */
12597 : 324269 : if (MEM_P (op0))
12598 : : {
12599 : 123928 : enum insn_code icode;
12600 : :
12601 : 123928 : if (modifier != EXPAND_WRITE
12602 : 123928 : && modifier != EXPAND_MEMORY
12603 : 123928 : && !inner_reference_p
12604 : 123928 : && mode != BLKmode
12605 : 174367 : && MEM_ALIGN (op0) < GET_MODE_ALIGNMENT (mode))
12606 : : {
12607 : : /* If the target does have special handling for unaligned
12608 : : loads of mode then use them. */
12609 : 13809 : if ((icode = optab_handler (movmisalign_optab, mode))
12610 : : != CODE_FOR_nothing)
12611 : : {
12612 : 1423 : rtx reg;
12613 : :
12614 : 1423 : op0 = adjust_address (op0, mode, 0);
12615 : : /* We've already validated the memory, and we're creating a
12616 : : new pseudo destination. The predicates really can't
12617 : : fail. */
12618 : 1423 : reg = gen_reg_rtx (mode);
12619 : :
12620 : : /* Nor can the insn generator. */
12621 : 1423 : rtx_insn *insn = GEN_FCN (icode) (reg, op0);
12622 : 1423 : emit_insn (insn);
12623 : 1423 : return reg;
12624 : : }
12625 : : else if (STRICT_ALIGNMENT)
12626 : : {
12627 : : poly_uint64 mode_size = GET_MODE_SIZE (mode);
12628 : : poly_uint64 temp_size = mode_size;
12629 : : if (GET_MODE (op0) != BLKmode)
12630 : : temp_size = upper_bound (temp_size,
12631 : : GET_MODE_SIZE (GET_MODE (op0)));
12632 : : rtx new_rtx
12633 : : = assign_stack_temp_for_type (mode, temp_size, type);
12634 : : rtx new_with_op0_mode
12635 : : = adjust_address (new_rtx, GET_MODE (op0), 0);
12636 : :
12637 : : gcc_assert (!TREE_ADDRESSABLE (exp));
12638 : :
12639 : : if (GET_MODE (op0) == BLKmode)
12640 : : {
12641 : : rtx size_rtx = gen_int_mode (mode_size, Pmode);
12642 : : emit_block_move (new_with_op0_mode, op0, size_rtx,
12643 : : (modifier == EXPAND_STACK_PARM
12644 : : ? BLOCK_OP_CALL_PARM
12645 : : : BLOCK_OP_NORMAL));
12646 : : }
12647 : : else
12648 : : emit_move_insn (new_with_op0_mode, op0);
12649 : :
12650 : : op0 = new_rtx;
12651 : : }
12652 : : }
12653 : :
12654 : 122505 : op0 = adjust_address (op0, mode, 0);
12655 : : }
12656 : :
12657 : : return op0;
12658 : :
12659 : 62049 : case MODIFY_EXPR:
12660 : 62049 : {
12661 : 62049 : tree lhs = treeop0;
12662 : 62049 : tree rhs = treeop1;
12663 : 62049 : gcc_assert (ignore);
12664 : :
12665 : : /* Check for |= or &= of a bitfield of size one into another bitfield
12666 : : of size 1. In this case, (unless we need the result of the
12667 : : assignment) we can do this more efficiently with a
12668 : : test followed by an assignment, if necessary.
12669 : :
12670 : : ??? At this point, we can't get a BIT_FIELD_REF here. But if
12671 : : things change so we do, this code should be enhanced to
12672 : : support it. */
12673 : 62049 : if (TREE_CODE (lhs) == COMPONENT_REF
12674 : 59273 : && (TREE_CODE (rhs) == BIT_IOR_EXPR
12675 : 59273 : || TREE_CODE (rhs) == BIT_AND_EXPR)
12676 : 0 : && TREE_OPERAND (rhs, 0) == lhs
12677 : 0 : && TREE_CODE (TREE_OPERAND (rhs, 1)) == COMPONENT_REF
12678 : 0 : && integer_onep (DECL_SIZE (TREE_OPERAND (lhs, 1)))
12679 : 62049 : && integer_onep (DECL_SIZE (TREE_OPERAND (TREE_OPERAND (rhs, 1), 1))))
12680 : : {
12681 : 0 : rtx_code_label *label = gen_label_rtx ();
12682 : 0 : int value = TREE_CODE (rhs) == BIT_IOR_EXPR;
12683 : 0 : profile_probability prob = profile_probability::uninitialized ();
12684 : 0 : if (value)
12685 : 0 : jumpifnot (TREE_OPERAND (rhs, 1), label, prob);
12686 : : else
12687 : 0 : jumpif (TREE_OPERAND (rhs, 1), label, prob);
12688 : 0 : expand_assignment (lhs, build_int_cst (TREE_TYPE (rhs), value),
12689 : : false);
12690 : 0 : do_pending_stack_adjust ();
12691 : 0 : emit_label (label);
12692 : 0 : return const0_rtx;
12693 : : }
12694 : :
12695 : 62049 : expand_assignment (lhs, rhs, false);
12696 : 62049 : return const0_rtx;
12697 : : }
12698 : :
12699 : 12292725 : case ADDR_EXPR:
12700 : 12292725 : return expand_expr_addr_expr (exp, target, tmode, modifier);
12701 : :
12702 : 152540 : case REALPART_EXPR:
12703 : 152540 : op0 = expand_normal (treeop0);
12704 : 152540 : return read_complex_part (op0, false);
12705 : :
12706 : 176102 : case IMAGPART_EXPR:
12707 : 176102 : op0 = expand_normal (treeop0);
12708 : 176102 : return read_complex_part (op0, true);
12709 : :
12710 : 0 : case RETURN_EXPR:
12711 : 0 : case LABEL_EXPR:
12712 : 0 : case GOTO_EXPR:
12713 : 0 : case SWITCH_EXPR:
12714 : 0 : case ASM_EXPR:
12715 : : /* Expanded in cfgexpand.cc. */
12716 : 0 : gcc_unreachable ();
12717 : :
12718 : 0 : case TRY_CATCH_EXPR:
12719 : 0 : case CATCH_EXPR:
12720 : 0 : case EH_FILTER_EXPR:
12721 : 0 : case TRY_FINALLY_EXPR:
12722 : 0 : case EH_ELSE_EXPR:
12723 : : /* Lowered by tree-eh.cc. */
12724 : 0 : gcc_unreachable ();
12725 : :
12726 : 0 : case WITH_CLEANUP_EXPR:
12727 : 0 : case CLEANUP_POINT_EXPR:
12728 : 0 : case TARGET_EXPR:
12729 : 0 : case CASE_LABEL_EXPR:
12730 : 0 : case VA_ARG_EXPR:
12731 : 0 : case BIND_EXPR:
12732 : 0 : case INIT_EXPR:
12733 : 0 : case CONJ_EXPR:
12734 : 0 : case COMPOUND_EXPR:
12735 : 0 : case PREINCREMENT_EXPR:
12736 : 0 : case PREDECREMENT_EXPR:
12737 : 0 : case POSTINCREMENT_EXPR:
12738 : 0 : case POSTDECREMENT_EXPR:
12739 : 0 : case LOOP_EXPR:
12740 : 0 : case EXIT_EXPR:
12741 : 0 : case COMPOUND_LITERAL_EXPR:
12742 : : /* Lowered by gimplify.cc. */
12743 : 0 : gcc_unreachable ();
12744 : :
12745 : 0 : case FDESC_EXPR:
12746 : : /* Function descriptors are not valid except for as
12747 : : initialization constants, and should not be expanded. */
12748 : 0 : gcc_unreachable ();
12749 : :
12750 : 256 : case WITH_SIZE_EXPR:
12751 : : /* WITH_SIZE_EXPR expands to its first argument. The caller should
12752 : : have pulled out the size to use in whatever context it needed. */
12753 : 256 : return expand_expr_real (treeop0, original_target, tmode,
12754 : 256 : modifier, alt_rtl, inner_reference_p);
12755 : :
12756 : 1756202 : default:
12757 : 1756202 : return expand_expr_real_2 (&ops, target, tmode, modifier);
12758 : : }
12759 : : }
12760 : : #undef EXTEND_BITINT
12761 : :
12762 : : /* Subroutine of above: reduce EXP to the precision of TYPE (in the
12763 : : signedness of TYPE), possibly returning the result in TARGET.
12764 : : TYPE is known to be a partial integer type. */
12765 : : static rtx
12766 : 82339 : reduce_to_bit_field_precision (rtx exp, rtx target, tree type)
12767 : : {
12768 : 82339 : scalar_int_mode mode = SCALAR_INT_TYPE_MODE (type);
12769 : 82339 : HOST_WIDE_INT prec = TYPE_PRECISION (type);
12770 : 82339 : gcc_assert ((GET_MODE (exp) == VOIDmode || GET_MODE (exp) == mode)
12771 : : && (!target || GET_MODE (target) == mode));
12772 : :
12773 : : /* For constant values, reduce using wide_int_to_tree. */
12774 : 82339 : if (poly_int_rtx_p (exp))
12775 : : {
12776 : 2 : auto value = wi::to_poly_wide (exp, mode);
12777 : 2 : tree t = wide_int_to_tree (type, value);
12778 : 2 : return expand_expr (t, target, VOIDmode, EXPAND_NORMAL);
12779 : : }
12780 : 82337 : else if (TYPE_UNSIGNED (type))
12781 : : {
12782 : 64350 : rtx mask = immed_wide_int_const
12783 : 64350 : (wi::mask (prec, false, GET_MODE_PRECISION (mode)), mode);
12784 : 64350 : return expand_and (mode, exp, mask, target);
12785 : : }
12786 : : else
12787 : : {
12788 : 17987 : int count = GET_MODE_PRECISION (mode) - prec;
12789 : 17987 : exp = expand_shift (LSHIFT_EXPR, mode, exp, count, target, 0);
12790 : 17987 : return expand_shift (RSHIFT_EXPR, mode, exp, count, target, 0);
12791 : : }
12792 : : }
12793 : :
12794 : : /* Subroutine of above: returns true if OFFSET corresponds to an offset that
12795 : : when applied to the address of EXP produces an address known to be
12796 : : aligned more than BIGGEST_ALIGNMENT. */
12797 : :
12798 : : static bool
12799 : 265250 : is_aligning_offset (const_tree offset, const_tree exp)
12800 : : {
12801 : : /* Strip off any conversions. */
12802 : 282166 : while (CONVERT_EXPR_P (offset))
12803 : 16916 : offset = TREE_OPERAND (offset, 0);
12804 : :
12805 : : /* We must now have a BIT_AND_EXPR with a constant that is one less than
12806 : : power of 2 and which is larger than BIGGEST_ALIGNMENT. */
12807 : 265250 : if (TREE_CODE (offset) != BIT_AND_EXPR
12808 : 0 : || !tree_fits_uhwi_p (TREE_OPERAND (offset, 1))
12809 : 0 : || compare_tree_int (TREE_OPERAND (offset, 1),
12810 : 0 : BIGGEST_ALIGNMENT / BITS_PER_UNIT) <= 0
12811 : 265250 : || !pow2p_hwi (tree_to_uhwi (TREE_OPERAND (offset, 1)) + 1))
12812 : 265250 : return false;
12813 : :
12814 : : /* Look at the first operand of BIT_AND_EXPR and strip any conversion.
12815 : : It must be NEGATE_EXPR. Then strip any more conversions. */
12816 : 0 : offset = TREE_OPERAND (offset, 0);
12817 : 0 : while (CONVERT_EXPR_P (offset))
12818 : 0 : offset = TREE_OPERAND (offset, 0);
12819 : :
12820 : 0 : if (TREE_CODE (offset) != NEGATE_EXPR)
12821 : : return false;
12822 : :
12823 : 0 : offset = TREE_OPERAND (offset, 0);
12824 : 0 : while (CONVERT_EXPR_P (offset))
12825 : 0 : offset = TREE_OPERAND (offset, 0);
12826 : :
12827 : : /* This must now be the address of EXP. */
12828 : 0 : return TREE_CODE (offset) == ADDR_EXPR && TREE_OPERAND (offset, 0) == exp;
12829 : : }
12830 : :
12831 : : /* Return a STRING_CST corresponding to ARG's constant initializer either
12832 : : if it's a string constant, or, when VALREP is set, any other constant,
12833 : : or null otherwise.
12834 : : On success, set *PTR_OFFSET to the (possibly non-constant) byte offset
12835 : : within the byte string that ARG is references. If nonnull set *MEM_SIZE
12836 : : to the size of the byte string. If nonnull, set *DECL to the constant
12837 : : declaration ARG refers to. */
12838 : :
12839 : : static tree
12840 : 15237283 : constant_byte_string (tree arg, tree *ptr_offset, tree *mem_size, tree *decl,
12841 : : bool valrep = false)
12842 : : {
12843 : 15237283 : tree dummy = NULL_TREE;
12844 : 15237283 : if (!mem_size)
12845 : 10430 : mem_size = &dummy;
12846 : :
12847 : : /* Store the type of the original expression before conversions
12848 : : via NOP_EXPR or POINTER_PLUS_EXPR to other types have been
12849 : : removed. */
12850 : 15237283 : tree argtype = TREE_TYPE (arg);
12851 : :
12852 : 15237283 : tree array;
12853 : 15237283 : STRIP_NOPS (arg);
12854 : :
12855 : : /* Non-constant index into the character array in an ARRAY_REF
12856 : : expression or null. */
12857 : 15237283 : tree varidx = NULL_TREE;
12858 : :
12859 : 15237283 : poly_int64 base_off = 0;
12860 : :
12861 : 15237283 : if (TREE_CODE (arg) == ADDR_EXPR)
12862 : : {
12863 : 6330301 : arg = TREE_OPERAND (arg, 0);
12864 : 6330301 : tree ref = arg;
12865 : 6330301 : if (TREE_CODE (arg) == ARRAY_REF)
12866 : : {
12867 : 535320 : tree idx = TREE_OPERAND (arg, 1);
12868 : 535320 : if (TREE_CODE (idx) != INTEGER_CST)
12869 : : {
12870 : : /* From a pointer (but not array) argument extract the variable
12871 : : index to prevent get_addr_base_and_unit_offset() from failing
12872 : : due to it. Use it later to compute the non-constant offset
12873 : : into the string and return it to the caller. */
12874 : 167315 : varidx = idx;
12875 : 167315 : ref = TREE_OPERAND (arg, 0);
12876 : :
12877 : 167315 : if (TREE_CODE (TREE_TYPE (arg)) == ARRAY_TYPE)
12878 : : return NULL_TREE;
12879 : :
12880 : 27818 : if (!integer_zerop (array_ref_low_bound (arg)))
12881 : : return NULL_TREE;
12882 : :
12883 : 27080 : if (!integer_onep (array_ref_element_size (arg)))
12884 : : return NULL_TREE;
12885 : : }
12886 : : }
12887 : 6189090 : array = get_addr_base_and_unit_offset (ref, &base_off);
12888 : 6189090 : if (!array
12889 : 6141444 : || (TREE_CODE (array) != VAR_DECL
12890 : 6141444 : && TREE_CODE (array) != CONST_DECL
12891 : 3752884 : && TREE_CODE (array) != STRING_CST))
12892 : : return NULL_TREE;
12893 : : }
12894 : 8906982 : else if (TREE_CODE (arg) == PLUS_EXPR || TREE_CODE (arg) == POINTER_PLUS_EXPR)
12895 : : {
12896 : 25547 : tree arg0 = TREE_OPERAND (arg, 0);
12897 : 25547 : tree arg1 = TREE_OPERAND (arg, 1);
12898 : :
12899 : 25547 : tree offset;
12900 : 25547 : tree str = string_constant (arg0, &offset, mem_size, decl);
12901 : 25547 : if (!str)
12902 : : {
12903 : 17116 : str = string_constant (arg1, &offset, mem_size, decl);
12904 : 17116 : arg1 = arg0;
12905 : : }
12906 : :
12907 : 17116 : if (str)
12908 : : {
12909 : : /* Avoid pointers to arrays (see bug 86622). */
12910 : 8431 : if (POINTER_TYPE_P (TREE_TYPE (arg))
12911 : 8431 : && TREE_CODE (TREE_TYPE (TREE_TYPE (arg))) == ARRAY_TYPE
12912 : 2100 : && !(decl && !*decl)
12913 : 11231 : && !(decl && tree_fits_uhwi_p (DECL_SIZE_UNIT (*decl))
12914 : 1400 : && tree_fits_uhwi_p (*mem_size)
12915 : 1400 : && tree_int_cst_equal (*mem_size, DECL_SIZE_UNIT (*decl))))
12916 : 2100 : return NULL_TREE;
12917 : :
12918 : 6331 : tree type = TREE_TYPE (offset);
12919 : 6331 : arg1 = fold_convert (type, arg1);
12920 : 6331 : *ptr_offset = fold_build2 (PLUS_EXPR, type, offset, arg1);
12921 : 6331 : return str;
12922 : : }
12923 : : return NULL_TREE;
12924 : : }
12925 : 8881435 : else if (TREE_CODE (arg) == SSA_NAME)
12926 : : {
12927 : 3894270 : gimple *stmt = SSA_NAME_DEF_STMT (arg);
12928 : 3894270 : if (!is_gimple_assign (stmt))
12929 : : return NULL_TREE;
12930 : :
12931 : 988999 : tree rhs1 = gimple_assign_rhs1 (stmt);
12932 : 988999 : tree_code code = gimple_assign_rhs_code (stmt);
12933 : 988999 : if (code == ADDR_EXPR)
12934 : 223387 : return string_constant (rhs1, ptr_offset, mem_size, decl);
12935 : 765612 : else if (code != POINTER_PLUS_EXPR)
12936 : : return NULL_TREE;
12937 : :
12938 : 184548 : tree offset;
12939 : 184548 : if (tree str = string_constant (rhs1, &offset, mem_size, decl))
12940 : : {
12941 : : /* Avoid pointers to arrays (see bug 86622). */
12942 : 19952 : if (POINTER_TYPE_P (TREE_TYPE (rhs1))
12943 : 19952 : && TREE_CODE (TREE_TYPE (TREE_TYPE (rhs1))) == ARRAY_TYPE
12944 : 17171 : && !(decl && !*decl)
12945 : 36158 : && !(decl && tree_fits_uhwi_p (DECL_SIZE_UNIT (*decl))
12946 : 8103 : && tree_fits_uhwi_p (*mem_size)
12947 : 8103 : && tree_int_cst_equal (*mem_size, DECL_SIZE_UNIT (*decl))))
12948 : 13582 : return NULL_TREE;
12949 : :
12950 : 6370 : tree rhs2 = gimple_assign_rhs2 (stmt);
12951 : 6370 : tree type = TREE_TYPE (offset);
12952 : 6370 : rhs2 = fold_convert (type, rhs2);
12953 : 6370 : *ptr_offset = fold_build2 (PLUS_EXPR, type, offset, rhs2);
12954 : 6370 : return str;
12955 : : }
12956 : : return NULL_TREE;
12957 : : }
12958 : 4987165 : else if (DECL_P (arg))
12959 : : array = arg;
12960 : : else
12961 : : return NULL_TREE;
12962 : :
12963 : 8471419 : tree offset = wide_int_to_tree (sizetype, base_off);
12964 : 8471419 : if (varidx)
12965 : : {
12966 : 2119 : if (TREE_CODE (TREE_TYPE (array)) != ARRAY_TYPE)
12967 : : return NULL_TREE;
12968 : :
12969 : 1608 : gcc_assert (TREE_CODE (arg) == ARRAY_REF);
12970 : 1608 : tree chartype = TREE_TYPE (TREE_TYPE (TREE_OPERAND (arg, 0)));
12971 : 1608 : if (TREE_CODE (chartype) != INTEGER_TYPE)
12972 : : return NULL;
12973 : :
12974 : 1451 : offset = fold_convert (sizetype, varidx);
12975 : : }
12976 : :
12977 : 8470751 : if (TREE_CODE (array) == STRING_CST)
12978 : : {
12979 : 3372464 : *ptr_offset = fold_convert (sizetype, offset);
12980 : 3372464 : *mem_size = TYPE_SIZE_UNIT (TREE_TYPE (array));
12981 : 3372464 : if (decl)
12982 : 751426 : *decl = NULL_TREE;
12983 : 3372464 : gcc_checking_assert (tree_to_shwi (TYPE_SIZE_UNIT (TREE_TYPE (array)))
12984 : : >= TREE_STRING_LENGTH (array));
12985 : : return array;
12986 : : }
12987 : :
12988 : 5098287 : tree init = ctor_for_folding (array);
12989 : 5098287 : if (!init || init == error_mark_node)
12990 : : return NULL_TREE;
12991 : :
12992 : 155779 : if (valrep)
12993 : : {
12994 : 58779 : HOST_WIDE_INT cstoff;
12995 : 58779 : if (!base_off.is_constant (&cstoff))
12996 : : return NULL_TREE;
12997 : :
12998 : : /* Check that the host and target are sane. */
12999 : 58779 : if (CHAR_BIT != 8 || BITS_PER_UNIT != 8)
13000 : : return NULL_TREE;
13001 : :
13002 : 58779 : HOST_WIDE_INT typesz = int_size_in_bytes (TREE_TYPE (init));
13003 : 58779 : if (typesz <= 0 || (int) typesz != typesz)
13004 : : return NULL_TREE;
13005 : :
13006 : 58609 : HOST_WIDE_INT size = typesz;
13007 : 58609 : if (VAR_P (array)
13008 : 58597 : && DECL_SIZE_UNIT (array)
13009 : 117206 : && tree_fits_shwi_p (DECL_SIZE_UNIT (array)))
13010 : : {
13011 : 58597 : size = tree_to_shwi (DECL_SIZE_UNIT (array));
13012 : 58597 : gcc_checking_assert (size >= typesz);
13013 : : }
13014 : :
13015 : : /* If value representation was requested convert the initializer
13016 : : for the whole array or object into a string of bytes forming
13017 : : its value representation and return it. */
13018 : 58609 : unsigned char *bytes = XNEWVEC (unsigned char, size);
13019 : 58609 : int r = native_encode_initializer (init, bytes, size);
13020 : 58609 : if (r < typesz)
13021 : : {
13022 : 59 : XDELETEVEC (bytes);
13023 : 59 : return NULL_TREE;
13024 : : }
13025 : :
13026 : 58550 : if (r < size)
13027 : 0 : memset (bytes + r, '\0', size - r);
13028 : :
13029 : 58550 : const char *p = reinterpret_cast<const char *>(bytes);
13030 : 58550 : init = build_string_literal (size, p, char_type_node);
13031 : 58550 : init = TREE_OPERAND (init, 0);
13032 : 58550 : init = TREE_OPERAND (init, 0);
13033 : 58550 : XDELETE (bytes);
13034 : :
13035 : 58550 : *mem_size = size_int (TREE_STRING_LENGTH (init));
13036 : 58550 : *ptr_offset = wide_int_to_tree (ssizetype, base_off);
13037 : :
13038 : 58550 : if (decl)
13039 : 0 : *decl = array;
13040 : :
13041 : 58550 : return init;
13042 : : }
13043 : :
13044 : 97000 : if (TREE_CODE (init) == CONSTRUCTOR)
13045 : : {
13046 : : /* Convert the 64-bit constant offset to a wider type to avoid
13047 : : overflow and use it to obtain the initializer for the subobject
13048 : : it points into. */
13049 : 78760 : offset_int wioff;
13050 : 78760 : if (!base_off.is_constant (&wioff))
13051 : 158 : return NULL_TREE;
13052 : :
13053 : 78760 : wioff *= BITS_PER_UNIT;
13054 : 78760 : if (!wi::fits_uhwi_p (wioff))
13055 : : return NULL_TREE;
13056 : :
13057 : 78652 : base_off = wioff.to_uhwi ();
13058 : 78652 : unsigned HOST_WIDE_INT fieldoff = 0;
13059 : 78652 : init = fold_ctor_reference (TREE_TYPE (arg), init, base_off, 0, array,
13060 : : &fieldoff);
13061 : 78652 : if (!init || init == error_mark_node)
13062 : : return NULL_TREE;
13063 : :
13064 : 78602 : HOST_WIDE_INT cstoff;
13065 : 78602 : if (!base_off.is_constant (&cstoff))
13066 : : return NULL_TREE;
13067 : :
13068 : 78602 : cstoff = (cstoff - fieldoff) / BITS_PER_UNIT;
13069 : 78602 : tree off = build_int_cst (sizetype, cstoff);
13070 : 78602 : if (varidx)
13071 : 944 : offset = fold_build2 (PLUS_EXPR, TREE_TYPE (offset), offset, off);
13072 : : else
13073 : : offset = off;
13074 : : }
13075 : :
13076 : 96842 : *ptr_offset = offset;
13077 : :
13078 : 96842 : tree inittype = TREE_TYPE (init);
13079 : :
13080 : 96842 : if (TREE_CODE (init) == INTEGER_CST
13081 : 96842 : && (TREE_CODE (TREE_TYPE (array)) == INTEGER_TYPE
13082 : 1250 : || TYPE_MAIN_VARIANT (inittype) == char_type_node))
13083 : : {
13084 : : /* Check that the host and target are sane. */
13085 : 945 : if (CHAR_BIT != 8 || BITS_PER_UNIT != 8)
13086 : : return NULL_TREE;
13087 : :
13088 : : /* For a reference to (address of) a single constant character,
13089 : : store the native representation of the character in CHARBUF.
13090 : : If the reference is to an element of an array or a member
13091 : : of a struct, only consider narrow characters until ctors
13092 : : for wide character arrays are transformed to STRING_CSTs
13093 : : like those for narrow arrays. */
13094 : 945 : unsigned char charbuf[MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT];
13095 : 945 : int len = native_encode_expr (init, charbuf, sizeof charbuf, 0);
13096 : 945 : if (len > 0)
13097 : : {
13098 : : /* Construct a string literal with elements of INITTYPE and
13099 : : the representation above. Then strip
13100 : : the ADDR_EXPR (ARRAY_REF (...)) around the STRING_CST. */
13101 : 945 : init = build_string_literal (len, (char *)charbuf, inittype);
13102 : 945 : init = TREE_OPERAND (TREE_OPERAND (init, 0), 0);
13103 : : }
13104 : : }
13105 : :
13106 : 96842 : tree initsize = TYPE_SIZE_UNIT (inittype);
13107 : :
13108 : 96842 : if (TREE_CODE (init) == CONSTRUCTOR && initializer_zerop (init))
13109 : : {
13110 : : /* Fold an empty/zero constructor for an implicitly initialized
13111 : : object or subobject into the empty string. */
13112 : :
13113 : : /* Determine the character type from that of the original
13114 : : expression. */
13115 : 9354 : tree chartype = argtype;
13116 : 9354 : if (POINTER_TYPE_P (chartype))
13117 : 9347 : chartype = TREE_TYPE (chartype);
13118 : 15004 : while (TREE_CODE (chartype) == ARRAY_TYPE)
13119 : 5650 : chartype = TREE_TYPE (chartype);
13120 : :
13121 : 9354 : if (INTEGRAL_TYPE_P (chartype)
13122 : 9354 : && TYPE_PRECISION (chartype) == TYPE_PRECISION (char_type_node))
13123 : : {
13124 : : /* Convert a char array to an empty STRING_CST having an array
13125 : : of the expected type and size. */
13126 : 9145 : if (!initsize)
13127 : 3090 : initsize = integer_zero_node;
13128 : :
13129 : 9145 : unsigned HOST_WIDE_INT size = tree_to_uhwi (initsize);
13130 : 9145 : if (size > (unsigned HOST_WIDE_INT) INT_MAX)
13131 : : return NULL_TREE;
13132 : :
13133 : 9145 : init = build_string_literal (size, NULL, chartype, size);
13134 : 9145 : init = TREE_OPERAND (init, 0);
13135 : 9145 : init = TREE_OPERAND (init, 0);
13136 : :
13137 : 9145 : *ptr_offset = integer_zero_node;
13138 : : }
13139 : : }
13140 : :
13141 : 96842 : if (decl)
13142 : 55017 : *decl = array;
13143 : :
13144 : 96842 : if (TREE_CODE (init) != STRING_CST)
13145 : : return NULL_TREE;
13146 : :
13147 : 67376 : *mem_size = initsize;
13148 : :
13149 : 67376 : gcc_checking_assert (tree_to_shwi (initsize) >= TREE_STRING_LENGTH (init));
13150 : :
13151 : : return init;
13152 : : }
13153 : :
13154 : : /* Return STRING_CST if an ARG corresponds to a string constant or zero
13155 : : if it doesn't. If we return nonzero, set *PTR_OFFSET to the (possibly
13156 : : non-constant) offset in bytes within the string that ARG is accessing.
13157 : : If MEM_SIZE is non-zero the storage size of the memory is returned.
13158 : : If DECL is non-zero the constant declaration is returned if available. */
13159 : :
13160 : : tree
13161 : 10417089 : string_constant (tree arg, tree *ptr_offset, tree *mem_size, tree *decl)
13162 : : {
13163 : 10417089 : return constant_byte_string (arg, ptr_offset, mem_size, decl, false);
13164 : : }
13165 : :
13166 : : /* Similar to string_constant, return a STRING_CST corresponding
13167 : : to the value representation of the first argument if it's
13168 : : a constant. */
13169 : :
13170 : : tree
13171 : 4820194 : byte_representation (tree arg, tree *ptr_offset, tree *mem_size, tree *decl)
13172 : : {
13173 : 4820194 : return constant_byte_string (arg, ptr_offset, mem_size, decl, true);
13174 : : }
13175 : :
13176 : : /* Optimize x % C1 == C2 for signed modulo if C1 is a power of two and C2
13177 : : is non-zero and C3 ((1<<(prec-1)) | (C1 - 1)):
13178 : : for C2 > 0 to x & C3 == C2
13179 : : for C2 < 0 to x & C3 == (C2 & C3). */
13180 : : enum tree_code
13181 : 35 : maybe_optimize_pow2p_mod_cmp (enum tree_code code, tree *arg0, tree *arg1)
13182 : : {
13183 : 35 : gimple *stmt = get_def_for_expr (*arg0, TRUNC_MOD_EXPR);
13184 : 35 : tree treeop0 = gimple_assign_rhs1 (stmt);
13185 : 35 : tree treeop1 = gimple_assign_rhs2 (stmt);
13186 : 35 : tree type = TREE_TYPE (*arg0);
13187 : 35 : scalar_int_mode mode;
13188 : 35 : if (!is_a <scalar_int_mode> (TYPE_MODE (type), &mode))
13189 : : return code;
13190 : 70 : if (GET_MODE_BITSIZE (mode) != TYPE_PRECISION (type)
13191 : 35 : || TYPE_PRECISION (type) <= 1
13192 : 35 : || TYPE_UNSIGNED (type)
13193 : : /* Signed x % c == 0 should have been optimized into unsigned modulo
13194 : : earlier. */
13195 : 35 : || integer_zerop (*arg1)
13196 : : /* If c is known to be non-negative, modulo will be expanded as unsigned
13197 : : modulo. */
13198 : 70 : || get_range_pos_neg (treeop0) == 1)
13199 : 0 : return code;
13200 : :
13201 : : /* x % c == d where d < 0 && d <= -c should be always false. */
13202 : 35 : if (tree_int_cst_sgn (*arg1) == -1
13203 : 51 : && -wi::to_widest (treeop1) >= wi::to_widest (*arg1))
13204 : : return code;
13205 : :
13206 : 35 : int prec = TYPE_PRECISION (type);
13207 : 35 : wide_int w = wi::to_wide (treeop1) - 1;
13208 : 35 : w |= wi::shifted_mask (0, prec - 1, true, prec);
13209 : 35 : tree c3 = wide_int_to_tree (type, w);
13210 : 35 : tree c4 = *arg1;
13211 : 35 : if (tree_int_cst_sgn (*arg1) == -1)
13212 : 16 : c4 = wide_int_to_tree (type, w & wi::to_wide (*arg1));
13213 : :
13214 : 35 : rtx op0 = expand_normal (treeop0);
13215 : 35 : treeop0 = make_tree (TREE_TYPE (treeop0), op0);
13216 : :
13217 : 35 : bool speed_p = optimize_insn_for_speed_p ();
13218 : :
13219 : 35 : do_pending_stack_adjust ();
13220 : :
13221 : 35 : location_t loc = gimple_location (stmt);
13222 : 35 : struct separate_ops ops;
13223 : 35 : ops.code = TRUNC_MOD_EXPR;
13224 : 35 : ops.location = loc;
13225 : 35 : ops.type = TREE_TYPE (treeop0);
13226 : 35 : ops.op0 = treeop0;
13227 : 35 : ops.op1 = treeop1;
13228 : 35 : ops.op2 = NULL_TREE;
13229 : 35 : start_sequence ();
13230 : 35 : rtx mor = expand_expr_real_2 (&ops, NULL_RTX, TYPE_MODE (ops.type),
13231 : : EXPAND_NORMAL);
13232 : 35 : rtx_insn *moinsns = get_insns ();
13233 : 35 : end_sequence ();
13234 : :
13235 : 35 : unsigned mocost = seq_cost (moinsns, speed_p);
13236 : 35 : mocost += rtx_cost (mor, mode, EQ, 0, speed_p);
13237 : 35 : mocost += rtx_cost (expand_normal (*arg1), mode, EQ, 1, speed_p);
13238 : :
13239 : 35 : ops.code = BIT_AND_EXPR;
13240 : 35 : ops.location = loc;
13241 : 35 : ops.type = TREE_TYPE (treeop0);
13242 : 35 : ops.op0 = treeop0;
13243 : 35 : ops.op1 = c3;
13244 : 35 : ops.op2 = NULL_TREE;
13245 : 35 : start_sequence ();
13246 : 35 : rtx mur = expand_expr_real_2 (&ops, NULL_RTX, TYPE_MODE (ops.type),
13247 : : EXPAND_NORMAL);
13248 : 35 : rtx_insn *muinsns = get_insns ();
13249 : 35 : end_sequence ();
13250 : :
13251 : 35 : unsigned mucost = seq_cost (muinsns, speed_p);
13252 : 35 : mucost += rtx_cost (mur, mode, EQ, 0, speed_p);
13253 : 35 : mucost += rtx_cost (expand_normal (c4), mode, EQ, 1, speed_p);
13254 : :
13255 : 35 : if (mocost <= mucost)
13256 : : {
13257 : 0 : emit_insn (moinsns);
13258 : 0 : *arg0 = make_tree (TREE_TYPE (*arg0), mor);
13259 : 0 : return code;
13260 : : }
13261 : :
13262 : 35 : emit_insn (muinsns);
13263 : 35 : *arg0 = make_tree (TREE_TYPE (*arg0), mur);
13264 : 35 : *arg1 = c4;
13265 : 35 : return code;
13266 : 35 : }
13267 : :
13268 : : /* Attempt to optimize unsigned (X % C1) == C2 (or (X % C1) != C2).
13269 : : If C1 is odd to:
13270 : : (X - C2) * C3 <= C4 (or >), where
13271 : : C3 is modular multiplicative inverse of C1 and 1<<prec and
13272 : : C4 is ((1<<prec) - 1) / C1 or ((1<<prec) - 1) / C1 - 1 (the latter
13273 : : if C2 > ((1<<prec) - 1) % C1).
13274 : : If C1 is even, S = ctz (C1) and C2 is 0, use
13275 : : ((X * C3) r>> S) <= C4, where C3 is modular multiplicative
13276 : : inverse of C1>>S and 1<<prec and C4 is (((1<<prec) - 1) / (C1>>S)) >> S.
13277 : :
13278 : : For signed (X % C1) == 0 if C1 is odd to (all operations in it
13279 : : unsigned):
13280 : : (X * C3) + C4 <= 2 * C4, where
13281 : : C3 is modular multiplicative inverse of (unsigned) C1 and 1<<prec and
13282 : : C4 is ((1<<(prec - 1) - 1) / C1).
13283 : : If C1 is even, S = ctz(C1), use
13284 : : ((X * C3) + C4) r>> S <= (C4 >> (S - 1))
13285 : : where C3 is modular multiplicative inverse of (unsigned)(C1>>S) and 1<<prec
13286 : : and C4 is ((1<<(prec - 1) - 1) / (C1>>S)) & (-1<<S).
13287 : :
13288 : : See the Hacker's Delight book, section 10-17. */
13289 : : enum tree_code
13290 : 3062406 : maybe_optimize_mod_cmp (enum tree_code code, tree *arg0, tree *arg1)
13291 : : {
13292 : 3062406 : gcc_checking_assert (code == EQ_EXPR || code == NE_EXPR);
13293 : 3062406 : gcc_checking_assert (TREE_CODE (*arg1) == INTEGER_CST);
13294 : :
13295 : 3062406 : if (optimize < 2)
13296 : : return code;
13297 : :
13298 : 2296706 : gimple *stmt = get_def_for_expr (*arg0, TRUNC_MOD_EXPR);
13299 : 2296706 : if (stmt == NULL)
13300 : : return code;
13301 : :
13302 : 2212 : tree treeop0 = gimple_assign_rhs1 (stmt);
13303 : 2212 : tree treeop1 = gimple_assign_rhs2 (stmt);
13304 : 2212 : if (TREE_CODE (treeop0) != SSA_NAME
13305 : 2136 : || TREE_CODE (treeop1) != INTEGER_CST
13306 : : /* Don't optimize the undefined behavior case x % 0;
13307 : : x % 1 should have been optimized into zero, punt if
13308 : : it makes it here for whatever reason;
13309 : : x % -c should have been optimized into x % c. */
13310 : 1785 : || compare_tree_int (treeop1, 2) <= 0
13311 : : /* Likewise x % c == d where d >= c should be always false. */
13312 : 3910 : || tree_int_cst_le (treeop1, *arg1))
13313 : 514 : return code;
13314 : :
13315 : : /* Unsigned x % pow2 is handled right already, for signed
13316 : : modulo handle it in maybe_optimize_pow2p_mod_cmp. */
13317 : 1698 : if (integer_pow2p (treeop1))
13318 : 35 : return maybe_optimize_pow2p_mod_cmp (code, arg0, arg1);
13319 : :
13320 : 1663 : tree type = TREE_TYPE (*arg0);
13321 : 1663 : scalar_int_mode mode;
13322 : 3062378 : if (!is_a <scalar_int_mode> (TYPE_MODE (type), &mode))
13323 : : return code;
13324 : 3326 : if (GET_MODE_BITSIZE (mode) != TYPE_PRECISION (type)
13325 : 1663 : || TYPE_PRECISION (type) <= 1)
13326 : : return code;
13327 : :
13328 : 1663 : signop sgn = UNSIGNED;
13329 : : /* If both operands are known to have the sign bit clear, handle
13330 : : even the signed modulo case as unsigned. treeop1 is always
13331 : : positive >= 2, checked above. */
13332 : 1663 : if (!TYPE_UNSIGNED (type) && get_range_pos_neg (treeop0) != 1)
13333 : : sgn = SIGNED;
13334 : :
13335 : 1663 : if (!TYPE_UNSIGNED (type))
13336 : : {
13337 : 1443 : if (tree_int_cst_sgn (*arg1) == -1)
13338 : : return code;
13339 : 1436 : type = unsigned_type_for (type);
13340 : 1436 : if (!type || TYPE_MODE (type) != TYPE_MODE (TREE_TYPE (*arg0)))
13341 : 0 : return code;
13342 : : }
13343 : :
13344 : 1656 : int prec = TYPE_PRECISION (type);
13345 : 1656 : wide_int w = wi::to_wide (treeop1);
13346 : 1656 : int shift = wi::ctz (w);
13347 : : /* Unsigned (X % C1) == C2 is equivalent to (X - C2) % C1 == 0 if
13348 : : C2 <= -1U % C1, because for any Z >= 0U - C2 in that case (Z % C1) != 0.
13349 : : If C1 is odd, we can handle all cases by subtracting
13350 : : C4 below. We could handle even the even C1 and C2 > -1U % C1 cases
13351 : : e.g. by testing for overflow on the subtraction, punt on that for now
13352 : : though. */
13353 : 1656 : if ((sgn == SIGNED || shift) && !integer_zerop (*arg1))
13354 : : {
13355 : 181 : if (sgn == SIGNED)
13356 : 166 : return code;
13357 : 26 : wide_int x = wi::umod_trunc (wi::mask (prec, false, prec), w);
13358 : 26 : if (wi::gtu_p (wi::to_wide (*arg1), x))
13359 : 11 : return code;
13360 : 26 : }
13361 : :
13362 : 1490 : imm_use_iterator imm_iter;
13363 : 1490 : use_operand_p use_p;
13364 : 11058 : FOR_EACH_IMM_USE_FAST (use_p, imm_iter, treeop0)
13365 : : {
13366 : 9569 : gimple *use_stmt = USE_STMT (use_p);
13367 : : /* Punt if treeop0 is used in the same bb in a division
13368 : : or another modulo with the same divisor. We should expect
13369 : : the division and modulo combined together. */
13370 : 18808 : if (use_stmt == stmt
13371 : 9569 : || gimple_bb (use_stmt) != gimple_bb (stmt))
13372 : 9239 : continue;
13373 : 330 : if (!is_gimple_assign (use_stmt)
13374 : 330 : || (gimple_assign_rhs_code (use_stmt) != TRUNC_DIV_EXPR
13375 : 323 : && gimple_assign_rhs_code (use_stmt) != TRUNC_MOD_EXPR))
13376 : 320 : continue;
13377 : 10 : if (gimple_assign_rhs1 (use_stmt) != treeop0
13378 : 10 : || !operand_equal_p (gimple_assign_rhs2 (use_stmt), treeop1, 0))
13379 : 9 : continue;
13380 : : return code;
13381 : : }
13382 : :
13383 : 1489 : w = wi::lrshift (w, shift);
13384 : 1489 : wide_int a = wide_int::from (w, prec + 1, UNSIGNED);
13385 : 1489 : wide_int b = wi::shifted_mask (prec, 1, false, prec + 1);
13386 : 1489 : wide_int m = wide_int::from (wi::mod_inv (a, b), prec, UNSIGNED);
13387 : 1489 : tree c3 = wide_int_to_tree (type, m);
13388 : 1489 : tree c5 = NULL_TREE;
13389 : 1489 : wide_int d, e;
13390 : 1489 : if (sgn == UNSIGNED)
13391 : : {
13392 : 751 : d = wi::divmod_trunc (wi::mask (prec, false, prec), w, UNSIGNED, &e);
13393 : : /* Use <= floor ((1<<prec) - 1) / C1 only if C2 <= ((1<<prec) - 1) % C1,
13394 : : otherwise use < or subtract one from C4. E.g. for
13395 : : x % 3U == 0 we transform this into x * 0xaaaaaaab <= 0x55555555, but
13396 : : x % 3U == 1 already needs to be
13397 : : (x - 1) * 0xaaaaaaabU <= 0x55555554. */
13398 : 751 : if (!shift && wi::gtu_p (wi::to_wide (*arg1), e))
13399 : 17 : d -= 1;
13400 : 751 : if (shift)
13401 : 278 : d = wi::lrshift (d, shift);
13402 : : }
13403 : : else
13404 : : {
13405 : 738 : e = wi::udiv_trunc (wi::mask (prec - 1, false, prec), w);
13406 : 738 : if (!shift)
13407 : 375 : d = wi::lshift (e, 1);
13408 : : else
13409 : : {
13410 : 363 : e = wi::bit_and (e, wi::mask (shift, true, prec));
13411 : 363 : d = wi::lrshift (e, shift - 1);
13412 : : }
13413 : 738 : c5 = wide_int_to_tree (type, e);
13414 : : }
13415 : 1489 : tree c4 = wide_int_to_tree (type, d);
13416 : :
13417 : 1489 : rtx op0 = expand_normal (treeop0);
13418 : 1489 : treeop0 = make_tree (TREE_TYPE (treeop0), op0);
13419 : :
13420 : 1489 : bool speed_p = optimize_insn_for_speed_p ();
13421 : :
13422 : 1489 : do_pending_stack_adjust ();
13423 : :
13424 : 1489 : location_t loc = gimple_location (stmt);
13425 : 1489 : struct separate_ops ops;
13426 : 1489 : ops.code = TRUNC_MOD_EXPR;
13427 : 1489 : ops.location = loc;
13428 : 1489 : ops.type = TREE_TYPE (treeop0);
13429 : 1489 : ops.op0 = treeop0;
13430 : 1489 : ops.op1 = treeop1;
13431 : 1489 : ops.op2 = NULL_TREE;
13432 : 1489 : start_sequence ();
13433 : 1489 : rtx mor = expand_expr_real_2 (&ops, NULL_RTX, TYPE_MODE (ops.type),
13434 : : EXPAND_NORMAL);
13435 : 1489 : rtx_insn *moinsns = get_insns ();
13436 : 1489 : end_sequence ();
13437 : :
13438 : 1489 : unsigned mocost = seq_cost (moinsns, speed_p);
13439 : 1489 : mocost += rtx_cost (mor, mode, EQ, 0, speed_p);
13440 : 1489 : mocost += rtx_cost (expand_normal (*arg1), mode, EQ, 1, speed_p);
13441 : :
13442 : 1489 : tree t = fold_convert_loc (loc, type, treeop0);
13443 : 1489 : if (!integer_zerop (*arg1))
13444 : 42 : t = fold_build2_loc (loc, MINUS_EXPR, type, t, fold_convert (type, *arg1));
13445 : 1489 : t = fold_build2_loc (loc, MULT_EXPR, type, t, c3);
13446 : 1489 : if (sgn == SIGNED)
13447 : 738 : t = fold_build2_loc (loc, PLUS_EXPR, type, t, c5);
13448 : 1489 : if (shift)
13449 : : {
13450 : 641 : tree s = build_int_cst (NULL_TREE, shift);
13451 : 641 : t = fold_build2_loc (loc, RROTATE_EXPR, type, t, s);
13452 : : }
13453 : :
13454 : 1489 : start_sequence ();
13455 : 1489 : rtx mur = expand_normal (t);
13456 : 1489 : rtx_insn *muinsns = get_insns ();
13457 : 1489 : end_sequence ();
13458 : :
13459 : 1489 : unsigned mucost = seq_cost (muinsns, speed_p);
13460 : 1489 : mucost += rtx_cost (mur, mode, LE, 0, speed_p);
13461 : 1489 : mucost += rtx_cost (expand_normal (c4), mode, LE, 1, speed_p);
13462 : :
13463 : 1489 : if (mocost <= mucost)
13464 : : {
13465 : 301 : emit_insn (moinsns);
13466 : 301 : *arg0 = make_tree (TREE_TYPE (*arg0), mor);
13467 : 301 : return code;
13468 : : }
13469 : :
13470 : 1188 : emit_insn (muinsns);
13471 : 1188 : *arg0 = make_tree (type, mur);
13472 : 1188 : *arg1 = c4;
13473 : 1188 : return code == EQ_EXPR ? LE_EXPR : GT_EXPR;
13474 : 3145 : }
13475 : :
13476 : : /* Optimize x - y < 0 into x < 0 if x - y has undefined overflow. */
13477 : :
13478 : : void
13479 : 228125 : maybe_optimize_sub_cmp_0 (enum tree_code code, tree *arg0, tree *arg1)
13480 : : {
13481 : 228125 : gcc_checking_assert (code == GT_EXPR || code == GE_EXPR
13482 : : || code == LT_EXPR || code == LE_EXPR);
13483 : 228125 : gcc_checking_assert (integer_zerop (*arg1));
13484 : :
13485 : 228125 : if (!optimize)
13486 : : return;
13487 : :
13488 : 195498 : gimple *stmt = get_def_for_expr (*arg0, MINUS_EXPR);
13489 : 195498 : if (stmt == NULL)
13490 : : return;
13491 : :
13492 : 1257 : tree treeop0 = gimple_assign_rhs1 (stmt);
13493 : 1257 : tree treeop1 = gimple_assign_rhs2 (stmt);
13494 : 1257 : if (!TYPE_OVERFLOW_UNDEFINED (TREE_TYPE (treeop0)))
13495 : : return;
13496 : :
13497 : 1160 : if (issue_strict_overflow_warning (WARN_STRICT_OVERFLOW_COMPARISON))
13498 : 1 : warning_at (gimple_location (stmt), OPT_Wstrict_overflow,
13499 : : "assuming signed overflow does not occur when "
13500 : : "simplifying %<X - Y %s 0%> to %<X %s Y%>",
13501 : : op_symbol_code (code), op_symbol_code (code));
13502 : :
13503 : 1160 : *arg0 = treeop0;
13504 : 1160 : *arg1 = treeop1;
13505 : : }
13506 : :
13507 : :
13508 : : /* Expand CODE with arguments INNER & (1<<BITNUM) and 0 that represents
13509 : : a single bit equality/inequality test, returns where the result is located. */
13510 : :
13511 : : static rtx
13512 : 9502 : expand_single_bit_test (location_t loc, enum tree_code code,
13513 : : tree inner, int bitnum,
13514 : : tree result_type, rtx target,
13515 : : machine_mode mode)
13516 : : {
13517 : 9502 : gcc_assert (code == NE_EXPR || code == EQ_EXPR);
13518 : :
13519 : 9502 : tree type = TREE_TYPE (inner);
13520 : 9502 : scalar_int_mode operand_mode = SCALAR_INT_TYPE_MODE (type);
13521 : 9502 : int ops_unsigned;
13522 : 9502 : tree signed_type, unsigned_type, intermediate_type;
13523 : 9502 : gimple *inner_def;
13524 : :
13525 : : /* First, see if we can fold the single bit test into a sign-bit
13526 : : test. */
13527 : 9502 : if (bitnum == TYPE_PRECISION (type) - 1
13528 : 9502 : && type_has_mode_precision_p (type))
13529 : : {
13530 : 229 : tree stype = signed_type_for (type);
13531 : 424 : tree tmp = fold_build2_loc (loc, code == EQ_EXPR ? GE_EXPR : LT_EXPR,
13532 : : result_type,
13533 : : fold_convert_loc (loc, stype, inner),
13534 : 229 : build_int_cst (stype, 0));
13535 : 229 : return expand_expr (tmp, target, VOIDmode, EXPAND_NORMAL);
13536 : : }
13537 : :
13538 : : /* Otherwise we have (A & C) != 0 where C is a single bit,
13539 : : convert that into ((A >> C2) & 1). Where C2 = log2(C).
13540 : : Similarly for (A & C) == 0. */
13541 : :
13542 : : /* If INNER is a right shift of a constant and it plus BITNUM does
13543 : : not overflow, adjust BITNUM and INNER. */
13544 : 9273 : if ((inner_def = get_def_for_expr (inner, RSHIFT_EXPR))
13545 : 14 : && TREE_CODE (gimple_assign_rhs2 (inner_def)) == INTEGER_CST
13546 : 0 : && bitnum < TYPE_PRECISION (type)
13547 : 9273 : && wi::ltu_p (wi::to_wide (gimple_assign_rhs2 (inner_def)),
13548 : 9273 : TYPE_PRECISION (type) - bitnum))
13549 : : {
13550 : 0 : bitnum += tree_to_uhwi (gimple_assign_rhs2 (inner_def));
13551 : 0 : inner = gimple_assign_rhs1 (inner_def);
13552 : : }
13553 : :
13554 : : /* If we are going to be able to omit the AND below, we must do our
13555 : : operations as unsigned. If we must use the AND, we have a choice.
13556 : : Normally unsigned is faster, but for some machines signed is. */
13557 : 9273 : ops_unsigned = (load_extend_op (operand_mode) == SIGN_EXTEND
13558 : : && !flag_syntax_only) ? 0 : 1;
13559 : :
13560 : 9273 : signed_type = lang_hooks.types.type_for_mode (operand_mode, 0);
13561 : 9273 : unsigned_type = lang_hooks.types.type_for_mode (operand_mode, 1);
13562 : 9273 : intermediate_type = ops_unsigned ? unsigned_type : signed_type;
13563 : 9273 : inner = fold_convert_loc (loc, intermediate_type, inner);
13564 : :
13565 : 9273 : rtx inner0 = expand_expr (inner, NULL_RTX, VOIDmode, EXPAND_NORMAL);
13566 : :
13567 : 9273 : if (CONST_SCALAR_INT_P (inner0))
13568 : : {
13569 : 0 : wide_int t = rtx_mode_t (inner0, operand_mode);
13570 : 0 : bool setp = (wi::lrshift (t, bitnum) & 1) != 0;
13571 : 0 : return (setp ^ (code == EQ_EXPR)) ? const1_rtx : const0_rtx;
13572 : 0 : }
13573 : 9273 : int bitpos = bitnum;
13574 : :
13575 : 9273 : if (BYTES_BIG_ENDIAN)
13576 : : bitpos = GET_MODE_BITSIZE (operand_mode) - 1 - bitpos;
13577 : :
13578 : 9273 : inner0 = extract_bit_field (inner0, 1, bitpos, 1, target,
13579 : : operand_mode, mode, 0, NULL);
13580 : :
13581 : 9273 : if (code == EQ_EXPR)
13582 : 2666 : inner0 = expand_binop (GET_MODE (inner0), xor_optab, inner0, const1_rtx,
13583 : : NULL_RTX, 1, OPTAB_LIB_WIDEN);
13584 : 9273 : if (GET_MODE (inner0) != mode)
13585 : : {
13586 : 0 : rtx t = gen_reg_rtx (mode);
13587 : 0 : convert_move (t, inner0, 0);
13588 : 0 : return t;
13589 : : }
13590 : : return inner0;
13591 : : }
13592 : :
13593 : : /* Generate code to calculate OPS, and exploded expression
13594 : : using a store-flag instruction and return an rtx for the result.
13595 : : OPS reflects a comparison.
13596 : :
13597 : : If TARGET is nonzero, store the result there if convenient.
13598 : :
13599 : : Return zero if there is no suitable set-flag instruction
13600 : : available on this machine.
13601 : :
13602 : : Once expand_expr has been called on the arguments of the comparison,
13603 : : we are committed to doing the store flag, since it is not safe to
13604 : : re-evaluate the expression. We emit the store-flag insn by calling
13605 : : emit_store_flag, but only expand the arguments if we have a reason
13606 : : to believe that emit_store_flag will be successful. If we think that
13607 : : it will, but it isn't, we have to simulate the store-flag with a
13608 : : set/jump/set sequence. */
13609 : :
13610 : : static rtx
13611 : 512860 : do_store_flag (const_sepops ops, rtx target, machine_mode mode)
13612 : : {
13613 : 512860 : enum rtx_code code;
13614 : 512860 : tree arg0, arg1, type;
13615 : 512860 : machine_mode operand_mode;
13616 : 512860 : int unsignedp;
13617 : 512860 : rtx op0, op1;
13618 : 512860 : rtx subtarget = target;
13619 : 512860 : location_t loc = ops->location;
13620 : 512860 : unsigned HOST_WIDE_INT nunits;
13621 : :
13622 : 512860 : arg0 = ops->op0;
13623 : 512860 : arg1 = ops->op1;
13624 : :
13625 : : /* Don't crash if the comparison was erroneous. */
13626 : 512860 : if (arg0 == error_mark_node || arg1 == error_mark_node)
13627 : 0 : return const0_rtx;
13628 : :
13629 : 512860 : type = TREE_TYPE (arg0);
13630 : 512860 : operand_mode = TYPE_MODE (type);
13631 : 512860 : unsignedp = TYPE_UNSIGNED (type);
13632 : :
13633 : : /* We won't bother with BLKmode store-flag operations because it would mean
13634 : : passing a lot of information to emit_store_flag. */
13635 : 512860 : if (operand_mode == BLKmode)
13636 : : return 0;
13637 : :
13638 : : /* We won't bother with store-flag operations involving function pointers
13639 : : when function pointers must be canonicalized before comparisons. */
13640 : 512860 : if (targetm.have_canonicalize_funcptr_for_compare ()
13641 : 512860 : && ((POINTER_TYPE_P (TREE_TYPE (arg0))
13642 : 0 : && FUNC_OR_METHOD_TYPE_P (TREE_TYPE (TREE_TYPE (arg0))))
13643 : 0 : || (POINTER_TYPE_P (TREE_TYPE (arg1))
13644 : 0 : && FUNC_OR_METHOD_TYPE_P (TREE_TYPE (TREE_TYPE (arg1))))))
13645 : : return 0;
13646 : :
13647 : 512860 : STRIP_NOPS (arg0);
13648 : 512860 : STRIP_NOPS (arg1);
13649 : :
13650 : : /* For vector typed comparisons emit code to generate the desired
13651 : : all-ones or all-zeros mask. */
13652 : 512860 : if (VECTOR_TYPE_P (ops->type))
13653 : : {
13654 : 21735 : tree ifexp = build2 (ops->code, ops->type, arg0, arg1);
13655 : 21735 : if (VECTOR_BOOLEAN_TYPE_P (ops->type)
13656 : 43470 : && expand_vec_cmp_expr_p (TREE_TYPE (arg0), ops->type, ops->code))
13657 : 21735 : return expand_vec_cmp_expr (ops->type, ifexp, target);
13658 : : else
13659 : 0 : gcc_unreachable ();
13660 : : }
13661 : :
13662 : : /* Optimize (x % C1) == C2 or (x % C1) != C2 if it is beneficial
13663 : : into (x - C2) * C3 < C4. */
13664 : 491125 : if ((ops->code == EQ_EXPR || ops->code == NE_EXPR)
13665 : 296753 : && TREE_CODE (arg0) == SSA_NAME
13666 : 294179 : && TREE_CODE (arg1) == INTEGER_CST)
13667 : : {
13668 : 175843 : enum tree_code new_code = maybe_optimize_mod_cmp (ops->code,
13669 : : &arg0, &arg1);
13670 : 175843 : if (new_code != ops->code)
13671 : : {
13672 : 75 : struct separate_ops nops = *ops;
13673 : 75 : nops.code = new_code;
13674 : 75 : nops.op0 = arg0;
13675 : 75 : nops.op1 = arg1;
13676 : 75 : nops.type = TREE_TYPE (arg0);
13677 : 75 : return do_store_flag (&nops, target, mode);
13678 : : }
13679 : : }
13680 : :
13681 : : /* Optimize (x - y) < 0 into x < y if x - y has undefined overflow. */
13682 : 491050 : if (!unsignedp
13683 : 336899 : && (ops->code == LT_EXPR || ops->code == LE_EXPR
13684 : 336899 : || ops->code == GT_EXPR || ops->code == GE_EXPR)
13685 : 121572 : && integer_zerop (arg1)
13686 : 528961 : && TREE_CODE (arg0) == SSA_NAME)
13687 : 37907 : maybe_optimize_sub_cmp_0 (ops->code, &arg0, &arg1);
13688 : :
13689 : : /* Get the rtx comparison code to use. We know that EXP is a comparison
13690 : : operation of some type. Some comparisons against 1 and -1 can be
13691 : : converted to comparisons with zero. Do so here so that the tests
13692 : : below will be aware that we have a comparison with zero. These
13693 : : tests will not catch constants in the first operand, but constants
13694 : : are rarely passed as the first operand. */
13695 : :
13696 : 491050 : switch (ops->code)
13697 : : {
13698 : : case EQ_EXPR:
13699 : : code = EQ;
13700 : : break;
13701 : 180416 : case NE_EXPR:
13702 : 180416 : code = NE;
13703 : 180416 : break;
13704 : 40496 : case LT_EXPR:
13705 : 40496 : if (integer_onep (arg1))
13706 : 0 : arg1 = integer_zero_node, code = unsignedp ? LEU : LE;
13707 : : else
13708 : 40496 : code = unsignedp ? LTU : LT;
13709 : : break;
13710 : 32840 : case LE_EXPR:
13711 : 32840 : if (! unsignedp && integer_all_onesp (arg1))
13712 : 0 : arg1 = integer_zero_node, code = LT;
13713 : : else
13714 : 32840 : code = unsignedp ? LEU : LE;
13715 : : break;
13716 : 54541 : case GT_EXPR:
13717 : 54541 : if (! unsignedp && integer_all_onesp (arg1))
13718 : 0 : arg1 = integer_zero_node, code = GE;
13719 : : else
13720 : 54541 : code = unsignedp ? GTU : GT;
13721 : : break;
13722 : 42377 : case GE_EXPR:
13723 : 42377 : if (integer_onep (arg1))
13724 : 0 : arg1 = integer_zero_node, code = unsignedp ? GTU : GT;
13725 : : else
13726 : 42377 : code = unsignedp ? GEU : GE;
13727 : : break;
13728 : :
13729 : 676 : case UNORDERED_EXPR:
13730 : 676 : code = UNORDERED;
13731 : 676 : break;
13732 : 679 : case ORDERED_EXPR:
13733 : 679 : code = ORDERED;
13734 : 679 : break;
13735 : 482 : case UNLT_EXPR:
13736 : 482 : code = UNLT;
13737 : 482 : break;
13738 : 11129 : case UNLE_EXPR:
13739 : 11129 : code = UNLE;
13740 : 11129 : break;
13741 : 766 : case UNGT_EXPR:
13742 : 766 : code = UNGT;
13743 : 766 : break;
13744 : 10165 : case UNGE_EXPR:
13745 : 10165 : code = UNGE;
13746 : 10165 : break;
13747 : 141 : case UNEQ_EXPR:
13748 : 141 : code = UNEQ;
13749 : 141 : break;
13750 : 80 : case LTGT_EXPR:
13751 : 80 : code = LTGT;
13752 : 80 : break;
13753 : :
13754 : 0 : default:
13755 : 0 : gcc_unreachable ();
13756 : : }
13757 : :
13758 : : /* Put a constant second. */
13759 : 491050 : if (TREE_CODE (arg0) == REAL_CST || TREE_CODE (arg0) == INTEGER_CST
13760 : 490009 : || TREE_CODE (arg0) == FIXED_CST)
13761 : : {
13762 : 1041 : std::swap (arg0, arg1);
13763 : 1041 : code = swap_condition (code);
13764 : : }
13765 : :
13766 : : /* If this is an equality or inequality test of a single bit, we can
13767 : : do this by shifting the bit being tested to the low-order bit and
13768 : : masking the result with the constant 1. If the condition was EQ,
13769 : : we xor it with 1. This does not require an scc insn and is faster
13770 : : than an scc insn even if we have it. */
13771 : :
13772 : 491050 : if ((code == NE || code == EQ)
13773 : 296678 : && (integer_zerop (arg1)
13774 : 189763 : || integer_pow2p (arg1))
13775 : : /* vector types are not handled here. */
13776 : 136140 : && TREE_CODE (TREE_TYPE (arg1)) != VECTOR_TYPE
13777 : 627180 : && (TYPE_PRECISION (ops->type) != 1 || TYPE_UNSIGNED (ops->type)))
13778 : : {
13779 : 136130 : tree narg0 = arg0;
13780 : 136130 : wide_int nz = tree_nonzero_bits (narg0);
13781 : 136130 : gimple *srcstmt = get_def_for_expr (narg0, BIT_AND_EXPR);
13782 : : /* If the defining statement was (x & POW2), then use that instead of
13783 : : the non-zero bits. */
13784 : 136130 : if (srcstmt && integer_pow2p (gimple_assign_rhs2 (srcstmt)))
13785 : : {
13786 : 5102 : nz = wi::to_wide (gimple_assign_rhs2 (srcstmt));
13787 : 5102 : narg0 = gimple_assign_rhs1 (srcstmt);
13788 : : }
13789 : :
13790 : 136130 : if (wi::popcount (nz) == 1
13791 : 136130 : && (integer_zerop (arg1)
13792 : 126656 : || wi::to_wide (arg1) == nz))
13793 : : {
13794 : 9502 : int bitnum = wi::exact_log2 (nz);
13795 : 9502 : enum tree_code tcode = EQ_EXPR;
13796 : 9502 : if ((code == NE) ^ !integer_zerop (arg1))
13797 : 6802 : tcode = NE_EXPR;
13798 : :
13799 : 9502 : type = lang_hooks.types.type_for_mode (mode, unsignedp);
13800 : 9502 : return expand_single_bit_test (loc, tcode,
13801 : : narg0,
13802 : : bitnum, type, target, mode);
13803 : : }
13804 : 136130 : }
13805 : :
13806 : :
13807 : 481548 : if (! get_subtarget (target)
13808 : 481548 : || GET_MODE (subtarget) != operand_mode)
13809 : : subtarget = 0;
13810 : :
13811 : 481548 : expand_operands (arg0, arg1, subtarget, &op0, &op1, EXPAND_NORMAL);
13812 : :
13813 : : /* For boolean vectors with less than mode precision
13814 : : make sure to fill padding with consistent values. */
13815 : 10 : if (VECTOR_BOOLEAN_TYPE_P (type)
13816 : 1 : && SCALAR_INT_MODE_P (operand_mode)
13817 : 481548 : && TYPE_VECTOR_SUBPARTS (type).is_constant (&nunits)
13818 : 481549 : && maybe_ne (GET_MODE_PRECISION (operand_mode), nunits))
13819 : : {
13820 : 1 : gcc_assert (code == EQ || code == NE);
13821 : 1 : op0 = expand_binop (mode, and_optab, op0,
13822 : 1 : GEN_INT ((HOST_WIDE_INT_1U << nunits) - 1),
13823 : : NULL_RTX, true, OPTAB_WIDEN);
13824 : 1 : op1 = expand_binop (mode, and_optab, op1,
13825 : : GEN_INT ((HOST_WIDE_INT_1U << nunits) - 1),
13826 : : NULL_RTX, true, OPTAB_WIDEN);
13827 : : }
13828 : :
13829 : 481548 : if (target == 0)
13830 : 309094 : target = gen_reg_rtx (mode);
13831 : :
13832 : : /* Try a cstore if possible. */
13833 : 481548 : return emit_store_flag_force (target, code, op0, op1,
13834 : : operand_mode, unsignedp,
13835 : 481548 : (TYPE_PRECISION (ops->type) == 1
13836 : 962521 : && !TYPE_UNSIGNED (ops->type)) ? -1 : 1);
13837 : : }
13838 : :
13839 : : /* Attempt to generate a casesi instruction. Returns true if successful,
13840 : : false otherwise (i.e. if there is no casesi instruction).
13841 : :
13842 : : DEFAULT_PROBABILITY is the probability of jumping to the default
13843 : : label. */
13844 : : bool
13845 : 6565 : try_casesi (tree index_type, tree index_expr, tree minval, tree range,
13846 : : rtx table_label, rtx default_label, rtx fallback_label,
13847 : : profile_probability default_probability)
13848 : : {
13849 : 6565 : class expand_operand ops[5];
13850 : 6565 : scalar_int_mode index_mode = SImode;
13851 : 6565 : rtx op1, op2, index;
13852 : :
13853 : 6565 : if (! targetm.have_casesi ())
13854 : : return false;
13855 : :
13856 : : /* The index must be some form of integer. Convert it to SImode. */
13857 : 0 : scalar_int_mode omode = SCALAR_INT_TYPE_MODE (index_type);
13858 : 0 : if (GET_MODE_BITSIZE (omode) > GET_MODE_BITSIZE (index_mode))
13859 : : {
13860 : 0 : rtx rangertx = expand_normal (range);
13861 : :
13862 : : /* We must handle the endpoints in the original mode. */
13863 : 0 : index_expr = build2 (MINUS_EXPR, index_type,
13864 : : index_expr, minval);
13865 : 0 : minval = integer_zero_node;
13866 : 0 : index = expand_normal (index_expr);
13867 : 0 : if (default_label)
13868 : 0 : emit_cmp_and_jump_insns (rangertx, index, LTU, NULL_RTX,
13869 : : omode, 1, default_label,
13870 : : default_probability);
13871 : : /* Now we can safely truncate. */
13872 : 0 : index = convert_to_mode (index_mode, index, 0);
13873 : : }
13874 : : else
13875 : : {
13876 : 0 : if (omode != index_mode)
13877 : : {
13878 : 0 : index_type = lang_hooks.types.type_for_mode (index_mode, 0);
13879 : 0 : index_expr = fold_convert (index_type, index_expr);
13880 : : }
13881 : :
13882 : 0 : index = expand_normal (index_expr);
13883 : : }
13884 : :
13885 : 0 : do_pending_stack_adjust ();
13886 : :
13887 : 0 : op1 = expand_normal (minval);
13888 : 0 : op2 = expand_normal (range);
13889 : :
13890 : 0 : create_input_operand (&ops[0], index, index_mode);
13891 : 0 : create_convert_operand_from_type (&ops[1], op1, TREE_TYPE (minval));
13892 : 0 : create_convert_operand_from_type (&ops[2], op2, TREE_TYPE (range));
13893 : 0 : create_fixed_operand (&ops[3], table_label);
13894 : 0 : create_fixed_operand (&ops[4], (default_label
13895 : : ? default_label
13896 : : : fallback_label));
13897 : 0 : expand_jump_insn (targetm.code_for_casesi, 5, ops);
13898 : 0 : return true;
13899 : : }
13900 : :
13901 : : /* Attempt to generate a tablejump instruction; same concept. */
13902 : : /* Subroutine of the next function.
13903 : :
13904 : : INDEX is the value being switched on, with the lowest value
13905 : : in the table already subtracted.
13906 : : MODE is its expected mode (needed if INDEX is constant).
13907 : : RANGE is the length of the jump table.
13908 : : TABLE_LABEL is a CODE_LABEL rtx for the table itself.
13909 : :
13910 : : DEFAULT_LABEL is a CODE_LABEL rtx to jump to if the
13911 : : index value is out of range.
13912 : : DEFAULT_PROBABILITY is the probability of jumping to
13913 : : the default label. */
13914 : :
13915 : : static void
13916 : 6565 : do_tablejump (rtx index, machine_mode mode, rtx range, rtx table_label,
13917 : : rtx default_label, profile_probability default_probability)
13918 : : {
13919 : 6565 : rtx temp, vector;
13920 : :
13921 : 6565 : if (INTVAL (range) > cfun->cfg->max_jumptable_ents)
13922 : 5356 : cfun->cfg->max_jumptable_ents = INTVAL (range);
13923 : :
13924 : : /* Do an unsigned comparison (in the proper mode) between the index
13925 : : expression and the value which represents the length of the range.
13926 : : Since we just finished subtracting the lower bound of the range
13927 : : from the index expression, this comparison allows us to simultaneously
13928 : : check that the original index expression value is both greater than
13929 : : or equal to the minimum value of the range and less than or equal to
13930 : : the maximum value of the range. */
13931 : :
13932 : 6565 : if (default_label)
13933 : 5516 : emit_cmp_and_jump_insns (index, range, GTU, NULL_RTX, mode, 1,
13934 : : default_label, default_probability);
13935 : :
13936 : : /* If index is in range, it must fit in Pmode.
13937 : : Convert to Pmode so we can index with it. */
13938 : 6565 : if (mode != Pmode)
13939 : : {
13940 : 5518 : unsigned int width;
13941 : :
13942 : : /* We know the value of INDEX is between 0 and RANGE. If we have a
13943 : : sign-extended subreg, and RANGE does not have the sign bit set, then
13944 : : we have a value that is valid for both sign and zero extension. In
13945 : : this case, we get better code if we sign extend. */
13946 : 5518 : if (GET_CODE (index) == SUBREG
13947 : 9 : && SUBREG_PROMOTED_VAR_P (index)
13948 : 0 : && SUBREG_PROMOTED_SIGNED_P (index)
13949 : 0 : && ((width = GET_MODE_PRECISION (as_a <scalar_int_mode> (mode)))
13950 : : <= HOST_BITS_PER_WIDE_INT)
13951 : 5518 : && ! (UINTVAL (range) & (HOST_WIDE_INT_1U << (width - 1))))
13952 : 0 : index = convert_to_mode (Pmode, index, 0);
13953 : : else
13954 : 5518 : index = convert_to_mode (Pmode, index, 1);
13955 : : }
13956 : :
13957 : : /* Don't let a MEM slip through, because then INDEX that comes
13958 : : out of PIC_CASE_VECTOR_ADDRESS won't be a valid address,
13959 : : and break_out_memory_refs will go to work on it and mess it up. */
13960 : : #ifdef PIC_CASE_VECTOR_ADDRESS
13961 : : if (flag_pic && !REG_P (index))
13962 : : index = copy_to_mode_reg (Pmode, index);
13963 : : #endif
13964 : :
13965 : : /* ??? The only correct use of CASE_VECTOR_MODE is the one inside the
13966 : : GET_MODE_SIZE, because this indicates how large insns are. The other
13967 : : uses should all be Pmode, because they are addresses. This code
13968 : : could fail if addresses and insns are not the same size. */
13969 : 6565 : index = simplify_gen_binary (MULT, Pmode, index,
13970 : 13130 : gen_int_mode (GET_MODE_SIZE (CASE_VECTOR_MODE),
13971 : 6565 : Pmode));
13972 : 6565 : index = simplify_gen_binary (PLUS, Pmode, index,
13973 : 6565 : gen_rtx_LABEL_REF (Pmode, table_label));
13974 : :
13975 : : #ifdef PIC_CASE_VECTOR_ADDRESS
13976 : : if (flag_pic)
13977 : : index = PIC_CASE_VECTOR_ADDRESS (index);
13978 : : else
13979 : : #endif
13980 : 8157 : index = memory_address (CASE_VECTOR_MODE, index);
13981 : 8157 : temp = gen_reg_rtx (CASE_VECTOR_MODE);
13982 : 8157 : vector = gen_const_mem (CASE_VECTOR_MODE, index);
13983 : 6565 : convert_move (temp, vector, 0);
13984 : :
13985 : 6565 : emit_jump_insn (targetm.gen_tablejump (temp, table_label));
13986 : :
13987 : : /* If we are generating PIC code or if the table is PC-relative, the
13988 : : table and JUMP_INSN must be adjacent, so don't output a BARRIER. */
13989 : 6565 : if (! CASE_VECTOR_PC_RELATIVE && ! flag_pic)
13990 : 5508 : emit_barrier ();
13991 : 6565 : }
13992 : :
13993 : : bool
13994 : 6565 : try_tablejump (tree index_type, tree index_expr, tree minval, tree range,
13995 : : rtx table_label, rtx default_label,
13996 : : profile_probability default_probability)
13997 : : {
13998 : 6565 : rtx index;
13999 : :
14000 : 6565 : if (! targetm.have_tablejump ())
14001 : : return false;
14002 : :
14003 : 6565 : index_expr = fold_build2 (MINUS_EXPR, index_type,
14004 : : fold_convert (index_type, index_expr),
14005 : : fold_convert (index_type, minval));
14006 : 6565 : index = expand_normal (index_expr);
14007 : 6565 : do_pending_stack_adjust ();
14008 : :
14009 : 6565 : do_tablejump (index, TYPE_MODE (index_type),
14010 : 6565 : convert_modes (TYPE_MODE (index_type),
14011 : 6565 : TYPE_MODE (TREE_TYPE (range)),
14012 : : expand_normal (range),
14013 : 6565 : TYPE_UNSIGNED (TREE_TYPE (range))),
14014 : : table_label, default_label, default_probability);
14015 : 6565 : return true;
14016 : : }
14017 : :
14018 : : /* Return a CONST_VECTOR rtx representing vector mask for
14019 : : a VECTOR_CST of booleans. */
14020 : : static rtx
14021 : 94 : const_vector_mask_from_tree (tree exp)
14022 : : {
14023 : 94 : machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
14024 : 94 : machine_mode inner = GET_MODE_INNER (mode);
14025 : :
14026 : 94 : rtx_vector_builder builder (mode, VECTOR_CST_NPATTERNS (exp),
14027 : 94 : VECTOR_CST_NELTS_PER_PATTERN (exp));
14028 : 94 : unsigned int count = builder.encoded_nelts ();
14029 : 254 : for (unsigned int i = 0; i < count; ++i)
14030 : : {
14031 : 160 : tree elt = VECTOR_CST_ELT (exp, i);
14032 : 160 : gcc_assert (TREE_CODE (elt) == INTEGER_CST);
14033 : 160 : if (integer_zerop (elt))
14034 : 44 : builder.quick_push (CONST0_RTX (inner));
14035 : 116 : else if (integer_onep (elt)
14036 : 116 : || integer_minus_onep (elt))
14037 : 116 : builder.quick_push (CONSTM1_RTX (inner));
14038 : : else
14039 : 0 : gcc_unreachable ();
14040 : : }
14041 : 94 : return builder.build ();
14042 : 94 : }
14043 : :
14044 : : /* Return a CONST_VECTOR rtx for a VECTOR_CST tree. */
14045 : : static rtx
14046 : 522302 : const_vector_from_tree (tree exp)
14047 : : {
14048 : 522302 : machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
14049 : :
14050 : 522302 : if (initializer_zerop (exp))
14051 : 151661 : return CONST0_RTX (mode);
14052 : :
14053 : 370641 : if (VECTOR_BOOLEAN_TYPE_P (TREE_TYPE (exp)))
14054 : 94 : return const_vector_mask_from_tree (exp);
14055 : :
14056 : 370547 : machine_mode inner = GET_MODE_INNER (mode);
14057 : :
14058 : 370547 : rtx_vector_builder builder (mode, VECTOR_CST_NPATTERNS (exp),
14059 : 370547 : VECTOR_CST_NELTS_PER_PATTERN (exp));
14060 : 370547 : unsigned int count = builder.encoded_nelts ();
14061 : 1198085 : for (unsigned int i = 0; i < count; ++i)
14062 : : {
14063 : 827538 : tree elt = VECTOR_CST_ELT (exp, i);
14064 : 827538 : if (TREE_CODE (elt) == REAL_CST)
14065 : 133148 : builder.quick_push (const_double_from_real_value (TREE_REAL_CST (elt),
14066 : : inner));
14067 : 694390 : else if (TREE_CODE (elt) == FIXED_CST)
14068 : 0 : builder.quick_push (CONST_FIXED_FROM_FIXED_VALUE (TREE_FIXED_CST (elt),
14069 : : inner));
14070 : : else
14071 : 694390 : builder.quick_push (immed_wide_int_const (wi::to_poly_wide (elt),
14072 : : inner));
14073 : : }
14074 : 370547 : return builder.build ();
14075 : 370547 : }
14076 : :
14077 : : /* Build a decl for a personality function given a language prefix. */
14078 : :
14079 : : tree
14080 : 30228 : build_personality_function (const char *lang)
14081 : : {
14082 : 30228 : const char *unwind_and_version;
14083 : 30228 : tree decl, type;
14084 : 30228 : char *name;
14085 : :
14086 : 30228 : switch (targetm_common.except_unwind_info (&global_options))
14087 : : {
14088 : : case UI_NONE:
14089 : : return NULL;
14090 : : case UI_SJLJ:
14091 : : unwind_and_version = "_sj0";
14092 : : break;
14093 : 30228 : case UI_DWARF2:
14094 : 30228 : case UI_TARGET:
14095 : 30228 : unwind_and_version = "_v0";
14096 : 30228 : break;
14097 : 0 : case UI_SEH:
14098 : 0 : unwind_and_version = "_seh0";
14099 : 0 : break;
14100 : 0 : default:
14101 : 0 : gcc_unreachable ();
14102 : : }
14103 : :
14104 : 30228 : name = ACONCAT (("__", lang, "_personality", unwind_and_version, NULL));
14105 : :
14106 : 30228 : type = build_function_type_list (unsigned_type_node,
14107 : : integer_type_node, integer_type_node,
14108 : : long_long_unsigned_type_node,
14109 : : ptr_type_node, ptr_type_node, NULL_TREE);
14110 : 30228 : decl = build_decl (UNKNOWN_LOCATION, FUNCTION_DECL,
14111 : : get_identifier (name), type);
14112 : 30228 : DECL_ARTIFICIAL (decl) = 1;
14113 : 30228 : DECL_EXTERNAL (decl) = 1;
14114 : 30228 : TREE_PUBLIC (decl) = 1;
14115 : :
14116 : : /* Zap the nonsensical SYMBOL_REF_DECL for this. What we're left with
14117 : : are the flags assigned by targetm.encode_section_info. */
14118 : 30228 : SET_SYMBOL_REF_DECL (XEXP (DECL_RTL (decl), 0), NULL);
14119 : :
14120 : 30228 : return decl;
14121 : : }
14122 : :
14123 : : /* Extracts the personality function of DECL and returns the corresponding
14124 : : libfunc. */
14125 : :
14126 : : rtx
14127 : 1552501 : get_personality_function (tree decl)
14128 : : {
14129 : 1552501 : tree personality = DECL_FUNCTION_PERSONALITY (decl);
14130 : 1552501 : enum eh_personality_kind pk;
14131 : :
14132 : 1552501 : pk = function_needs_eh_personality (DECL_STRUCT_FUNCTION (decl));
14133 : 1552501 : if (pk == eh_personality_none)
14134 : : return NULL;
14135 : :
14136 : 142393 : if (!personality
14137 : 142393 : && pk == eh_personality_any)
14138 : 64061 : personality = lang_hooks.eh_personality ();
14139 : :
14140 : 142393 : if (pk == eh_personality_lang)
14141 : 78332 : gcc_assert (personality != NULL_TREE);
14142 : :
14143 : 142393 : return XEXP (DECL_RTL (personality), 0);
14144 : : }
14145 : :
14146 : : /* Returns a tree for the size of EXP in bytes. */
14147 : :
14148 : : static tree
14149 : 13886498 : tree_expr_size (const_tree exp)
14150 : : {
14151 : 13886498 : if (DECL_P (exp)
14152 : 13886498 : && DECL_SIZE_UNIT (exp) != 0)
14153 : 2002205 : return DECL_SIZE_UNIT (exp);
14154 : : else
14155 : 11884293 : return size_in_bytes (TREE_TYPE (exp));
14156 : : }
14157 : :
14158 : : /* Return an rtx for the size in bytes of the value of EXP. */
14159 : :
14160 : : rtx
14161 : 13695852 : expr_size (tree exp)
14162 : : {
14163 : 13695852 : tree size;
14164 : :
14165 : 13695852 : if (TREE_CODE (exp) == WITH_SIZE_EXPR)
14166 : 767 : size = TREE_OPERAND (exp, 1);
14167 : : else
14168 : : {
14169 : 13695085 : size = tree_expr_size (exp);
14170 : 13695085 : gcc_assert (size);
14171 : 13695085 : gcc_assert (size == SUBSTITUTE_PLACEHOLDER_IN_EXPR (size, exp));
14172 : : }
14173 : :
14174 : 13695852 : return expand_expr (size, NULL_RTX, TYPE_MODE (sizetype), EXPAND_NORMAL);
14175 : : }
14176 : :
14177 : : /* Return a wide integer for the size in bytes of the value of EXP, or -1
14178 : : if the size can vary or is larger than an integer. */
14179 : :
14180 : : HOST_WIDE_INT
14181 : 191413 : int_expr_size (const_tree exp)
14182 : : {
14183 : 191413 : tree size;
14184 : :
14185 : 191413 : if (TREE_CODE (exp) == WITH_SIZE_EXPR)
14186 : 0 : size = TREE_OPERAND (exp, 1);
14187 : : else
14188 : : {
14189 : 191413 : size = tree_expr_size (exp);
14190 : 191413 : gcc_assert (size);
14191 : : }
14192 : :
14193 : 191413 : if (size == 0 || !tree_fits_shwi_p (size))
14194 : 0 : return -1;
14195 : :
14196 : 191413 : return tree_to_shwi (size);
14197 : : }
14198 : :
14199 : : /* Return the quotient of polynomial long division of x^2N by POLYNOMIAL
14200 : : in GF (2^N).
14201 : : Author: Richard Sandiford <richard.sandiford@arm.com> */
14202 : :
14203 : : unsigned HOST_WIDE_INT
14204 : 0 : gf2n_poly_long_div_quotient (unsigned HOST_WIDE_INT polynomial,
14205 : : unsigned short n)
14206 : : {
14207 : : /* The result has degree N, so needs N + 1 bits. */
14208 : 0 : gcc_assert (n < 64);
14209 : :
14210 : : /* Perform a division step for the x^2N coefficient. At this point the
14211 : : quotient and remainder have N implicit trailing zeros. */
14212 : : unsigned HOST_WIDE_INT quotient = 1;
14213 : : unsigned HOST_WIDE_INT remainder = polynomial;
14214 : :
14215 : : /* Process the coefficients for x^(2N-1) down to x^N, with each step
14216 : : reducing the number of implicit trailing zeros by one. */
14217 : 0 : for (unsigned int i = 0; i < n; ++i)
14218 : : {
14219 : 0 : bool coeff = remainder & (HOST_WIDE_INT_1U << (n - 1));
14220 : 0 : quotient = (quotient << 1) | coeff;
14221 : 0 : remainder = (remainder << 1) ^ (coeff ? polynomial : 0);
14222 : : }
14223 : 0 : return quotient;
14224 : : }
14225 : :
14226 : : /* Calculate CRC for the initial CRC and given POLYNOMIAL.
14227 : : CRC_BITS is CRC size. */
14228 : :
14229 : : static unsigned HOST_WIDE_INT
14230 : 44800 : calculate_crc (unsigned HOST_WIDE_INT crc,
14231 : : unsigned HOST_WIDE_INT polynomial,
14232 : : unsigned short crc_bits)
14233 : : {
14234 : 44800 : unsigned HOST_WIDE_INT msb = HOST_WIDE_INT_1U << (crc_bits - 1);
14235 : 44800 : crc = crc << (crc_bits - 8);
14236 : 403200 : for (short i = 8; i > 0; --i)
14237 : : {
14238 : 358400 : if (crc & msb)
14239 : 179200 : crc = (crc << 1) ^ polynomial;
14240 : : else
14241 : 179200 : crc <<= 1;
14242 : : }
14243 : : /* Zero out bits in crc beyond the specified number of crc_bits. */
14244 : 44800 : if (crc_bits < sizeof (crc) * CHAR_BIT)
14245 : 39936 : crc &= (HOST_WIDE_INT_1U << crc_bits) - 1;
14246 : 44800 : return crc;
14247 : : }
14248 : :
14249 : : /* Assemble CRC table with 256 elements for the given POLYNOM and CRC_BITS with
14250 : : given ID.
14251 : : ID is the identifier of the table, the name of the table is unique,
14252 : : contains CRC size and the polynomial.
14253 : : POLYNOM is the polynomial used to calculate the CRC table's elements.
14254 : : CRC_BITS is the size of CRC, may be 8, 16, ... . */
14255 : :
14256 : : rtx
14257 : 175 : assemble_crc_table (tree id, unsigned HOST_WIDE_INT polynom,
14258 : : unsigned short crc_bits)
14259 : : {
14260 : 175 : unsigned table_el_n = 0x100;
14261 : 175 : tree ar = build_array_type (make_unsigned_type (crc_bits),
14262 : 175 : build_index_type (size_int (table_el_n - 1)));
14263 : 175 : tree decl = build_decl (UNKNOWN_LOCATION, VAR_DECL, id, ar);
14264 : 175 : SET_DECL_ASSEMBLER_NAME (decl, id);
14265 : 175 : DECL_ARTIFICIAL (decl) = 1;
14266 : 175 : rtx tab = gen_rtx_SYMBOL_REF (Pmode, IDENTIFIER_POINTER (id));
14267 : 175 : TREE_ASM_WRITTEN (decl) = 0;
14268 : :
14269 : : /* Initialize the table. */
14270 : 175 : vec<tree, va_gc> *initial_values;
14271 : 175 : vec_alloc (initial_values, table_el_n);
14272 : 44975 : for (size_t i = 0; i < table_el_n; ++i)
14273 : : {
14274 : 44800 : unsigned HOST_WIDE_INT crc = calculate_crc (i, polynom, crc_bits);
14275 : 44800 : tree element = build_int_cstu (make_unsigned_type (crc_bits), crc);
14276 : 44800 : vec_safe_push (initial_values, element);
14277 : : }
14278 : 175 : DECL_INITIAL (decl) = build_constructor_from_vec (ar, initial_values);
14279 : :
14280 : 175 : TREE_READONLY (decl) = 1;
14281 : 175 : TREE_STATIC (decl) = 1;
14282 : :
14283 : 175 : if (TREE_PUBLIC (id))
14284 : : {
14285 : 0 : TREE_PUBLIC (decl) = 1;
14286 : 0 : make_decl_one_only (decl, DECL_ASSEMBLER_NAME (decl));
14287 : : }
14288 : :
14289 : 175 : mark_decl_referenced (decl);
14290 : 175 : varpool_node::finalize_decl (decl);
14291 : :
14292 : 175 : return tab;
14293 : : }
14294 : :
14295 : : /* Generate CRC lookup table by calculating CRC for all possible
14296 : : 8-bit data values. The table is stored with a specific name in the read-only
14297 : : static data section.
14298 : : POLYNOM is the polynomial used to calculate the CRC table's elements.
14299 : : CRC_BITS is the size of CRC, may be 8, 16, ... . */
14300 : :
14301 : : rtx
14302 : 419 : generate_crc_table (unsigned HOST_WIDE_INT polynom, unsigned short crc_bits)
14303 : : {
14304 : 419 : gcc_assert (crc_bits <= 64);
14305 : :
14306 : : /* Buf size - 24 letters + 6 '_'
14307 : : + 20 numbers (2 for crc bit size + 2 for 0x + 16 for 64-bit polynomial)
14308 : : + 1 for \0. */
14309 : 419 : char buf[51];
14310 : 419 : sprintf (buf, "crc_table_for_crc_%u_polynomial_" HOST_WIDE_INT_PRINT_HEX,
14311 : : crc_bits, polynom);
14312 : :
14313 : 419 : tree id = maybe_get_identifier (buf);
14314 : 419 : if (id)
14315 : 244 : return gen_rtx_SYMBOL_REF (Pmode, IDENTIFIER_POINTER (id));
14316 : :
14317 : 175 : id = get_identifier (buf);
14318 : 175 : return assemble_crc_table (id, polynom, crc_bits);
14319 : : }
14320 : :
14321 : : /* Generate table-based CRC code for the given CRC, INPUT_DATA and the
14322 : : POLYNOMIAL (without leading 1).
14323 : :
14324 : : First, using POLYNOMIAL's value generates CRC table of 256 elements,
14325 : : then generates the assembly for the following code,
14326 : : where crc_bit_size and data_bit_size may be 8, 16, 32, 64, depending on CRC:
14327 : :
14328 : : for (int i = 0; i < data_bit_size / 8; i++)
14329 : : crc = (crc << 8) ^ crc_table[(crc >> (crc_bit_size - 8))
14330 : : ^ (data >> (data_bit_size - (i + 1) * 8)
14331 : : & 0xFF))];
14332 : :
14333 : : So to take values from the table, we need 8-bit data.
14334 : : If input data size is not 8, then first we extract upper 8 bits,
14335 : : then the other 8 bits, and so on. */
14336 : :
14337 : : void
14338 : 419 : calculate_table_based_CRC (rtx *crc, const rtx &input_data,
14339 : : const rtx &polynomial,
14340 : : machine_mode data_mode)
14341 : : {
14342 : 419 : machine_mode mode = GET_MODE (*crc);
14343 : 419 : unsigned short crc_bit_size = GET_MODE_BITSIZE (mode).to_constant ();
14344 : 419 : unsigned short data_size = GET_MODE_SIZE (data_mode).to_constant ();
14345 : 419 : rtx tab = generate_crc_table (UINTVAL (polynomial), crc_bit_size);
14346 : :
14347 : 1194 : for (unsigned short i = 0; i < data_size; i++)
14348 : : {
14349 : : /* crc >> (crc_bit_size - 8). */
14350 : 775 : *crc = force_reg (mode, *crc);
14351 : 775 : rtx op1 = expand_shift (RSHIFT_EXPR, mode, *crc, crc_bit_size - 8,
14352 : : NULL_RTX, 1);
14353 : :
14354 : : /* data >> (8 * (GET_MODE_SIZE (data_mode).to_constant () - i - 1)). */
14355 : 775 : unsigned range_8 = 8 * (data_size - i - 1);
14356 : : /* CRC's mode is always at least as wide as INPUT_DATA. Convert
14357 : : INPUT_DATA into CRC's mode. */
14358 : 775 : rtx data = gen_reg_rtx (mode);
14359 : 775 : convert_move (data, input_data, 1);
14360 : 775 : data = expand_shift (RSHIFT_EXPR, mode, data, range_8, NULL_RTX, 1);
14361 : :
14362 : : /* data >> (8 * (GET_MODE_SIZE (mode)
14363 : : .to_constant () - i - 1)) & 0xFF. */
14364 : 775 : rtx data_final = expand_and (mode, data,
14365 : 775 : gen_int_mode (255, mode), NULL_RTX);
14366 : :
14367 : : /* (crc >> (crc_bit_size - 8)) ^ data_8bit. */
14368 : 775 : rtx in = expand_binop (mode, xor_optab, op1, data_final,
14369 : : NULL_RTX, 1, OPTAB_WIDEN);
14370 : :
14371 : : /* ((crc >> (crc_bit_size - 8)) ^ data_8bit) & 0xFF. */
14372 : 775 : rtx index = expand_and (mode, in, gen_int_mode (255, mode),
14373 : : NULL_RTX);
14374 : 1550 : int log_crc_size = exact_log2 (GET_MODE_SIZE (mode).to_constant ());
14375 : 775 : index = expand_shift (LSHIFT_EXPR, mode, index,
14376 : : log_crc_size, NULL_RTX, 0);
14377 : :
14378 : 775 : rtx addr = gen_reg_rtx (Pmode);
14379 : 775 : convert_move (addr, index, 1);
14380 : 775 : addr = expand_binop (Pmode, add_optab, addr, tab, NULL_RTX,
14381 : : 0, OPTAB_DIRECT);
14382 : :
14383 : : /* crc_table[(crc >> (crc_bit_size - 8)) ^ data_8bit] */
14384 : 775 : rtx tab_el = validize_mem (gen_rtx_MEM (mode, addr));
14385 : :
14386 : : /* (crc << 8) if CRC is larger than 8, otherwise crc = 0. */
14387 : 775 : rtx high = NULL_RTX;
14388 : 775 : if (crc_bit_size != 8)
14389 : 710 : high = expand_shift (LSHIFT_EXPR, mode, *crc, 8, NULL_RTX, 0);
14390 : : else
14391 : 65 : high = gen_int_mode (0, mode);
14392 : :
14393 : : /* crc = (crc << 8)
14394 : : ^ crc_table[(crc >> (crc_bit_size - 8)) ^ data_8bit]; */
14395 : 775 : *crc = expand_binop (mode, xor_optab, tab_el, high, NULL_RTX, 1,
14396 : : OPTAB_WIDEN);
14397 : : }
14398 : 419 : }
14399 : :
14400 : : /* Generate table-based CRC code for the given CRC, INPUT_DATA and the
14401 : : POLYNOMIAL (without leading 1).
14402 : :
14403 : : CRC is OP1, data is OP2 and the polynomial is OP3.
14404 : : This must generate a CRC table and an assembly for the following code,
14405 : : where crc_bit_size and data_bit_size may be 8, 16, 32, 64:
14406 : : uint_crc_bit_size_t
14407 : : crc_crc_bit_size (uint_crc_bit_size_t crc_init,
14408 : : uint_data_bit_size_t data, size_t size)
14409 : : {
14410 : : uint_crc_bit_size_t crc = crc_init;
14411 : : for (int i = 0; i < data_bit_size / 8; i++)
14412 : : crc = (crc << 8) ^ crc_table[(crc >> (crc_bit_size - 8))
14413 : : ^ (data >> (data_bit_size - (i + 1) * 8)
14414 : : & 0xFF))];
14415 : : return crc;
14416 : : } */
14417 : :
14418 : : void
14419 : 216 : expand_crc_table_based (rtx op0, rtx op1, rtx op2, rtx op3,
14420 : : machine_mode data_mode)
14421 : : {
14422 : 216 : gcc_assert (!CONST_INT_P (op0));
14423 : 216 : gcc_assert (CONST_INT_P (op3));
14424 : 216 : machine_mode crc_mode = GET_MODE (op0);
14425 : 216 : rtx crc = gen_reg_rtx (crc_mode);
14426 : 216 : convert_move (crc, op1, 0);
14427 : 216 : calculate_table_based_CRC (&crc, op2, op3, data_mode);
14428 : 216 : convert_move (op0, crc, 0);
14429 : 216 : }
14430 : :
14431 : : /* Generate the common operation for reflecting values:
14432 : : *OP = (*OP & AND1_VALUE) << SHIFT_VAL | (*OP & AND2_VALUE) >> SHIFT_VAL; */
14433 : :
14434 : : void
14435 : 2522 : gen_common_operation_to_reflect (rtx *op,
14436 : : unsigned HOST_WIDE_INT and1_value,
14437 : : unsigned HOST_WIDE_INT and2_value,
14438 : : unsigned shift_val)
14439 : : {
14440 : 2522 : rtx op1 = expand_and (GET_MODE (*op), *op,
14441 : 2522 : gen_int_mode (and1_value, GET_MODE (*op)), NULL_RTX);
14442 : 2522 : op1 = expand_shift (LSHIFT_EXPR, GET_MODE (*op), op1, shift_val, op1, 0);
14443 : 2522 : rtx op2 = expand_and (GET_MODE (*op), *op,
14444 : 2522 : gen_int_mode (and2_value, GET_MODE (*op)), NULL_RTX);
14445 : 2522 : op2 = expand_shift (RSHIFT_EXPR, GET_MODE (*op), op2, shift_val, op2, 1);
14446 : 2522 : *op = expand_binop (GET_MODE (*op), ior_optab, op1,
14447 : : op2, *op, 0, OPTAB_LIB_WIDEN);
14448 : 2522 : }
14449 : :
14450 : : /* Reflect 64-bit value for the 64-bit target. */
14451 : :
14452 : : void
14453 : 67 : reflect_64_bit_value (rtx *op)
14454 : : {
14455 : 67 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00000000FFFFFFFF),
14456 : : HOST_WIDE_INT_C (0xFFFFFFFF00000000), 32);
14457 : 67 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0000FFFF0000FFFF),
14458 : : HOST_WIDE_INT_C (0xFFFF0000FFFF0000), 16);
14459 : 67 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00FF00FF00FF00FF),
14460 : : HOST_WIDE_INT_C (0xFF00FF00FF00FF00), 8);
14461 : 67 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F0F0F0F0F0F0F0F),
14462 : : HOST_WIDE_INT_C (0xF0F0F0F0F0F0F0F0), 4);
14463 : 67 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x3333333333333333),
14464 : : HOST_WIDE_INT_C (0xCCCCCCCCCCCCCCCC), 2);
14465 : 67 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x5555555555555555),
14466 : : HOST_WIDE_INT_C (0xAAAAAAAAAAAAAAAA), 1);
14467 : 67 : }
14468 : :
14469 : : /* Reflect 32-bit value for the 32-bit target. */
14470 : :
14471 : : void
14472 : 139 : reflect_32_bit_value (rtx *op)
14473 : : {
14474 : 139 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0000FFFF),
14475 : : HOST_WIDE_INT_C (0xFFFF0000), 16);
14476 : 139 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00FF00FF),
14477 : : HOST_WIDE_INT_C (0xFF00FF00), 8);
14478 : 139 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F0F0F0F),
14479 : : HOST_WIDE_INT_C (0xF0F0F0F0), 4);
14480 : 139 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x33333333),
14481 : : HOST_WIDE_INT_C (0xCCCCCCCC), 2);
14482 : 139 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x55555555),
14483 : : HOST_WIDE_INT_C (0xAAAAAAAA), 1);
14484 : 139 : }
14485 : :
14486 : : /* Reflect 16-bit value for the 16-bit target. */
14487 : :
14488 : : void
14489 : 216 : reflect_16_bit_value (rtx *op)
14490 : : {
14491 : 216 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00FF),
14492 : : HOST_WIDE_INT_C (0xFF00), 8);
14493 : 216 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F0F),
14494 : : HOST_WIDE_INT_C (0xF0F0), 4);
14495 : 216 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x3333),
14496 : : HOST_WIDE_INT_C (0xCCCC), 2);
14497 : 216 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x5555),
14498 : : HOST_WIDE_INT_C (0xAAAA), 1);
14499 : 216 : }
14500 : :
14501 : : /* Reflect 8-bit value for the 8-bit target. */
14502 : :
14503 : : void
14504 : 187 : reflect_8_bit_value (rtx *op)
14505 : : {
14506 : 187 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F),
14507 : : HOST_WIDE_INT_C (0xF0), 4);
14508 : 187 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x33),
14509 : : HOST_WIDE_INT_C (0xCC), 2);
14510 : 187 : gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x55),
14511 : : HOST_WIDE_INT_C (0xAA), 1);
14512 : 187 : }
14513 : :
14514 : : /* Generate instruction sequence which reflects the value of the OP
14515 : : using shift, and, or operations. OP's mode may be less than word_mode. */
14516 : :
14517 : : void
14518 : 609 : generate_reflecting_code_standard (rtx *op)
14519 : : {
14520 : 1827 : gcc_assert (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () >= 8
14521 : : && GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () <= 64);
14522 : :
14523 : 1218 : if (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () == 64)
14524 : 67 : reflect_64_bit_value (op);
14525 : 1084 : else if (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () == 32)
14526 : 139 : reflect_32_bit_value (op);
14527 : 806 : else if (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () == 16)
14528 : 216 : reflect_16_bit_value (op);
14529 : : else
14530 : 187 : reflect_8_bit_value (op);
14531 : 609 : }
14532 : :
14533 : : /* Generate table-based reversed CRC code for the given CRC, INPUT_DATA and
14534 : : the POLYNOMIAL (without leading 1).
14535 : :
14536 : : CRC is OP1, data is OP2 and the polynomial is OP3.
14537 : : This must generate CRC table and assembly for the following code,
14538 : : where crc_bit_size and data_bit_size may be 8, 16, 32, 64:
14539 : : uint_crc_bit_size_t
14540 : : crc_crc_bit_size (uint_crc_bit_size_t crc_init,
14541 : : uint_data_bit_size_t data, size_t size)
14542 : : {
14543 : : reflect (crc_init)
14544 : : uint_crc_bit_size_t crc = crc_init;
14545 : : reflect (data);
14546 : : for (int i = 0; i < data_bit_size / 8; i++)
14547 : : crc = (crc << 8) ^ crc_table[(crc >> (crc_bit_size - 8))
14548 : : ^ (data >> (data_bit_size - (i + 1) * 8) & 0xFF))];
14549 : : reflect (crc);
14550 : : return crc;
14551 : : } */
14552 : :
14553 : : void
14554 : 203 : expand_reversed_crc_table_based (rtx op0, rtx op1, rtx op2, rtx op3,
14555 : : machine_mode data_mode,
14556 : : void (*gen_reflecting_code) (rtx *op))
14557 : : {
14558 : 203 : gcc_assert (!CONST_INT_P (op0));
14559 : 203 : gcc_assert (CONST_INT_P (op3));
14560 : 203 : machine_mode crc_mode = GET_MODE (op0);
14561 : :
14562 : 203 : rtx crc = gen_reg_rtx (crc_mode);
14563 : 203 : convert_move (crc, op1, 0);
14564 : 203 : gen_reflecting_code (&crc);
14565 : :
14566 : 203 : rtx data = gen_reg_rtx (data_mode);
14567 : 203 : convert_move (data, op2, 0);
14568 : 203 : gen_reflecting_code (&data);
14569 : :
14570 : 203 : calculate_table_based_CRC (&crc, data, op3, data_mode);
14571 : :
14572 : 203 : gen_reflecting_code (&crc);
14573 : 203 : convert_move (op0, crc, 0);
14574 : 203 : }
|