Branch data Line data Source code
1 : : /* Subroutines for manipulating rtx's in semantically interesting ways.
2 : : Copyright (C) 1987-2025 Free Software Foundation, Inc.
3 : :
4 : : This file is part of GCC.
5 : :
6 : : GCC is free software; you can redistribute it and/or modify it under
7 : : the terms of the GNU General Public License as published by the Free
8 : : Software Foundation; either version 3, or (at your option) any later
9 : : version.
10 : :
11 : : GCC is distributed in the hope that it will be useful, but WITHOUT ANY
12 : : WARRANTY; without even the implied warranty of MERCHANTABILITY or
13 : : FITNESS FOR A PARTICULAR PURPOSE. See the GNU General Public License
14 : : for more details.
15 : :
16 : : You should have received a copy of the GNU General Public License
17 : : along with GCC; see the file COPYING3. If not see
18 : : <http://www.gnu.org/licenses/>. */
19 : :
20 : :
21 : : #include "config.h"
22 : : #include "system.h"
23 : : #include "coretypes.h"
24 : : #include "target.h"
25 : : #include "function.h"
26 : : #include "rtl.h"
27 : : #include "tree.h"
28 : : #include "memmodel.h"
29 : : #include "tm_p.h"
30 : : #include "optabs.h"
31 : : #include "expmed.h"
32 : : #include "profile-count.h"
33 : : #include "emit-rtl.h"
34 : : #include "recog.h"
35 : : #include "diagnostic-core.h"
36 : : #include "stor-layout.h"
37 : : #include "langhooks.h"
38 : : #include "except.h"
39 : : #include "dojump.h"
40 : : #include "explow.h"
41 : : #include "expr.h"
42 : : #include "stringpool.h"
43 : : #include "common/common-target.h"
44 : : #include "output.h"
45 : :
46 : : static rtx break_out_memory_refs (rtx);
47 : :
48 : :
49 : : /* Truncate and perhaps sign-extend C as appropriate for MODE. */
50 : :
51 : : HOST_WIDE_INT
52 : 5603922945 : trunc_int_for_mode (HOST_WIDE_INT c, machine_mode mode)
53 : : {
54 : : /* Not scalar_int_mode because we also allow pointer bound modes. */
55 : 5603922945 : scalar_mode smode = as_a <scalar_mode> (mode);
56 : 5603922945 : int width = GET_MODE_PRECISION (smode);
57 : :
58 : : /* You want to truncate to a _what_? */
59 : 5603922945 : gcc_assert (SCALAR_INT_MODE_P (mode));
60 : :
61 : : /* Canonicalize BImode to 0 and STORE_FLAG_VALUE. */
62 : 5603922945 : if (smode == BImode)
63 : 0 : return c & 1 ? STORE_FLAG_VALUE : 0;
64 : :
65 : : /* Sign-extend for the requested mode. */
66 : :
67 : 5603922945 : if (width < HOST_BITS_PER_WIDE_INT)
68 : : {
69 : 4535149841 : HOST_WIDE_INT sign = 1;
70 : 4535149841 : sign <<= width - 1;
71 : 4535149841 : c &= (sign << 1) - 1;
72 : 4535149841 : c ^= sign;
73 : 4535149841 : c -= sign;
74 : : }
75 : :
76 : : return c;
77 : : }
78 : :
79 : : /* Likewise for polynomial values, using the sign-extended representation
80 : : for each individual coefficient. */
81 : :
82 : : poly_int64
83 : 1180956786 : trunc_int_for_mode (poly_int64 x, machine_mode mode)
84 : : {
85 : 2361913572 : for (unsigned int i = 0; i < NUM_POLY_INT_COEFFS; ++i)
86 : 1180956786 : x.coeffs[i] = trunc_int_for_mode (x.coeffs[i], mode);
87 : 1180956786 : return x;
88 : : }
89 : :
90 : : /* Return an rtx for the sum of X and the integer C, given that X has
91 : : mode MODE. INPLACE is true if X can be modified inplace or false
92 : : if it must be treated as immutable. */
93 : :
94 : : rtx
95 : 695279349 : plus_constant (machine_mode mode, rtx x, poly_int64 c, bool inplace)
96 : : {
97 : 695279349 : RTX_CODE code;
98 : 695279349 : rtx y;
99 : 695279349 : rtx tem;
100 : 695279349 : int all_constant = 0;
101 : :
102 : 695279349 : gcc_assert (GET_MODE (x) == VOIDmode || GET_MODE (x) == mode);
103 : :
104 : 695279349 : if (known_eq (c, 0))
105 : : return x;
106 : :
107 : 655249516 : restart:
108 : :
109 : 655885305 : code = GET_CODE (x);
110 : 655885305 : y = x;
111 : :
112 : 655885305 : switch (code)
113 : : {
114 : 469668209 : CASE_CONST_SCALAR_INT:
115 : 469668209 : return immed_wide_int_const (wi::add (rtx_mode_t (x, mode), c), mode);
116 : 369517 : case MEM:
117 : : /* If this is a reference to the constant pool, try replacing it with
118 : : a reference to a new constant. If the resulting address isn't
119 : : valid, don't return it because we have no way to validize it. */
120 : 369517 : if (GET_CODE (XEXP (x, 0)) == SYMBOL_REF
121 : 369517 : && CONSTANT_POOL_ADDRESS_P (XEXP (x, 0)))
122 : : {
123 : 0 : rtx cst = get_pool_constant (XEXP (x, 0));
124 : :
125 : 0 : if (GET_CODE (cst) == CONST_VECTOR
126 : 0 : && GET_MODE_INNER (GET_MODE (cst)) == mode)
127 : : {
128 : 0 : cst = gen_lowpart (mode, cst);
129 : 0 : gcc_assert (cst);
130 : : }
131 : 0 : else if (GET_MODE (cst) == VOIDmode
132 : 0 : && get_pool_mode (XEXP (x, 0)) != mode)
133 : : break;
134 : 0 : if (GET_MODE (cst) == VOIDmode || GET_MODE (cst) == mode)
135 : : {
136 : 0 : tem = plus_constant (mode, cst, c);
137 : 0 : tem = force_const_mem (GET_MODE (x), tem);
138 : : /* Targets may disallow some constants in the constant pool, thus
139 : : force_const_mem may return NULL_RTX. */
140 : 0 : if (tem && memory_address_p (GET_MODE (tem), XEXP (tem, 0)))
141 : 0 : return tem;
142 : : }
143 : : }
144 : : break;
145 : :
146 : 635789 : case CONST:
147 : : /* If adding to something entirely constant, set a flag
148 : : so that we can add a CONST around the result. */
149 : 635789 : if (inplace && shared_const_p (x))
150 : : inplace = false;
151 : 635789 : x = XEXP (x, 0);
152 : 635789 : all_constant = 1;
153 : 635789 : goto restart;
154 : :
155 : : case SYMBOL_REF:
156 : : case LABEL_REF:
157 : : all_constant = 1;
158 : : break;
159 : :
160 : 38799415 : case PLUS:
161 : : /* The interesting case is adding the integer to a sum. Look
162 : : for constant term in the sum and combine with C. For an
163 : : integer constant term or a constant term that is not an
164 : : explicit integer, we combine or group them together anyway.
165 : :
166 : : We may not immediately return from the recursive call here, lest
167 : : all_constant gets lost. */
168 : :
169 : 38799415 : if (CONSTANT_P (XEXP (x, 1)))
170 : : {
171 : 37469644 : rtx term = plus_constant (mode, XEXP (x, 1), c, inplace);
172 : 37469644 : if (term == const0_rtx)
173 : 305221 : x = XEXP (x, 0);
174 : 37164423 : else if (inplace)
175 : 0 : XEXP (x, 1) = term;
176 : : else
177 : 37164423 : x = gen_rtx_PLUS (mode, XEXP (x, 0), term);
178 : 37469644 : c = 0;
179 : : }
180 : 1329771 : else if (rtx *const_loc = find_constant_term_loc (&y))
181 : : {
182 : 0 : if (!inplace)
183 : : {
184 : : /* We need to be careful since X may be shared and we can't
185 : : modify it in place. */
186 : 0 : x = copy_rtx (x);
187 : 0 : const_loc = find_constant_term_loc (&x);
188 : : }
189 : 0 : *const_loc = plus_constant (mode, *const_loc, c, true);
190 : 0 : c = 0;
191 : : }
192 : : break;
193 : :
194 : : default:
195 : : if (CONST_POLY_INT_P (x))
196 : : return immed_wide_int_const (const_poly_int_value (x) + c, mode);
197 : : break;
198 : : }
199 : :
200 : 185581307 : if (maybe_ne (c, 0))
201 : 148111663 : x = gen_rtx_PLUS (mode, x, gen_int_mode (c, mode));
202 : :
203 : 185581307 : if (GET_CODE (x) == SYMBOL_REF || GET_CODE (x) == LABEL_REF)
204 : : return x;
205 : 185579812 : else if (all_constant)
206 : 6785175 : return gen_rtx_CONST (mode, x);
207 : : else
208 : : return x;
209 : : }
210 : :
211 : : /* If X is a sum, return a new sum like X but lacking any constant terms.
212 : : Add all the removed constant terms into *CONSTPTR.
213 : : X itself is not altered. The result != X if and only if
214 : : it is not isomorphic to X. */
215 : :
216 : : rtx
217 : 409329 : eliminate_constant_term (rtx x, rtx *constptr)
218 : : {
219 : 409329 : rtx x0, x1;
220 : 409329 : rtx tem;
221 : :
222 : 409329 : if (GET_CODE (x) != PLUS)
223 : : return x;
224 : :
225 : : /* First handle constants appearing at this level explicitly. */
226 : 186162 : if (CONST_INT_P (XEXP (x, 1))
227 : 72540 : && (tem = simplify_binary_operation (PLUS, GET_MODE (x), *constptr,
228 : : XEXP (x, 1))) != 0
229 : 258702 : && CONST_INT_P (tem))
230 : : {
231 : 72540 : *constptr = tem;
232 : 72540 : return eliminate_constant_term (XEXP (x, 0), constptr);
233 : : }
234 : :
235 : 113622 : tem = const0_rtx;
236 : 113622 : x0 = eliminate_constant_term (XEXP (x, 0), &tem);
237 : 113622 : x1 = eliminate_constant_term (XEXP (x, 1), &tem);
238 : 113622 : if ((x1 != XEXP (x, 1) || x0 != XEXP (x, 0))
239 : 0 : && (tem = simplify_binary_operation (PLUS, GET_MODE (x),
240 : : *constptr, tem)) != 0
241 : 113622 : && CONST_INT_P (tem))
242 : : {
243 : 0 : *constptr = tem;
244 : 0 : return gen_rtx_PLUS (GET_MODE (x), x0, x1);
245 : : }
246 : :
247 : : return x;
248 : : }
249 : :
250 : :
251 : : /* Return a copy of X in which all memory references
252 : : and all constants that involve symbol refs
253 : : have been replaced with new temporary registers.
254 : : Also emit code to load the memory locations and constants
255 : : into those registers.
256 : :
257 : : If X contains no such constants or memory references,
258 : : X itself (not a copy) is returned.
259 : :
260 : : If a constant is found in the address that is not a legitimate constant
261 : : in an insn, it is left alone in the hope that it might be valid in the
262 : : address.
263 : :
264 : : X may contain no arithmetic except addition, subtraction and multiplication.
265 : : Values returned by expand_expr with 1 for sum_ok fit this constraint. */
266 : :
267 : : static rtx
268 : 37228335 : break_out_memory_refs (rtx x)
269 : : {
270 : 37228335 : if (MEM_P (x)
271 : 37228335 : || (CONSTANT_P (x) && CONSTANT_ADDRESS_P (x)
272 : 11693534 : && GET_MODE (x) != VOIDmode))
273 : 487036 : x = force_reg (GET_MODE (x), x);
274 : 36741299 : else if (GET_CODE (x) == PLUS || GET_CODE (x) == MINUS
275 : 24652772 : || GET_CODE (x) == MULT)
276 : : {
277 : 12493877 : rtx op0 = break_out_memory_refs (XEXP (x, 0));
278 : 12493877 : rtx op1 = break_out_memory_refs (XEXP (x, 1));
279 : :
280 : 12493877 : if (op0 != XEXP (x, 0) || op1 != XEXP (x, 1))
281 : 210844 : x = simplify_gen_binary (GET_CODE (x), GET_MODE (x), op0, op1);
282 : : }
283 : :
284 : 37228335 : return x;
285 : : }
286 : :
287 : : /* Given X, a memory address in address space AS' pointer mode, convert it to
288 : : an address in the address space's address mode, or vice versa (TO_MODE says
289 : : which way). We take advantage of the fact that pointers are not allowed to
290 : : overflow by commuting arithmetic operations over conversions so that address
291 : : arithmetic insns can be used. IN_CONST is true if this conversion is inside
292 : : a CONST. NO_EMIT is true if no insns should be emitted, and instead
293 : : it should return NULL if it can't be simplified without emitting insns. */
294 : :
295 : : rtx
296 : 29696135 : convert_memory_address_addr_space_1 (scalar_int_mode to_mode ATTRIBUTE_UNUSED,
297 : : rtx x, addr_space_t as ATTRIBUTE_UNUSED,
298 : : bool in_const ATTRIBUTE_UNUSED,
299 : : bool no_emit ATTRIBUTE_UNUSED)
300 : : {
301 : : #ifndef POINTERS_EXTEND_UNSIGNED
302 : : gcc_assert (GET_MODE (x) == to_mode || GET_MODE (x) == VOIDmode);
303 : : return x;
304 : : #else /* defined(POINTERS_EXTEND_UNSIGNED) */
305 : 29696135 : scalar_int_mode pointer_mode, address_mode, from_mode;
306 : 29696135 : rtx temp;
307 : 29696135 : enum rtx_code code;
308 : :
309 : : /* If X already has the right mode, just return it. */
310 : 29696135 : if (GET_MODE (x) == to_mode)
311 : : return x;
312 : :
313 : 4154 : pointer_mode = targetm.addr_space.pointer_mode (as);
314 : 4154 : address_mode = targetm.addr_space.address_mode (as);
315 : 4154 : from_mode = to_mode == pointer_mode ? address_mode : pointer_mode;
316 : :
317 : : /* Here we handle some special cases. If none of them apply, fall through
318 : : to the default case. */
319 : 4154 : switch (GET_CODE (x))
320 : : {
321 : 3946 : CASE_CONST_SCALAR_INT:
322 : 11838 : if (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (from_mode))
323 : : code = TRUNCATE;
324 : 3946 : else if (POINTERS_EXTEND_UNSIGNED < 0)
325 : : break;
326 : 3946 : else if (POINTERS_EXTEND_UNSIGNED > 0)
327 : 3946 : code = ZERO_EXTEND;
328 : : else
329 : : code = SIGN_EXTEND;
330 : 3946 : temp = simplify_unary_operation (code, to_mode, x, from_mode);
331 : 3946 : if (temp)
332 : : return temp;
333 : : break;
334 : :
335 : 13 : case SUBREG:
336 : 1 : if ((SUBREG_PROMOTED_VAR_P (x) || REG_POINTER (SUBREG_REG (x)))
337 : 13 : && GET_MODE (SUBREG_REG (x)) == to_mode)
338 : : return SUBREG_REG (x);
339 : : break;
340 : :
341 : 0 : case LABEL_REF:
342 : 0 : temp = gen_rtx_LABEL_REF (to_mode, label_ref_label (x));
343 : 0 : LABEL_REF_NONLOCAL_P (temp) = LABEL_REF_NONLOCAL_P (x);
344 : 0 : return temp;
345 : :
346 : 144 : case SYMBOL_REF:
347 : 144 : temp = shallow_copy_rtx (x);
348 : 144 : PUT_MODE (temp, to_mode);
349 : 144 : return temp;
350 : :
351 : 1 : case CONST:
352 : 1 : {
353 : 1 : auto *last = no_emit ? nullptr : get_last_insn ();
354 : 1 : temp = convert_memory_address_addr_space_1 (to_mode, XEXP (x, 0), as,
355 : : true, no_emit);
356 : 1 : if (temp && (no_emit || last == get_last_insn ()))
357 : 1 : return gen_rtx_CONST (to_mode, temp);
358 : : return temp;
359 : : }
360 : :
361 : 28 : case PLUS:
362 : 28 : case MULT:
363 : : /* For addition we can safely permute the conversion and addition
364 : : operation if one operand is a constant and converting the constant
365 : : does not change it or if one operand is a constant and we are
366 : : using a ptr_extend instruction (POINTERS_EXTEND_UNSIGNED < 0).
367 : : We can always safely permute them if we are making the address
368 : : narrower. Inside a CONST RTL, this is safe for both pointers
369 : : zero or sign extended as pointers cannot wrap. */
370 : 56 : if (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (from_mode)
371 : 28 : || (GET_CODE (x) == PLUS
372 : 22 : && CONST_INT_P (XEXP (x, 1))
373 : 9 : && ((in_const && POINTERS_EXTEND_UNSIGNED != 0)
374 : : || XEXP (x, 1) == convert_memory_address_addr_space_1
375 : 8 : (to_mode, XEXP (x, 1), as, in_const,
376 : : no_emit)
377 : 8 : || POINTERS_EXTEND_UNSIGNED < 0)))
378 : : {
379 : 9 : temp = convert_memory_address_addr_space_1 (to_mode, XEXP (x, 0),
380 : : as, in_const, no_emit);
381 : 9 : return (temp ? gen_rtx_fmt_ee (GET_CODE (x), to_mode,
382 : : temp, XEXP (x, 1))
383 : : : temp);
384 : : }
385 : : break;
386 : :
387 : 0 : case UNSPEC:
388 : : /* Assume that all UNSPECs in a constant address can be converted
389 : : operand-by-operand. We could add a target hook if some targets
390 : : require different behavior. */
391 : 0 : if (in_const && GET_MODE (x) == from_mode)
392 : : {
393 : 0 : unsigned int n = XVECLEN (x, 0);
394 : 0 : rtvec v = gen_rtvec (n);
395 : 0 : for (unsigned int i = 0; i < n; ++i)
396 : : {
397 : 0 : rtx op = XVECEXP (x, 0, i);
398 : 0 : if (GET_MODE (op) == from_mode)
399 : 0 : op = convert_memory_address_addr_space_1 (to_mode, op, as,
400 : : in_const, no_emit);
401 : 0 : RTVEC_ELT (v, i) = op;
402 : : }
403 : 0 : return gen_rtx_UNSPEC (to_mode, v, XINT (x, 1));
404 : : }
405 : : break;
406 : :
407 : : default:
408 : : break;
409 : : }
410 : :
411 : 42 : if (no_emit)
412 : : return NULL_RTX;
413 : :
414 : 42 : return convert_modes (to_mode, from_mode,
415 : 42 : x, POINTERS_EXTEND_UNSIGNED);
416 : : #endif /* defined(POINTERS_EXTEND_UNSIGNED) */
417 : : }
418 : :
419 : : /* Given X, a memory address in address space AS' pointer mode, convert it to
420 : : an address in the address space's address mode, or vice versa (TO_MODE says
421 : : which way). We take advantage of the fact that pointers are not allowed to
422 : : overflow by commuting arithmetic operations over conversions so that address
423 : : arithmetic insns can be used. */
424 : :
425 : : rtx
426 : 29696092 : convert_memory_address_addr_space (scalar_int_mode to_mode, rtx x,
427 : : addr_space_t as)
428 : : {
429 : 29696092 : return convert_memory_address_addr_space_1 (to_mode, x, as, false, false);
430 : : }
431 : :
432 : :
433 : : /* Return something equivalent to X but valid as a memory address for something
434 : : of mode MODE in the named address space AS. When X is not itself valid,
435 : : this works by copying X or subexpressions of it into registers. */
436 : :
437 : : rtx
438 : 27921115 : memory_address_addr_space (machine_mode mode, rtx x, addr_space_t as)
439 : : {
440 : 27921115 : rtx oldx = x;
441 : 27921115 : scalar_int_mode address_mode = targetm.addr_space.address_mode (as);
442 : :
443 : 27921115 : x = convert_memory_address_addr_space (address_mode, x, as);
444 : :
445 : : /* By passing constant addresses through registers
446 : : we get a chance to cse them. */
447 : 27921115 : if (! cse_not_expected && CONSTANT_P (x) && CONSTANT_ADDRESS_P (x))
448 : 1197592 : x = force_reg (address_mode, x);
449 : :
450 : : /* We get better cse by rejecting indirect addressing at this stage.
451 : : Let the combiner create indirect addresses where appropriate.
452 : : For now, generate the code so that the subexpressions useful to share
453 : : are visible. But not if cse won't be done! */
454 : : else
455 : : {
456 : 26723523 : if (! cse_not_expected && !REG_P (x))
457 : 12240581 : x = break_out_memory_refs (x);
458 : :
459 : : /* At this point, any valid address is accepted. */
460 : 26723523 : if (memory_address_addr_space_p (mode, x, as))
461 : 26120065 : goto done;
462 : :
463 : : /* If it was valid before but breaking out memory refs invalidated it,
464 : : use it the old way. */
465 : 603458 : if (memory_address_addr_space_p (mode, oldx, as))
466 : : {
467 : 9226 : x = oldx;
468 : 9226 : goto done;
469 : : }
470 : :
471 : : /* Perform machine-dependent transformations on X
472 : : in certain cases. This is not necessary since the code
473 : : below can handle all possible cases, but machine-dependent
474 : : transformations can make better code. */
475 : 594232 : {
476 : 594232 : rtx orig_x = x;
477 : 594232 : x = targetm.addr_space.legitimize_address (x, oldx, mode, as);
478 : 594232 : if (orig_x != x && memory_address_addr_space_p (mode, x, as))
479 : 161063 : goto done;
480 : : }
481 : :
482 : : /* PLUS and MULT can appear in special ways
483 : : as the result of attempts to make an address usable for indexing.
484 : : Usually they are dealt with by calling force_operand, below.
485 : : But a sum containing constant terms is special
486 : : if removing them makes the sum a valid address:
487 : : then we generate that address in a register
488 : : and index off of it. We do this because it often makes
489 : : shorter code, and because the addresses thus generated
490 : : in registers often become common subexpressions. */
491 : 433169 : if (GET_CODE (x) == PLUS)
492 : : {
493 : 109545 : rtx constant_term = const0_rtx;
494 : 109545 : rtx y = eliminate_constant_term (x, &constant_term);
495 : 109545 : if (constant_term == const0_rtx
496 : 109545 : || ! memory_address_addr_space_p (mode, y, as))
497 : 109535 : x = force_operand (x, NULL_RTX);
498 : : else
499 : : {
500 : 10 : y = gen_rtx_PLUS (GET_MODE (x), copy_to_reg (y), constant_term);
501 : 10 : if (! memory_address_addr_space_p (mode, y, as))
502 : 8 : x = force_operand (x, NULL_RTX);
503 : : else
504 : : x = y;
505 : : }
506 : : }
507 : :
508 : 323624 : else if (GET_CODE (x) == MULT || GET_CODE (x) == MINUS)
509 : 0 : x = force_operand (x, NULL_RTX);
510 : :
511 : : /* If we have a register that's an invalid address,
512 : : it must be a hard reg of the wrong class. Copy it to a pseudo. */
513 : 323624 : else if (REG_P (x))
514 : 0 : x = copy_to_reg (x);
515 : :
516 : : /* Last resort: copy the value to a register, since
517 : : the register is a valid address. */
518 : : else
519 : 323624 : x = force_reg (address_mode, x);
520 : : }
521 : :
522 : 27921115 : done:
523 : :
524 : 27921115 : gcc_assert (memory_address_addr_space_p (mode, x, as));
525 : : /* If we didn't change the address, we are done. Otherwise, mark
526 : : a reg as a pointer if we have REG or REG + CONST_INT. */
527 : 27921115 : if (oldx == x)
528 : : return x;
529 : 2261178 : else if (REG_P (x))
530 : 2012487 : mark_reg_pointer (x, BITS_PER_UNIT);
531 : 248691 : else if (GET_CODE (x) == PLUS
532 : 248688 : && REG_P (XEXP (x, 0))
533 : 114645 : && CONST_INT_P (XEXP (x, 1)))
534 : 308 : mark_reg_pointer (XEXP (x, 0), BITS_PER_UNIT);
535 : :
536 : : /* OLDX may have been the address on a temporary. Update the address
537 : : to indicate that X is now used. */
538 : 2261178 : update_temp_slot_address (oldx, x);
539 : :
540 : 2261178 : return x;
541 : : }
542 : :
543 : : /* Convert a mem ref into one with a valid memory address.
544 : : Pass through anything else unchanged. */
545 : :
546 : : rtx
547 : 5981300 : validize_mem (rtx ref)
548 : : {
549 : 5981300 : if (!MEM_P (ref))
550 : : return ref;
551 : 3449994 : ref = use_anchored_address (ref);
552 : 6899988 : if (memory_address_addr_space_p (GET_MODE (ref), XEXP (ref, 0),
553 : 3449994 : MEM_ADDR_SPACE (ref)))
554 : : return ref;
555 : :
556 : : /* Don't alter REF itself, since that is probably a stack slot. */
557 : 26017 : return replace_equiv_address (ref, XEXP (ref, 0));
558 : : }
559 : :
560 : : /* If X is a memory reference to a member of an object block, try rewriting
561 : : it to use an anchor instead. Return the new memory reference on success
562 : : and the old one on failure. */
563 : :
564 : : rtx
565 : 23669050 : use_anchored_address (rtx x)
566 : : {
567 : 23669050 : rtx base;
568 : 23669050 : HOST_WIDE_INT offset;
569 : 23669050 : machine_mode mode;
570 : :
571 : 23669050 : if (!flag_section_anchors)
572 : : return x;
573 : :
574 : 0 : if (!MEM_P (x))
575 : : return x;
576 : :
577 : : /* Split the address into a base and offset. */
578 : 0 : base = XEXP (x, 0);
579 : 0 : offset = 0;
580 : 0 : if (GET_CODE (base) == CONST
581 : 0 : && GET_CODE (XEXP (base, 0)) == PLUS
582 : 0 : && CONST_INT_P (XEXP (XEXP (base, 0), 1)))
583 : : {
584 : 0 : offset += INTVAL (XEXP (XEXP (base, 0), 1));
585 : 0 : base = XEXP (XEXP (base, 0), 0);
586 : : }
587 : :
588 : : /* Check whether BASE is suitable for anchors. */
589 : 0 : if (GET_CODE (base) != SYMBOL_REF
590 : 0 : || !SYMBOL_REF_HAS_BLOCK_INFO_P (base)
591 : 0 : || SYMBOL_REF_ANCHOR_P (base)
592 : 0 : || SYMBOL_REF_BLOCK (base) == NULL
593 : 0 : || !targetm.use_anchors_for_symbol_p (base))
594 : 0 : return x;
595 : :
596 : : /* Decide where BASE is going to be. */
597 : 0 : place_block_symbol (base);
598 : :
599 : : /* Get the anchor we need to use. */
600 : 0 : offset += SYMBOL_REF_BLOCK_OFFSET (base);
601 : 0 : base = get_section_anchor (SYMBOL_REF_BLOCK (base), offset,
602 : 0 : SYMBOL_REF_TLS_MODEL (base));
603 : :
604 : : /* Work out the offset from the anchor. */
605 : 0 : offset -= SYMBOL_REF_BLOCK_OFFSET (base);
606 : :
607 : : /* If we're going to run a CSE pass, force the anchor into a register.
608 : : We will then be able to reuse registers for several accesses, if the
609 : : target costs say that that's worthwhile. */
610 : 0 : mode = GET_MODE (base);
611 : 0 : if (!cse_not_expected)
612 : 0 : base = force_reg (mode, base);
613 : :
614 : 0 : return replace_equiv_address (x, plus_constant (mode, base, offset));
615 : : }
616 : :
617 : : /* Copy the value or contents of X to a new temp reg and return that reg. */
618 : :
619 : : rtx
620 : 781316 : copy_to_reg (rtx x)
621 : : {
622 : 781316 : rtx temp = gen_reg_rtx (GET_MODE (x));
623 : :
624 : : /* If not an operand, must be an address with PLUS and MULT so
625 : : do the computation. */
626 : 781316 : if (! general_operand (x, VOIDmode))
627 : 402 : x = force_operand (x, temp);
628 : :
629 : 781316 : if (x != temp)
630 : 781306 : emit_move_insn (temp, x);
631 : :
632 : 781316 : return temp;
633 : : }
634 : :
635 : : /* Like copy_to_reg but always give the new register mode Pmode
636 : : in case X is a constant. */
637 : :
638 : : rtx
639 : 425773 : copy_addr_to_reg (rtx x)
640 : : {
641 : 425773 : return copy_to_mode_reg (Pmode, x);
642 : : }
643 : :
644 : : /* Like copy_to_reg but always give the new register mode MODE
645 : : in case X is a constant. */
646 : :
647 : : rtx
648 : 3143238 : copy_to_mode_reg (machine_mode mode, rtx x)
649 : : {
650 : 3143238 : rtx temp = gen_reg_rtx (mode);
651 : :
652 : : /* If not an operand, must be an address with PLUS and MULT so
653 : : do the computation. */
654 : 3143238 : if (! general_operand (x, VOIDmode))
655 : 620862 : x = force_operand (x, temp);
656 : :
657 : 3143238 : gcc_assert (GET_MODE (x) == mode || GET_MODE (x) == VOIDmode);
658 : 3143238 : if (x != temp)
659 : 2761019 : emit_move_insn (temp, x);
660 : 3143238 : return temp;
661 : : }
662 : :
663 : : /* Load X into a register if it is not already one.
664 : : Use mode MODE for the register.
665 : : X should be valid for mode MODE, but it may be a constant which
666 : : is valid for all integer modes; that's why caller must specify MODE.
667 : :
668 : : The caller must not alter the value in the register we return,
669 : : since we mark it as a "constant" register. */
670 : :
671 : : rtx
672 : 8248686 : force_reg (machine_mode mode, rtx x)
673 : : {
674 : 8248686 : rtx temp, set;
675 : 8248686 : rtx_insn *insn;
676 : :
677 : 8248686 : if (REG_P (x))
678 : : return x;
679 : :
680 : 7109040 : if (general_operand (x, mode))
681 : : {
682 : 6885947 : temp = gen_reg_rtx (mode);
683 : 6885947 : insn = emit_move_insn (temp, x);
684 : : }
685 : : else
686 : : {
687 : 223093 : temp = force_operand (x, NULL_RTX);
688 : 223093 : if (REG_P (temp))
689 : 2877 : insn = get_last_insn ();
690 : : else
691 : : {
692 : 220216 : rtx temp2 = gen_reg_rtx (mode);
693 : 220216 : insn = emit_move_insn (temp2, temp);
694 : 220216 : temp = temp2;
695 : : }
696 : : }
697 : :
698 : : /* Let optimizers know that TEMP's value never changes
699 : : and that X can be substituted for it. Don't get confused
700 : : if INSN set something else (such as a SUBREG of TEMP). */
701 : 7109040 : if (CONSTANT_P (x)
702 : 2671137 : && (set = single_set (insn)) != 0
703 : 2671137 : && SET_DEST (set) == temp
704 : 9778392 : && ! rtx_equal_p (x, SET_SRC (set)))
705 : 597847 : set_unique_reg_note (insn, REG_EQUAL, x);
706 : :
707 : : /* Let optimizers know that TEMP is a pointer, and if so, the
708 : : known alignment of that pointer. */
709 : 7109040 : {
710 : 7109040 : unsigned align = 0;
711 : 7109040 : if (GET_CODE (x) == SYMBOL_REF)
712 : : {
713 : 1380028 : align = BITS_PER_UNIT;
714 : 1380028 : if (SYMBOL_REF_DECL (x) && DECL_P (SYMBOL_REF_DECL (x)))
715 : 1376946 : align = DECL_ALIGN (SYMBOL_REF_DECL (x));
716 : : }
717 : 5729012 : else if (GET_CODE (x) == LABEL_REF)
718 : : align = BITS_PER_UNIT;
719 : 5721419 : else if (GET_CODE (x) == CONST
720 : 118170 : && GET_CODE (XEXP (x, 0)) == PLUS
721 : 106734 : && GET_CODE (XEXP (XEXP (x, 0), 0)) == SYMBOL_REF
722 : 104109 : && CONST_INT_P (XEXP (XEXP (x, 0), 1)))
723 : : {
724 : 104109 : rtx s = XEXP (XEXP (x, 0), 0);
725 : 104109 : rtx c = XEXP (XEXP (x, 0), 1);
726 : 104109 : unsigned sa, ca;
727 : :
728 : 104109 : sa = BITS_PER_UNIT;
729 : 104109 : if (SYMBOL_REF_DECL (s) && DECL_P (SYMBOL_REF_DECL (s)))
730 : 104109 : sa = DECL_ALIGN (SYMBOL_REF_DECL (s));
731 : :
732 : 104109 : if (INTVAL (c) == 0)
733 : : align = sa;
734 : : else
735 : : {
736 : 104109 : ca = ctz_hwi (INTVAL (c)) * BITS_PER_UNIT;
737 : 104109 : align = MIN (sa, ca);
738 : : }
739 : : }
740 : :
741 : 7098365 : if (align || (MEM_P (x) && MEM_POINTER (x)))
742 : 2422091 : mark_reg_pointer (temp, align);
743 : : }
744 : :
745 : : return temp;
746 : : }
747 : :
748 : : /* Like simplify_gen_subreg, but force OP into a new register if the
749 : : subreg cannot be formed directly. */
750 : :
751 : : rtx
752 : 841542 : force_subreg (machine_mode outermode, rtx op,
753 : : machine_mode innermode, poly_uint64 byte)
754 : : {
755 : 841542 : rtx x = simplify_gen_subreg (outermode, op, innermode, byte);
756 : 841542 : if (x)
757 : : return x;
758 : :
759 : 6127 : auto *start = get_last_insn ();
760 : 6127 : op = copy_to_mode_reg (innermode, op);
761 : 6127 : rtx res = simplify_gen_subreg (outermode, op, innermode, byte);
762 : 6127 : if (!res)
763 : 6125 : delete_insns_since (start);
764 : : return res;
765 : : }
766 : :
767 : : /* Try to return an rvalue expression for the OUTERMODE lowpart of OP,
768 : : which has mode INNERMODE. Allow OP to be forced into a new register
769 : : if necessary.
770 : :
771 : : Return null on failure. */
772 : :
773 : : rtx
774 : 2996 : force_lowpart_subreg (machine_mode outermode, rtx op,
775 : : machine_mode innermode)
776 : : {
777 : 2996 : auto byte = subreg_lowpart_offset (outermode, innermode);
778 : 2996 : return force_subreg (outermode, op, innermode, byte);
779 : : }
780 : :
781 : : /* Try to return an rvalue expression for the OUTERMODE highpart of OP,
782 : : which has mode INNERMODE. Allow OP to be forced into a new register
783 : : if necessary.
784 : :
785 : : Return null on failure. */
786 : :
787 : : rtx
788 : 91 : force_highpart_subreg (machine_mode outermode, rtx op,
789 : : machine_mode innermode)
790 : : {
791 : 91 : auto byte = subreg_highpart_offset (outermode, innermode);
792 : 91 : return force_subreg (outermode, op, innermode, byte);
793 : : }
794 : :
795 : : /* If X is a memory ref, copy its contents to a new temp reg and return
796 : : that reg. Otherwise, return X. */
797 : :
798 : : rtx
799 : 1136602 : force_not_mem (rtx x)
800 : : {
801 : 1136602 : rtx temp;
802 : :
803 : 1136602 : if (!MEM_P (x) || GET_MODE (x) == BLKmode)
804 : : return x;
805 : :
806 : 10863 : temp = gen_reg_rtx (GET_MODE (x));
807 : :
808 : 10863 : if (MEM_POINTER (x))
809 : 1240 : REG_POINTER (temp) = 1;
810 : :
811 : 10863 : emit_move_insn (temp, x);
812 : 10863 : return temp;
813 : : }
814 : :
815 : : /* Copy X to TARGET (if it's nonzero and a reg)
816 : : or to a new temp reg and return that reg.
817 : : MODE is the mode to use for X in case it is a constant. */
818 : :
819 : : rtx
820 : 174336 : copy_to_suggested_reg (rtx x, rtx target, machine_mode mode)
821 : : {
822 : 174336 : rtx temp;
823 : :
824 : 174336 : if (target && REG_P (target))
825 : : temp = target;
826 : : else
827 : 174317 : temp = gen_reg_rtx (mode);
828 : :
829 : 174336 : emit_move_insn (temp, x);
830 : 174336 : return temp;
831 : : }
832 : :
833 : : /* Return the mode to use to pass or return a scalar of TYPE and MODE.
834 : : PUNSIGNEDP points to the signedness of the type and may be adjusted
835 : : to show what signedness to use on extension operations.
836 : :
837 : : FOR_RETURN is nonzero if the caller is promoting the return value
838 : : of FNDECL, else it is for promoting args. */
839 : :
840 : : machine_mode
841 : 34430334 : promote_function_mode (const_tree type, machine_mode mode, int *punsignedp,
842 : : const_tree funtype, int for_return)
843 : : {
844 : : /* Called without a type node for a libcall. */
845 : 34430334 : if (type == NULL_TREE)
846 : : {
847 : 205349 : if (INTEGRAL_MODE_P (mode))
848 : 32966 : return targetm.calls.promote_function_mode (NULL_TREE, mode,
849 : : punsignedp, funtype,
850 : 32966 : for_return);
851 : : else
852 : : return mode;
853 : : }
854 : :
855 : 34224985 : switch (TREE_CODE (type))
856 : : {
857 : 31109711 : case INTEGER_TYPE: case ENUMERAL_TYPE: case BOOLEAN_TYPE:
858 : 31109711 : case REAL_TYPE: case OFFSET_TYPE: case FIXED_POINT_TYPE:
859 : 31109711 : case POINTER_TYPE: case REFERENCE_TYPE:
860 : 31109711 : return targetm.calls.promote_function_mode (type, mode, punsignedp, funtype,
861 : 31109711 : for_return);
862 : :
863 : : default:
864 : : return mode;
865 : : }
866 : : }
867 : : /* Return the mode to use to store a scalar of TYPE and MODE.
868 : : PUNSIGNEDP points to the signedness of the type and may be adjusted
869 : : to show what signedness to use on extension operations. */
870 : :
871 : : machine_mode
872 : 73934574 : promote_mode (const_tree type ATTRIBUTE_UNUSED, machine_mode mode,
873 : : int *punsignedp ATTRIBUTE_UNUSED)
874 : : {
875 : : #ifdef PROMOTE_MODE
876 : 73934574 : enum tree_code code;
877 : 73934574 : int unsignedp;
878 : 73934574 : scalar_mode smode;
879 : : #endif
880 : :
881 : : /* For libcalls this is invoked without TYPE from the backends
882 : : TARGET_PROMOTE_FUNCTION_MODE hooks. Don't do anything in that
883 : : case. */
884 : 73934574 : if (type == NULL_TREE)
885 : : return mode;
886 : :
887 : : /* FIXME: this is the same logic that was there until GCC 4.4, but we
888 : : probably want to test POINTERS_EXTEND_UNSIGNED even if PROMOTE_MODE
889 : : is not defined. The affected targets are M32C, S390, SPARC. */
890 : : #ifdef PROMOTE_MODE
891 : 73934574 : code = TREE_CODE (type);
892 : 73934574 : unsignedp = *punsignedp;
893 : :
894 : 73934574 : switch (code)
895 : : {
896 : 53514265 : case INTEGER_TYPE: case ENUMERAL_TYPE: case BOOLEAN_TYPE:
897 : 53514265 : case REAL_TYPE: case OFFSET_TYPE: case FIXED_POINT_TYPE:
898 : : /* Values of these types always have scalar mode. */
899 : 53514265 : smode = as_a <scalar_mode> (mode);
900 : 53514265 : PROMOTE_MODE (smode, unsignedp, type);
901 : : *punsignedp = unsignedp;
902 : : return smode;
903 : :
904 : : #ifdef POINTERS_EXTEND_UNSIGNED
905 : 16290301 : case REFERENCE_TYPE:
906 : 16290301 : case POINTER_TYPE:
907 : 16290301 : *punsignedp = POINTERS_EXTEND_UNSIGNED;
908 : 16290301 : return targetm.addr_space.address_mode
909 : 16290301 : (TYPE_ADDR_SPACE (TREE_TYPE (type)));
910 : : #endif
911 : :
912 : : default:
913 : : return mode;
914 : : }
915 : : #else
916 : : return mode;
917 : : #endif
918 : : }
919 : :
920 : :
921 : : /* Use one of promote_mode or promote_function_mode to find the promoted
922 : : mode of DECL. If PUNSIGNEDP is not NULL, store there the unsignedness
923 : : of DECL after promotion. */
924 : :
925 : : machine_mode
926 : 8678957 : promote_decl_mode (const_tree decl, int *punsignedp)
927 : : {
928 : 8678957 : tree type = TREE_TYPE (decl);
929 : 8678957 : int unsignedp = TYPE_UNSIGNED (type);
930 : 8678957 : machine_mode mode = DECL_MODE (decl);
931 : 8678957 : machine_mode pmode;
932 : :
933 : 8678957 : if (TREE_CODE (decl) == RESULT_DECL && !DECL_BY_REFERENCE (decl))
934 : 6944588 : pmode = promote_function_mode (type, mode, &unsignedp,
935 : 3472294 : TREE_TYPE (current_function_decl), 1);
936 : 5206663 : else if (TREE_CODE (decl) == RESULT_DECL || TREE_CODE (decl) == PARM_DECL)
937 : 9246950 : pmode = promote_function_mode (type, mode, &unsignedp,
938 : 4623475 : TREE_TYPE (current_function_decl), 2);
939 : : else
940 : 583188 : pmode = promote_mode (type, mode, &unsignedp);
941 : :
942 : 8678957 : if (punsignedp)
943 : 934126 : *punsignedp = unsignedp;
944 : 8678957 : return pmode;
945 : : }
946 : :
947 : : /* Return the promoted mode for name. If it is a named SSA_NAME, it
948 : : is the same as promote_decl_mode. Otherwise, it is the promoted
949 : : mode of a temp decl of same type as the SSA_NAME, if we had created
950 : : one. */
951 : :
952 : : machine_mode
953 : 77807394 : promote_ssa_mode (const_tree name, int *punsignedp)
954 : : {
955 : 77807394 : gcc_assert (TREE_CODE (name) == SSA_NAME);
956 : :
957 : : /* Partitions holding parms and results must be promoted as expected
958 : : by function.cc. */
959 : 77807394 : if (SSA_NAME_VAR (name)
960 : 20865530 : && (TREE_CODE (SSA_NAME_VAR (name)) == PARM_DECL
961 : 16292989 : || TREE_CODE (SSA_NAME_VAR (name)) == RESULT_DECL))
962 : : {
963 : 8076590 : machine_mode mode = promote_decl_mode (SSA_NAME_VAR (name), punsignedp);
964 : 8076590 : if (mode != BLKmode)
965 : : return mode;
966 : : }
967 : :
968 : 69730906 : tree type = TREE_TYPE (name);
969 : 69730906 : int unsignedp = TYPE_UNSIGNED (type);
970 : 69730906 : machine_mode pmode = promote_mode (type, TYPE_MODE (type), &unsignedp);
971 : 69730906 : if (punsignedp)
972 : 2143702 : *punsignedp = unsignedp;
973 : :
974 : : return pmode;
975 : : }
976 : :
977 : :
978 : :
979 : : /* Controls the behavior of {anti_,}adjust_stack. */
980 : : static bool suppress_reg_args_size;
981 : :
982 : : /* A helper for adjust_stack and anti_adjust_stack. */
983 : :
984 : : static void
985 : 1903923 : adjust_stack_1 (rtx adjust, bool anti_p)
986 : : {
987 : 1903923 : rtx temp;
988 : 1903923 : rtx_insn *insn;
989 : :
990 : : /* Hereafter anti_p means subtract_p. */
991 : 1903923 : if (!STACK_GROWS_DOWNWARD)
992 : : anti_p = !anti_p;
993 : :
994 : 2771053 : temp = expand_binop (Pmode,
995 : : anti_p ? sub_optab : add_optab,
996 : : stack_pointer_rtx, adjust, stack_pointer_rtx, 0,
997 : : OPTAB_LIB_WIDEN);
998 : :
999 : 1903923 : if (temp != stack_pointer_rtx)
1000 : 0 : insn = emit_move_insn (stack_pointer_rtx, temp);
1001 : : else
1002 : : {
1003 : 1903923 : insn = get_last_insn ();
1004 : 1903923 : temp = single_set (insn);
1005 : 1903923 : gcc_assert (temp != NULL && SET_DEST (temp) == stack_pointer_rtx);
1006 : : }
1007 : :
1008 : 1903923 : if (!suppress_reg_args_size)
1009 : 1878250 : add_args_size_note (insn, stack_pointer_delta);
1010 : 1903923 : }
1011 : :
1012 : : /* Adjust the stack pointer by ADJUST (an rtx for a number of bytes).
1013 : : This pops when ADJUST is positive. ADJUST need not be constant. */
1014 : :
1015 : : void
1016 : 867130 : adjust_stack (rtx adjust)
1017 : : {
1018 : 867130 : if (adjust == const0_rtx)
1019 : 867130 : return;
1020 : :
1021 : : /* We expect all variable sized adjustments to be multiple of
1022 : : PREFERRED_STACK_BOUNDARY. */
1023 : 867130 : poly_int64 const_adjust;
1024 : 867130 : if (poly_int_rtx_p (adjust, &const_adjust))
1025 : 867130 : stack_pointer_delta -= const_adjust;
1026 : :
1027 : 867130 : adjust_stack_1 (adjust, false);
1028 : : }
1029 : :
1030 : : /* Adjust the stack pointer by minus ADJUST (an rtx for a number of bytes).
1031 : : This pushes when ADJUST is positive. ADJUST need not be constant. */
1032 : :
1033 : : void
1034 : 3223416 : anti_adjust_stack (rtx adjust)
1035 : : {
1036 : 3223416 : if (adjust == const0_rtx)
1037 : 3223416 : return;
1038 : :
1039 : : /* We expect all variable sized adjustments to be multiple of
1040 : : PREFERRED_STACK_BOUNDARY. */
1041 : 1036793 : poly_int64 const_adjust;
1042 : 1036793 : if (poly_int_rtx_p (adjust, &const_adjust))
1043 : 1036793 : stack_pointer_delta += const_adjust;
1044 : :
1045 : 1036793 : adjust_stack_1 (adjust, true);
1046 : : }
1047 : :
1048 : : /* Round the size of a block to be pushed up to the boundary required
1049 : : by this machine. SIZE is the desired size, which need not be constant. */
1050 : :
1051 : : static rtx
1052 : 25630 : round_push (rtx size)
1053 : : {
1054 : 25630 : rtx align_rtx, alignm1_rtx;
1055 : :
1056 : 25630 : if (!SUPPORTS_STACK_ALIGNMENT
1057 : 25630 : || crtl->preferred_stack_boundary == MAX_SUPPORTED_STACK_ALIGNMENT)
1058 : : {
1059 : 0 : int align = crtl->preferred_stack_boundary / BITS_PER_UNIT;
1060 : :
1061 : 0 : if (align == 1)
1062 : : return size;
1063 : :
1064 : 0 : if (CONST_INT_P (size))
1065 : : {
1066 : 0 : HOST_WIDE_INT new_size = (INTVAL (size) + align - 1) / align * align;
1067 : :
1068 : 0 : if (INTVAL (size) != new_size)
1069 : 0 : size = GEN_INT (new_size);
1070 : 0 : return size;
1071 : : }
1072 : :
1073 : 0 : align_rtx = GEN_INT (align);
1074 : 0 : alignm1_rtx = GEN_INT (align - 1);
1075 : : }
1076 : : else
1077 : : {
1078 : : /* If crtl->preferred_stack_boundary might still grow, use
1079 : : virtual_preferred_stack_boundary_rtx instead. This will be
1080 : : substituted by the right value in vregs pass and optimized
1081 : : during combine. */
1082 : 25630 : align_rtx = virtual_preferred_stack_boundary_rtx;
1083 : 25630 : alignm1_rtx = force_operand (plus_constant (Pmode, align_rtx, -1),
1084 : : NULL_RTX);
1085 : : }
1086 : :
1087 : : /* CEIL_DIV_EXPR needs to worry about the addition overflowing,
1088 : : but we know it can't. So add ourselves and then do
1089 : : TRUNC_DIV_EXPR. */
1090 : 25630 : size = expand_binop (Pmode, add_optab, size, alignm1_rtx,
1091 : : NULL_RTX, 1, OPTAB_LIB_WIDEN);
1092 : 25630 : size = expand_divmod (0, TRUNC_DIV_EXPR, Pmode, size, align_rtx,
1093 : : NULL_RTX, 1);
1094 : 25630 : size = expand_mult (Pmode, size, align_rtx, NULL_RTX, 1);
1095 : :
1096 : 25630 : return size;
1097 : : }
1098 : :
1099 : : /* Save the stack pointer for the purpose in SAVE_LEVEL. PSAVE is a pointer
1100 : : to a previously-created save area. If no save area has been allocated,
1101 : : this function will allocate one. If a save area is specified, it
1102 : : must be of the proper mode. */
1103 : :
1104 : : void
1105 : 3653 : emit_stack_save (enum save_level save_level, rtx *psave)
1106 : : {
1107 : 3653 : rtx sa = *psave;
1108 : : /* The default is that we use a move insn and save in a Pmode object. */
1109 : 3653 : rtx_insn *(*fcn) (rtx, rtx) = gen_move_insn;
1110 : 3653 : machine_mode mode = STACK_SAVEAREA_MODE (save_level);
1111 : :
1112 : : /* See if this machine has anything special to do for this kind of save. */
1113 : 3653 : switch (save_level)
1114 : : {
1115 : 1938 : case SAVE_BLOCK:
1116 : 1938 : if (targetm.have_save_stack_block ())
1117 : 0 : fcn = targetm.gen_save_stack_block;
1118 : : break;
1119 : 0 : case SAVE_FUNCTION:
1120 : 0 : if (targetm.have_save_stack_function ())
1121 : 0 : fcn = targetm.gen_save_stack_function;
1122 : : break;
1123 : 1715 : case SAVE_NONLOCAL:
1124 : 1715 : if (targetm.have_save_stack_nonlocal ())
1125 : 1715 : fcn = targetm.gen_save_stack_nonlocal;
1126 : : break;
1127 : : default:
1128 : : break;
1129 : : }
1130 : :
1131 : : /* If there is no save area and we have to allocate one, do so. Otherwise
1132 : : verify the save area is the proper mode. */
1133 : :
1134 : 3653 : if (sa == 0)
1135 : : {
1136 : 2420 : if (mode != VOIDmode)
1137 : : {
1138 : 2420 : if (save_level == SAVE_NONLOCAL)
1139 : 964 : *psave = sa = assign_stack_local (mode, GET_MODE_SIZE (mode), 0);
1140 : : else
1141 : 1938 : *psave = sa = gen_reg_rtx (mode);
1142 : : }
1143 : : }
1144 : :
1145 : 2420 : do_pending_stack_adjust ();
1146 : 3653 : if (sa != 0)
1147 : 3653 : sa = validize_mem (sa);
1148 : 3653 : emit_insn (fcn (sa, stack_pointer_rtx));
1149 : 3653 : }
1150 : :
1151 : : /* Restore the stack pointer for the purpose in SAVE_LEVEL. SA is the save
1152 : : area made by emit_stack_save. If it is zero, we have nothing to do. */
1153 : :
1154 : : void
1155 : 3181 : emit_stack_restore (enum save_level save_level, rtx sa)
1156 : : {
1157 : : /* The default is that we use a move insn. */
1158 : 3181 : rtx_insn *(*fcn) (rtx, rtx) = gen_move_insn;
1159 : :
1160 : : /* If stack_realign_drap, the x86 backend emits a prologue that aligns both
1161 : : STACK_POINTER and HARD_FRAME_POINTER.
1162 : : If stack_realign_fp, the x86 backend emits a prologue that aligns only
1163 : : STACK_POINTER. This renders the HARD_FRAME_POINTER unusable for accessing
1164 : : aligned variables, which is reflected in ix86_can_eliminate.
1165 : : We normally still have the realigned STACK_POINTER that we can use.
1166 : : But if there is a stack restore still present at reload, it can trigger
1167 : : mark_not_eliminable for the STACK_POINTER, leaving no way to eliminate
1168 : : FRAME_POINTER into a hard reg.
1169 : : To prevent this situation, we force need_drap if we emit a stack
1170 : : restore. */
1171 : 3181 : if (SUPPORTS_STACK_ALIGNMENT)
1172 : 3181 : crtl->need_drap = true;
1173 : :
1174 : : /* See if this machine has anything special to do for this kind of save. */
1175 : 3181 : switch (save_level)
1176 : : {
1177 : 1798 : case SAVE_BLOCK:
1178 : 1798 : if (targetm.have_restore_stack_block ())
1179 : 0 : fcn = targetm.gen_restore_stack_block;
1180 : : break;
1181 : 0 : case SAVE_FUNCTION:
1182 : 0 : if (targetm.have_restore_stack_function ())
1183 : 0 : fcn = targetm.gen_restore_stack_function;
1184 : : break;
1185 : 1383 : case SAVE_NONLOCAL:
1186 : 1383 : if (targetm.have_restore_stack_nonlocal ())
1187 : 1383 : fcn = targetm.gen_restore_stack_nonlocal;
1188 : : break;
1189 : : default:
1190 : : break;
1191 : : }
1192 : :
1193 : 3181 : if (sa != 0)
1194 : : {
1195 : 3181 : sa = validize_mem (sa);
1196 : : /* These clobbers prevent the scheduler from moving
1197 : : references to variable arrays below the code
1198 : : that deletes (pops) the arrays. */
1199 : 3181 : emit_clobber (gen_rtx_MEM (BLKmode, gen_rtx_SCRATCH (VOIDmode)));
1200 : 3181 : emit_clobber (gen_rtx_MEM (BLKmode, stack_pointer_rtx));
1201 : : }
1202 : :
1203 : 3181 : discard_pending_stack_adjust ();
1204 : :
1205 : 3181 : emit_insn (fcn (stack_pointer_rtx, sa));
1206 : 3181 : }
1207 : :
1208 : : /* Invoke emit_stack_save on the nonlocal_goto_save_area for the current
1209 : : function. This should be called whenever we allocate or deallocate
1210 : : dynamic stack space. */
1211 : :
1212 : : void
1213 : 392 : update_nonlocal_goto_save_area (void)
1214 : : {
1215 : 392 : tree t_save;
1216 : 392 : rtx r_save;
1217 : :
1218 : : /* The nonlocal_goto_save_area object is an array of N pointers. The
1219 : : first one is used for the frame pointer save; the rest are sized by
1220 : : STACK_SAVEAREA_MODE. Create a reference to array index 1, the first
1221 : : of the stack save area slots. */
1222 : 392 : t_save = build4 (ARRAY_REF,
1223 : 392 : TREE_TYPE (TREE_TYPE (cfun->nonlocal_goto_save_area)),
1224 : 392 : cfun->nonlocal_goto_save_area,
1225 : : integer_one_node, NULL_TREE, NULL_TREE);
1226 : 392 : r_save = expand_expr (t_save, NULL_RTX, VOIDmode, EXPAND_WRITE);
1227 : :
1228 : 392 : emit_stack_save (SAVE_NONLOCAL, &r_save);
1229 : 392 : }
1230 : :
1231 : : /* Record a new stack level for the current function. This should be called
1232 : : whenever we allocate or deallocate dynamic stack space. */
1233 : :
1234 : : void
1235 : 27300 : record_new_stack_level (void)
1236 : : {
1237 : : /* Record the new stack level for nonlocal gotos. */
1238 : 27300 : if (cfun->nonlocal_goto_save_area)
1239 : 0 : update_nonlocal_goto_save_area ();
1240 : :
1241 : : /* Record the new stack level for SJLJ exceptions. */
1242 : 27300 : if (targetm_common.except_unwind_info (&global_options) == UI_SJLJ)
1243 : 0 : update_sjlj_context ();
1244 : 27300 : }
1245 : :
1246 : : /* Return an rtx doing runtime alignment to REQUIRED_ALIGN on TARGET. */
1247 : :
1248 : : rtx
1249 : 25630 : align_dynamic_address (rtx target, unsigned required_align)
1250 : : {
1251 : 25630 : if (required_align == BITS_PER_UNIT)
1252 : : return target;
1253 : :
1254 : : /* CEIL_DIV_EXPR needs to worry about the addition overflowing,
1255 : : but we know it can't. So add ourselves and then do
1256 : : TRUNC_DIV_EXPR. */
1257 : 24157 : target = expand_binop (Pmode, add_optab, target,
1258 : 24157 : gen_int_mode (required_align / BITS_PER_UNIT - 1,
1259 : 24157 : Pmode),
1260 : : NULL_RTX, 1, OPTAB_LIB_WIDEN);
1261 : 24157 : target = expand_divmod (0, TRUNC_DIV_EXPR, Pmode, target,
1262 : 24157 : gen_int_mode (required_align / BITS_PER_UNIT,
1263 : 24157 : Pmode),
1264 : : NULL_RTX, 1);
1265 : 24157 : target = expand_mult (Pmode, target,
1266 : 24157 : gen_int_mode (required_align / BITS_PER_UNIT,
1267 : 24157 : Pmode),
1268 : : NULL_RTX, 1);
1269 : :
1270 : 24157 : return target;
1271 : : }
1272 : :
1273 : : /* Return an rtx through *PSIZE, representing the size of an area of memory to
1274 : : be dynamically pushed on the stack.
1275 : :
1276 : : *PSIZE is an rtx representing the size of the area.
1277 : :
1278 : : SIZE_ALIGN is the alignment (in bits) that we know SIZE has. This
1279 : : parameter may be zero. If so, a proper value will be extracted
1280 : : from SIZE if it is constant, otherwise BITS_PER_UNIT will be assumed.
1281 : :
1282 : : REQUIRED_ALIGN is the alignment (in bits) required for the region
1283 : : of memory.
1284 : :
1285 : : If PSTACK_USAGE_SIZE is not NULL it points to a value that is increased for
1286 : : the additional size returned. */
1287 : : void
1288 : 25630 : get_dynamic_stack_size (rtx *psize, unsigned size_align,
1289 : : unsigned required_align,
1290 : : HOST_WIDE_INT *pstack_usage_size)
1291 : : {
1292 : 25630 : rtx size = *psize;
1293 : :
1294 : : /* Ensure the size is in the proper mode. */
1295 : 25630 : if (GET_MODE (size) != VOIDmode && GET_MODE (size) != Pmode)
1296 : 10027 : size = convert_to_mode (Pmode, size, 1);
1297 : :
1298 : 25630 : if (CONST_INT_P (size))
1299 : : {
1300 : 4450 : unsigned HOST_WIDE_INT lsb;
1301 : :
1302 : 4450 : lsb = INTVAL (size);
1303 : 4450 : lsb &= -lsb;
1304 : :
1305 : : /* Watch out for overflow truncating to "unsigned". */
1306 : 4450 : if (lsb > UINT_MAX / BITS_PER_UNIT)
1307 : : size_align = 1u << (HOST_BITS_PER_INT - 1);
1308 : : else
1309 : 4450 : size_align = (unsigned)lsb * BITS_PER_UNIT;
1310 : : }
1311 : 21180 : else if (size_align < BITS_PER_UNIT)
1312 : : size_align = BITS_PER_UNIT;
1313 : :
1314 : : /* We can't attempt to minimize alignment necessary, because we don't
1315 : : know the final value of preferred_stack_boundary yet while executing
1316 : : this code. */
1317 : 25630 : if (crtl->preferred_stack_boundary < PREFERRED_STACK_BOUNDARY)
1318 : 6474 : crtl->preferred_stack_boundary = PREFERRED_STACK_BOUNDARY;
1319 : :
1320 : : /* We will need to ensure that the address we return is aligned to
1321 : : REQUIRED_ALIGN. At this point in the compilation, we don't always
1322 : : know the final value of the STACK_DYNAMIC_OFFSET used in function.cc
1323 : : (it might depend on the size of the outgoing parameter lists, for
1324 : : example), so we must preventively align the value. We leave space
1325 : : in SIZE for the hole that might result from the alignment operation. */
1326 : :
1327 : 25630 : unsigned known_align = REGNO_POINTER_ALIGN (VIRTUAL_STACK_DYNAMIC_REGNUM);
1328 : 25630 : if (known_align == 0)
1329 : 0 : known_align = BITS_PER_UNIT;
1330 : 25630 : if (required_align > known_align)
1331 : : {
1332 : 15436 : unsigned extra = (required_align - known_align) / BITS_PER_UNIT;
1333 : 15436 : size = plus_constant (Pmode, size, extra);
1334 : 15436 : size = force_operand (size, NULL_RTX);
1335 : 15436 : if (size_align > known_align)
1336 : : size_align = known_align;
1337 : :
1338 : 15436 : if (flag_stack_usage_info && pstack_usage_size)
1339 : 0 : *pstack_usage_size += extra;
1340 : : }
1341 : :
1342 : : /* Round the size to a multiple of the required stack alignment.
1343 : : Since the stack is presumed to be rounded before this allocation,
1344 : : this will maintain the required alignment.
1345 : :
1346 : : If the stack grows downward, we could save an insn by subtracting
1347 : : SIZE from the stack pointer and then aligning the stack pointer.
1348 : : The problem with this is that the stack pointer may be unaligned
1349 : : between the execution of the subtraction and alignment insns and
1350 : : some machines do not allow this. Even on those that do, some
1351 : : signal handlers malfunction if a signal should occur between those
1352 : : insns. Since this is an extremely rare event, we have no reliable
1353 : : way of knowing which systems have this problem. So we avoid even
1354 : : momentarily mis-aligning the stack. */
1355 : 25630 : if (size_align % MAX_SUPPORTED_STACK_ALIGNMENT != 0)
1356 : : {
1357 : 25630 : size = round_push (size);
1358 : :
1359 : 25630 : if (flag_stack_usage_info && pstack_usage_size)
1360 : : {
1361 : 1 : int align = crtl->preferred_stack_boundary / BITS_PER_UNIT;
1362 : 1 : *pstack_usage_size =
1363 : 1 : (*pstack_usage_size + align - 1) / align * align;
1364 : : }
1365 : : }
1366 : :
1367 : 25630 : *psize = size;
1368 : 25630 : }
1369 : :
1370 : : /* Return the number of bytes to "protect" on the stack for -fstack-check.
1371 : :
1372 : : "protect" in the context of -fstack-check means how many bytes we need
1373 : : to always ensure are available on the stack; as a consequence, this is
1374 : : also how many bytes are first skipped when probing the stack.
1375 : :
1376 : : On some targets we want to reuse the -fstack-check prologue support
1377 : : to give a degree of protection against stack clashing style attacks.
1378 : :
1379 : : In that scenario we do not want to skip bytes before probing as that
1380 : : would render the stack clash protections useless.
1381 : :
1382 : : So we never use STACK_CHECK_PROTECT directly. Instead we indirectly
1383 : : use it through this helper, which allows to provide different values
1384 : : for -fstack-check and -fstack-clash-protection. */
1385 : :
1386 : : HOST_WIDE_INT
1387 : 0 : get_stack_check_protect (void)
1388 : : {
1389 : 0 : if (flag_stack_clash_protection)
1390 : : return 0;
1391 : :
1392 : 0 : return STACK_CHECK_PROTECT;
1393 : : }
1394 : :
1395 : : /* Return an rtx representing the address of an area of memory dynamically
1396 : : pushed on the stack.
1397 : :
1398 : : Any required stack pointer alignment is preserved.
1399 : :
1400 : : SIZE is an rtx representing the size of the area.
1401 : :
1402 : : SIZE_ALIGN is the alignment (in bits) that we know SIZE has. This
1403 : : parameter may be zero. If so, a proper value will be extracted
1404 : : from SIZE if it is constant, otherwise BITS_PER_UNIT will be assumed.
1405 : :
1406 : : REQUIRED_ALIGN is the alignment (in bits) required for the region
1407 : : of memory.
1408 : :
1409 : : MAX_SIZE is an upper bound for SIZE, if SIZE is not constant, or -1 if
1410 : : no such upper bound is known.
1411 : :
1412 : : If CANNOT_ACCUMULATE is set to TRUE, the caller guarantees that the
1413 : : stack space allocated by the generated code cannot be added with itself
1414 : : in the course of the execution of the function. It is always safe to
1415 : : pass FALSE here and the following criterion is sufficient in order to
1416 : : pass TRUE: every path in the CFG that starts at the allocation point and
1417 : : loops to it executes the associated deallocation code. */
1418 : :
1419 : : rtx
1420 : 25924 : allocate_dynamic_stack_space (rtx size, unsigned size_align,
1421 : : unsigned required_align,
1422 : : HOST_WIDE_INT max_size,
1423 : : bool cannot_accumulate)
1424 : : {
1425 : 25924 : HOST_WIDE_INT stack_usage_size = -1;
1426 : 25924 : rtx_code_label *final_label;
1427 : 25924 : rtx final_target, target;
1428 : 25924 : rtx addr = (virtuals_instantiated
1429 : 25924 : ? plus_constant (Pmode, stack_pointer_rtx,
1430 : : get_stack_dynamic_offset ())
1431 : 25924 : : virtual_stack_dynamic_rtx);
1432 : :
1433 : : /* If we're asking for zero bytes, it doesn't matter what we point
1434 : : to since we can't dereference it. But return a reasonable
1435 : : address anyway. */
1436 : 25924 : if (size == const0_rtx)
1437 : : return addr;
1438 : :
1439 : : /* Otherwise, show we're calling alloca or equivalent. */
1440 : 25630 : cfun->calls_alloca = 1;
1441 : :
1442 : : /* If stack usage info is requested, look into the size we are passed.
1443 : : We need to do so this early to avoid the obfuscation that may be
1444 : : introduced later by the various alignment operations. */
1445 : 25630 : if (flag_stack_usage_info)
1446 : : {
1447 : 1 : if (CONST_INT_P (size))
1448 : 0 : stack_usage_size = INTVAL (size);
1449 : 1 : else if (REG_P (size))
1450 : : {
1451 : : /* Look into the last emitted insn and see if we can deduce
1452 : : something for the register. */
1453 : 1 : rtx_insn *insn;
1454 : 1 : rtx set, note;
1455 : 1 : insn = get_last_insn ();
1456 : 1 : if ((set = single_set (insn)) && rtx_equal_p (SET_DEST (set), size))
1457 : : {
1458 : 1 : if (CONST_INT_P (SET_SRC (set)))
1459 : 0 : stack_usage_size = INTVAL (SET_SRC (set));
1460 : 1 : else if ((note = find_reg_equal_equiv_note (insn))
1461 : 1 : && CONST_INT_P (XEXP (note, 0)))
1462 : 0 : stack_usage_size = INTVAL (XEXP (note, 0));
1463 : : }
1464 : : }
1465 : :
1466 : : /* If the size is not constant, try the maximum size. */
1467 : 1 : if (stack_usage_size < 0)
1468 : 1 : stack_usage_size = max_size;
1469 : :
1470 : : /* If the size is still not constant, we can't say anything. */
1471 : 1 : if (stack_usage_size < 0)
1472 : : {
1473 : 1 : current_function_has_unbounded_dynamic_stack_size = 1;
1474 : 1 : stack_usage_size = 0;
1475 : : }
1476 : : }
1477 : :
1478 : 25630 : get_dynamic_stack_size (&size, size_align, required_align, &stack_usage_size);
1479 : :
1480 : 25630 : target = gen_reg_rtx (Pmode);
1481 : :
1482 : : /* The size is supposed to be fully adjusted at this point so record it
1483 : : if stack usage info is requested. */
1484 : 25630 : if (flag_stack_usage_info)
1485 : : {
1486 : 1 : current_function_dynamic_stack_size += stack_usage_size;
1487 : :
1488 : : /* ??? This is gross but the only safe stance in the absence
1489 : : of stack usage oriented flow analysis. */
1490 : 1 : if (!cannot_accumulate)
1491 : 0 : current_function_has_unbounded_dynamic_stack_size = 1;
1492 : : }
1493 : :
1494 : 25630 : do_pending_stack_adjust ();
1495 : :
1496 : 25630 : final_label = NULL;
1497 : 25630 : final_target = NULL_RTX;
1498 : :
1499 : : /* If we are splitting the stack, we need to ask the backend whether
1500 : : there is enough room on the current stack. If there isn't, or if
1501 : : the backend doesn't know how to tell is, then we need to call a
1502 : : function to allocate memory in some other way. This memory will
1503 : : be released when we release the current stack segment. The
1504 : : effect is that stack allocation becomes less efficient, but at
1505 : : least it doesn't cause a stack overflow. */
1506 : 25630 : if (flag_split_stack)
1507 : : {
1508 : 9 : rtx_code_label *available_label;
1509 : 9 : rtx ask, space, func;
1510 : :
1511 : 9 : available_label = NULL;
1512 : :
1513 : 9 : if (targetm.have_split_stack_space_check ())
1514 : : {
1515 : 9 : available_label = gen_label_rtx ();
1516 : :
1517 : : /* This instruction will branch to AVAILABLE_LABEL if there
1518 : : are SIZE bytes available on the stack. */
1519 : 9 : emit_insn (targetm.gen_split_stack_space_check
1520 : 9 : (size, available_label));
1521 : : }
1522 : :
1523 : : /* The __morestack_allocate_stack_space function will allocate
1524 : : memory using malloc. If the alignment of the memory returned
1525 : : by malloc does not meet REQUIRED_ALIGN, we increase SIZE to
1526 : : make sure we allocate enough space. */
1527 : 9 : if (MALLOC_ABI_ALIGNMENT >= required_align)
1528 : 5 : ask = size;
1529 : : else
1530 : 4 : ask = expand_binop (Pmode, add_optab, size,
1531 : 4 : gen_int_mode (required_align / BITS_PER_UNIT - 1,
1532 : 4 : Pmode),
1533 : : NULL_RTX, 1, OPTAB_LIB_WIDEN);
1534 : :
1535 : 9 : func = init_one_libfunc ("__morestack_allocate_stack_space");
1536 : :
1537 : 9 : space = emit_library_call_value (func, target, LCT_NORMAL, Pmode,
1538 : 9 : ask, Pmode);
1539 : :
1540 : 9 : if (available_label == NULL_RTX)
1541 : : return space;
1542 : :
1543 : 9 : final_target = gen_reg_rtx (Pmode);
1544 : :
1545 : 9 : emit_move_insn (final_target, space);
1546 : :
1547 : 9 : final_label = gen_label_rtx ();
1548 : 9 : emit_jump (final_label);
1549 : :
1550 : 9 : emit_label (available_label);
1551 : : }
1552 : :
1553 : : /* We ought to be called always on the toplevel and stack ought to be aligned
1554 : : properly. */
1555 : 51260 : gcc_assert (multiple_p (stack_pointer_delta,
1556 : : PREFERRED_STACK_BOUNDARY / BITS_PER_UNIT));
1557 : :
1558 : : /* If needed, check that we have the required amount of stack. Take into
1559 : : account what has already been checked. */
1560 : 25630 : if (STACK_CHECK_MOVING_SP)
1561 : : ;
1562 : : else if (flag_stack_check == GENERIC_STACK_CHECK)
1563 : : probe_stack_range (STACK_OLD_CHECK_PROTECT + STACK_CHECK_MAX_FRAME_SIZE,
1564 : : size);
1565 : : else if (flag_stack_check == STATIC_BUILTIN_STACK_CHECK)
1566 : : probe_stack_range (get_stack_check_protect (), size);
1567 : :
1568 : : /* Don't let anti_adjust_stack emit notes. */
1569 : 25630 : suppress_reg_args_size = true;
1570 : :
1571 : : /* Perform the required allocation from the stack. Some systems do
1572 : : this differently than simply incrementing/decrementing from the
1573 : : stack pointer, such as acquiring the space by calling malloc(). */
1574 : 25630 : if (targetm.have_allocate_stack ())
1575 : : {
1576 : 0 : class expand_operand ops[2];
1577 : : /* We don't have to check against the predicate for operand 0 since
1578 : : TARGET is known to be a pseudo of the proper mode, which must
1579 : : be valid for the operand. */
1580 : 0 : create_fixed_operand (&ops[0], target);
1581 : 0 : create_convert_operand_to (&ops[1], size, STACK_SIZE_MODE, true);
1582 : 0 : expand_insn (targetm.code_for_allocate_stack, 2, ops);
1583 : : }
1584 : : else
1585 : : {
1586 : 25630 : poly_int64 saved_stack_pointer_delta;
1587 : :
1588 : 25630 : if (!STACK_GROWS_DOWNWARD)
1589 : : emit_move_insn (target, force_operand (addr, target));
1590 : :
1591 : : /* Check stack bounds if necessary. */
1592 : 25630 : if (crtl->limit_stack)
1593 : : {
1594 : 0 : rtx available;
1595 : 0 : rtx_code_label *space_available = gen_label_rtx ();
1596 : 0 : if (STACK_GROWS_DOWNWARD)
1597 : 0 : available = expand_binop (Pmode, sub_optab,
1598 : : stack_pointer_rtx, stack_limit_rtx,
1599 : : NULL_RTX, 1, OPTAB_WIDEN);
1600 : : else
1601 : : available = expand_binop (Pmode, sub_optab,
1602 : : stack_limit_rtx, stack_pointer_rtx,
1603 : : NULL_RTX, 1, OPTAB_WIDEN);
1604 : :
1605 : 0 : emit_cmp_and_jump_insns (available, size, GEU, NULL_RTX, Pmode, 1,
1606 : : space_available);
1607 : 0 : if (targetm.have_trap ())
1608 : 0 : emit_insn (targetm.gen_trap ());
1609 : : else
1610 : 0 : error ("stack limits not supported on this target");
1611 : 0 : emit_barrier ();
1612 : 0 : emit_label (space_available);
1613 : : }
1614 : :
1615 : 25630 : saved_stack_pointer_delta = stack_pointer_delta;
1616 : :
1617 : : /* If stack checking or stack clash protection is requested,
1618 : : then probe the stack while allocating space from it. */
1619 : 25630 : if (flag_stack_check && STACK_CHECK_MOVING_SP)
1620 : 9 : anti_adjust_stack_and_probe (size, false);
1621 : 25621 : else if (flag_stack_clash_protection)
1622 : 16 : anti_adjust_stack_and_probe_stack_clash (size);
1623 : : else
1624 : 25605 : anti_adjust_stack (size);
1625 : :
1626 : : /* Even if size is constant, don't modify stack_pointer_delta.
1627 : : The constant size alloca should preserve
1628 : : crtl->preferred_stack_boundary alignment. */
1629 : 25630 : stack_pointer_delta = saved_stack_pointer_delta;
1630 : :
1631 : 25630 : if (STACK_GROWS_DOWNWARD)
1632 : 25630 : emit_move_insn (target, force_operand (addr, target));
1633 : : }
1634 : :
1635 : 25630 : suppress_reg_args_size = false;
1636 : :
1637 : : /* Finish up the split stack handling. */
1638 : 25630 : if (final_label != NULL_RTX)
1639 : : {
1640 : 9 : gcc_assert (flag_split_stack);
1641 : 9 : emit_move_insn (final_target, target);
1642 : 9 : emit_label (final_label);
1643 : 9 : target = final_target;
1644 : : }
1645 : :
1646 : 25630 : target = align_dynamic_address (target, required_align);
1647 : :
1648 : : /* Now that we've committed to a return value, mark its alignment. */
1649 : 25630 : mark_reg_pointer (target, required_align);
1650 : :
1651 : : /* Record the new stack level. */
1652 : 25630 : record_new_stack_level ();
1653 : :
1654 : 25630 : return target;
1655 : : }
1656 : :
1657 : : /* Return an rtx representing the address of an area of memory already
1658 : : statically pushed onto the stack in the virtual stack vars area. (It is
1659 : : assumed that the area is allocated in the function prologue.)
1660 : :
1661 : : Any required stack pointer alignment is preserved.
1662 : :
1663 : : OFFSET is the offset of the area into the virtual stack vars area.
1664 : :
1665 : : REQUIRED_ALIGN is the alignment (in bits) required for the region
1666 : : of memory.
1667 : :
1668 : : BASE is the rtx of the base of this virtual stack vars area.
1669 : : The only time this is not `virtual_stack_vars_rtx` is when tagging pointers
1670 : : on the stack. */
1671 : :
1672 : : rtx
1673 : 0 : get_dynamic_stack_base (poly_int64 offset, unsigned required_align, rtx base)
1674 : : {
1675 : 0 : rtx target;
1676 : :
1677 : 0 : if (crtl->preferred_stack_boundary < PREFERRED_STACK_BOUNDARY)
1678 : 0 : crtl->preferred_stack_boundary = PREFERRED_STACK_BOUNDARY;
1679 : :
1680 : 0 : target = gen_reg_rtx (Pmode);
1681 : 0 : emit_move_insn (target, base);
1682 : 0 : target = expand_binop (Pmode, add_optab, target,
1683 : 0 : gen_int_mode (offset, Pmode),
1684 : : NULL_RTX, 1, OPTAB_LIB_WIDEN);
1685 : 0 : target = align_dynamic_address (target, required_align);
1686 : :
1687 : : /* Now that we've committed to a return value, mark its alignment. */
1688 : 0 : mark_reg_pointer (target, required_align);
1689 : :
1690 : 0 : return target;
1691 : : }
1692 : :
1693 : : /* A front end may want to override GCC's stack checking by providing a
1694 : : run-time routine to call to check the stack, so provide a mechanism for
1695 : : calling that routine. */
1696 : :
1697 : : static GTY(()) rtx stack_check_libfunc;
1698 : :
1699 : : void
1700 : 0 : set_stack_check_libfunc (const char *libfunc_name)
1701 : : {
1702 : 0 : gcc_assert (stack_check_libfunc == NULL_RTX);
1703 : 0 : stack_check_libfunc = gen_rtx_SYMBOL_REF (Pmode, libfunc_name);
1704 : 0 : tree ptype
1705 : 0 : = Pmode == ptr_mode
1706 : 0 : ? ptr_type_node
1707 : 0 : : lang_hooks.types.type_for_mode (Pmode, 1);
1708 : 0 : tree ftype
1709 : 0 : = build_function_type_list (void_type_node, ptype, NULL_TREE);
1710 : 0 : tree decl = build_decl (UNKNOWN_LOCATION, FUNCTION_DECL,
1711 : : get_identifier (libfunc_name), ftype);
1712 : 0 : DECL_EXTERNAL (decl) = 1;
1713 : 0 : SET_SYMBOL_REF_DECL (stack_check_libfunc, decl);
1714 : 0 : }
1715 : :
1716 : : /* Emit one stack probe at ADDRESS, an address within the stack. */
1717 : :
1718 : : void
1719 : 135 : emit_stack_probe (rtx address)
1720 : : {
1721 : 135 : if (targetm.have_probe_stack_address ())
1722 : : {
1723 : 0 : class expand_operand ops[1];
1724 : 0 : insn_code icode = targetm.code_for_probe_stack_address;
1725 : 0 : create_address_operand (ops, address);
1726 : 0 : maybe_legitimize_operands (icode, 0, 1, ops);
1727 : 0 : expand_insn (icode, 1, ops);
1728 : : }
1729 : : else
1730 : : {
1731 : 135 : rtx memref = gen_rtx_MEM (word_mode, address);
1732 : :
1733 : 135 : MEM_VOLATILE_P (memref) = 1;
1734 : 135 : memref = validize_mem (memref);
1735 : :
1736 : : /* See if we have an insn to probe the stack. */
1737 : 135 : if (targetm.have_probe_stack ())
1738 : 135 : emit_insn (targetm.gen_probe_stack (memref));
1739 : : else
1740 : 0 : emit_move_insn (memref, const0_rtx);
1741 : : }
1742 : 135 : }
1743 : :
1744 : : /* Probe a range of stack addresses from FIRST to FIRST+SIZE, inclusive.
1745 : : FIRST is a constant and size is a Pmode RTX. These are offsets from
1746 : : the current stack pointer. STACK_GROWS_DOWNWARD says whether to add
1747 : : or subtract them from the stack pointer. */
1748 : :
1749 : : #define PROBE_INTERVAL (1 << STACK_CHECK_PROBE_INTERVAL_EXP)
1750 : :
1751 : : #if STACK_GROWS_DOWNWARD
1752 : : #define STACK_GROW_OP MINUS
1753 : : #define STACK_GROW_OPTAB sub_optab
1754 : : #define STACK_GROW_OFF(off) -(off)
1755 : : #else
1756 : : #define STACK_GROW_OP PLUS
1757 : : #define STACK_GROW_OPTAB add_optab
1758 : : #define STACK_GROW_OFF(off) (off)
1759 : : #endif
1760 : :
1761 : : void
1762 : 0 : probe_stack_range (HOST_WIDE_INT first, rtx size)
1763 : : {
1764 : : /* First ensure SIZE is Pmode. */
1765 : 0 : if (GET_MODE (size) != VOIDmode && GET_MODE (size) != Pmode)
1766 : 0 : size = convert_to_mode (Pmode, size, 1);
1767 : :
1768 : : /* Next see if we have a function to check the stack. */
1769 : 0 : if (stack_check_libfunc)
1770 : : {
1771 : 0 : rtx addr = memory_address (Pmode,
1772 : : gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
1773 : : stack_pointer_rtx,
1774 : : plus_constant (Pmode,
1775 : : size, first)));
1776 : 0 : emit_library_call (stack_check_libfunc, LCT_THROW, VOIDmode,
1777 : 0 : addr, Pmode);
1778 : : }
1779 : :
1780 : : /* Next see if we have an insn to check the stack. */
1781 : 0 : else if (targetm.have_check_stack ())
1782 : : {
1783 : 0 : class expand_operand ops[1];
1784 : 0 : rtx addr = memory_address (Pmode,
1785 : : gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
1786 : : stack_pointer_rtx,
1787 : : plus_constant (Pmode,
1788 : : size, first)));
1789 : 0 : bool success;
1790 : 0 : create_input_operand (&ops[0], addr, Pmode);
1791 : 0 : success = maybe_expand_insn (targetm.code_for_check_stack, 1, ops);
1792 : 0 : gcc_assert (success);
1793 : : }
1794 : :
1795 : : /* Otherwise we have to generate explicit probes. If we have a constant
1796 : : small number of them to generate, that's the easy case. */
1797 : 0 : else if (CONST_INT_P (size) && INTVAL (size) < 7 * PROBE_INTERVAL)
1798 : : {
1799 : : HOST_WIDE_INT isize = INTVAL (size), i;
1800 : : rtx addr;
1801 : :
1802 : : /* Probe at FIRST + N * PROBE_INTERVAL for values of N from 1 until
1803 : : it exceeds SIZE. If only one probe is needed, this will not
1804 : : generate any code. Then probe at FIRST + SIZE. */
1805 : 0 : for (i = PROBE_INTERVAL; i < isize; i += PROBE_INTERVAL)
1806 : : {
1807 : 0 : addr = memory_address (Pmode,
1808 : : plus_constant (Pmode, stack_pointer_rtx,
1809 : : STACK_GROW_OFF (first + i)));
1810 : 0 : emit_stack_probe (addr);
1811 : : }
1812 : :
1813 : 0 : addr = memory_address (Pmode,
1814 : : plus_constant (Pmode, stack_pointer_rtx,
1815 : : STACK_GROW_OFF (first + isize)));
1816 : 0 : emit_stack_probe (addr);
1817 : 0 : }
1818 : :
1819 : : /* In the variable case, do the same as above, but in a loop. Note that we
1820 : : must be extra careful with variables wrapping around because we might be
1821 : : at the very top (or the very bottom) of the address space and we have to
1822 : : be able to handle this case properly; in particular, we use an equality
1823 : : test for the loop condition. */
1824 : : else
1825 : : {
1826 : 0 : rtx rounded_size, rounded_size_op, test_addr, last_addr, temp;
1827 : 0 : rtx_code_label *loop_lab = gen_label_rtx ();
1828 : 0 : rtx_code_label *end_lab = gen_label_rtx ();
1829 : :
1830 : : /* Step 1: round SIZE to the previous multiple of the interval. */
1831 : :
1832 : : /* ROUNDED_SIZE = SIZE & -PROBE_INTERVAL */
1833 : 0 : rounded_size
1834 : 0 : = simplify_gen_binary (AND, Pmode, size,
1835 : 0 : gen_int_mode (-PROBE_INTERVAL, Pmode));
1836 : 0 : rounded_size_op = force_operand (rounded_size, NULL_RTX);
1837 : :
1838 : :
1839 : : /* Step 2: compute initial and final value of the loop counter. */
1840 : :
1841 : : /* TEST_ADDR = SP + FIRST. */
1842 : 0 : test_addr = force_operand (gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
1843 : : stack_pointer_rtx,
1844 : : gen_int_mode (first, Pmode)),
1845 : : NULL_RTX);
1846 : :
1847 : : /* LAST_ADDR = SP + FIRST + ROUNDED_SIZE. */
1848 : 0 : last_addr = force_operand (gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
1849 : : test_addr,
1850 : : rounded_size_op), NULL_RTX);
1851 : :
1852 : :
1853 : : /* Step 3: the loop
1854 : :
1855 : : while (TEST_ADDR != LAST_ADDR)
1856 : : {
1857 : : TEST_ADDR = TEST_ADDR + PROBE_INTERVAL
1858 : : probe at TEST_ADDR
1859 : : }
1860 : :
1861 : : probes at FIRST + N * PROBE_INTERVAL for values of N from 1
1862 : : until it is equal to ROUNDED_SIZE. */
1863 : :
1864 : 0 : emit_label (loop_lab);
1865 : :
1866 : : /* Jump to END_LAB if TEST_ADDR == LAST_ADDR. */
1867 : 0 : emit_cmp_and_jump_insns (test_addr, last_addr, EQ, NULL_RTX, Pmode, 1,
1868 : : end_lab);
1869 : :
1870 : : /* TEST_ADDR = TEST_ADDR + PROBE_INTERVAL. */
1871 : 0 : temp = expand_binop (Pmode, STACK_GROW_OPTAB, test_addr,
1872 : 0 : gen_int_mode (PROBE_INTERVAL, Pmode), test_addr,
1873 : : 1, OPTAB_WIDEN);
1874 : :
1875 : : /* There is no guarantee that expand_binop constructs its result
1876 : : in TEST_ADDR. So copy into TEST_ADDR if necessary. */
1877 : 0 : if (temp != test_addr)
1878 : 0 : emit_move_insn (test_addr, temp);
1879 : :
1880 : : /* Probe at TEST_ADDR. */
1881 : 0 : emit_stack_probe (test_addr);
1882 : :
1883 : 0 : emit_jump (loop_lab);
1884 : :
1885 : 0 : emit_label (end_lab);
1886 : :
1887 : :
1888 : : /* Step 4: probe at FIRST + SIZE if we cannot assert at compile-time
1889 : : that SIZE is equal to ROUNDED_SIZE. */
1890 : :
1891 : : /* TEMP = SIZE - ROUNDED_SIZE. */
1892 : 0 : temp = simplify_gen_binary (MINUS, Pmode, size, rounded_size);
1893 : 0 : if (temp != const0_rtx)
1894 : : {
1895 : 0 : rtx addr;
1896 : :
1897 : 0 : if (CONST_INT_P (temp))
1898 : : {
1899 : : /* Use [base + disp} addressing mode if supported. */
1900 : 0 : HOST_WIDE_INT offset = INTVAL (temp);
1901 : 0 : addr = memory_address (Pmode,
1902 : : plus_constant (Pmode, last_addr,
1903 : : STACK_GROW_OFF (offset)));
1904 : : }
1905 : : else
1906 : : {
1907 : : /* Manual CSE if the difference is not known at compile-time. */
1908 : 0 : temp = gen_rtx_MINUS (Pmode, size, rounded_size_op);
1909 : 0 : addr = memory_address (Pmode,
1910 : : gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
1911 : : last_addr, temp));
1912 : : }
1913 : :
1914 : 0 : emit_stack_probe (addr);
1915 : : }
1916 : : }
1917 : :
1918 : : /* Make sure nothing is scheduled before we are done. */
1919 : 0 : emit_insn (gen_blockage ());
1920 : 0 : }
1921 : :
1922 : : /* Compute parameters for stack clash probing a dynamic stack
1923 : : allocation of SIZE bytes.
1924 : :
1925 : : We compute ROUNDED_SIZE, LAST_ADDR, RESIDUAL and PROBE_INTERVAL.
1926 : :
1927 : : Additionally we conditionally dump the type of probing that will
1928 : : be needed given the values computed. */
1929 : :
1930 : : void
1931 : 16 : compute_stack_clash_protection_loop_data (rtx *rounded_size, rtx *last_addr,
1932 : : rtx *residual,
1933 : : HOST_WIDE_INT *probe_interval,
1934 : : rtx size)
1935 : : {
1936 : : /* Round SIZE down to STACK_CLASH_PROTECTION_PROBE_INTERVAL */
1937 : 16 : *probe_interval
1938 : 16 : = 1 << param_stack_clash_protection_probe_interval;
1939 : 16 : *rounded_size = simplify_gen_binary (AND, Pmode, size,
1940 : : GEN_INT (-*probe_interval));
1941 : :
1942 : : /* Compute the value of the stack pointer for the last iteration.
1943 : : It's just SP + ROUNDED_SIZE. */
1944 : 16 : rtx rounded_size_op = force_operand (*rounded_size, NULL_RTX);
1945 : 16 : *last_addr = force_operand (gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
1946 : : stack_pointer_rtx,
1947 : : rounded_size_op),
1948 : : NULL_RTX);
1949 : :
1950 : : /* Compute any residuals not allocated by the loop above. Residuals
1951 : : are just the ROUNDED_SIZE - SIZE. */
1952 : 16 : *residual = simplify_gen_binary (MINUS, Pmode, size, *rounded_size);
1953 : :
1954 : : /* Dump key information to make writing tests easy. */
1955 : 16 : if (dump_file)
1956 : : {
1957 : 9 : if (*rounded_size == CONST0_RTX (Pmode))
1958 : 0 : fprintf (dump_file,
1959 : : "Stack clash skipped dynamic allocation and probing loop.\n");
1960 : 9 : else if (CONST_INT_P (*rounded_size)
1961 : 0 : && INTVAL (*rounded_size) <= 4 * *probe_interval)
1962 : 0 : fprintf (dump_file,
1963 : : "Stack clash dynamic allocation and probing inline.\n");
1964 : 9 : else if (CONST_INT_P (*rounded_size))
1965 : 0 : fprintf (dump_file,
1966 : : "Stack clash dynamic allocation and probing in "
1967 : : "rotated loop.\n");
1968 : : else
1969 : 9 : fprintf (dump_file,
1970 : : "Stack clash dynamic allocation and probing in loop.\n");
1971 : :
1972 : 9 : if (*residual != CONST0_RTX (Pmode))
1973 : 9 : fprintf (dump_file,
1974 : : "Stack clash dynamic allocation and probing residuals.\n");
1975 : : else
1976 : 0 : fprintf (dump_file,
1977 : : "Stack clash skipped dynamic allocation and "
1978 : : "probing residuals.\n");
1979 : : }
1980 : 16 : }
1981 : :
1982 : : /* Emit the start of an allocate/probe loop for stack
1983 : : clash protection.
1984 : :
1985 : : LOOP_LAB and END_LAB are returned for use when we emit the
1986 : : end of the loop.
1987 : :
1988 : : LAST addr is the value for SP which stops the loop. */
1989 : : void
1990 : 16 : emit_stack_clash_protection_probe_loop_start (rtx *loop_lab,
1991 : : rtx *end_lab,
1992 : : rtx last_addr,
1993 : : bool rotated)
1994 : : {
1995 : : /* Essentially we want to emit any setup code, the top of loop
1996 : : label and the comparison at the top of the loop. */
1997 : 16 : *loop_lab = gen_label_rtx ();
1998 : 16 : *end_lab = gen_label_rtx ();
1999 : :
2000 : 16 : emit_label (*loop_lab);
2001 : 16 : if (!rotated)
2002 : 16 : emit_cmp_and_jump_insns (stack_pointer_rtx, last_addr, EQ, NULL_RTX,
2003 : 16 : Pmode, 1, *end_lab);
2004 : 16 : }
2005 : :
2006 : : /* Emit the end of a stack clash probing loop.
2007 : :
2008 : : This consists of just the jump back to LOOP_LAB and
2009 : : emitting END_LOOP after the loop. */
2010 : :
2011 : : void
2012 : 16 : emit_stack_clash_protection_probe_loop_end (rtx loop_lab, rtx end_loop,
2013 : : rtx last_addr, bool rotated)
2014 : : {
2015 : 16 : if (rotated)
2016 : 0 : emit_cmp_and_jump_insns (stack_pointer_rtx, last_addr, NE, NULL_RTX,
2017 : 0 : Pmode, 1, loop_lab);
2018 : : else
2019 : 16 : emit_jump (loop_lab);
2020 : :
2021 : 16 : emit_label (end_loop);
2022 : :
2023 : 16 : }
2024 : :
2025 : : /* Adjust the stack pointer by minus SIZE (an rtx for a number of bytes)
2026 : : while probing it. This pushes when SIZE is positive. SIZE need not
2027 : : be constant.
2028 : :
2029 : : This is subtly different than anti_adjust_stack_and_probe to try and
2030 : : prevent stack-clash attacks
2031 : :
2032 : : 1. It must assume no knowledge of the probing state, any allocation
2033 : : must probe.
2034 : :
2035 : : Consider the case of a 1 byte alloca in a loop. If the sum of the
2036 : : allocations is large, then this could be used to jump the guard if
2037 : : probes were not emitted.
2038 : :
2039 : : 2. It never skips probes, whereas anti_adjust_stack_and_probe will
2040 : : skip the probe on the first PROBE_INTERVAL on the assumption it
2041 : : was already done in the prologue and in previous allocations.
2042 : :
2043 : : 3. It only allocates and probes SIZE bytes, it does not need to
2044 : : allocate/probe beyond that because this probing style does not
2045 : : guarantee signal handling capability if the guard is hit. */
2046 : :
2047 : : void
2048 : 16 : anti_adjust_stack_and_probe_stack_clash (rtx size)
2049 : : {
2050 : : /* First ensure SIZE is Pmode. */
2051 : 16 : if (GET_MODE (size) != VOIDmode && GET_MODE (size) != Pmode)
2052 : 0 : size = convert_to_mode (Pmode, size, 1);
2053 : :
2054 : : /* We can get here with a constant size on some targets. */
2055 : 16 : rtx rounded_size, last_addr, residual;
2056 : 16 : HOST_WIDE_INT probe_interval, probe_range;
2057 : 16 : bool target_probe_range_p = false;
2058 : 16 : compute_stack_clash_protection_loop_data (&rounded_size, &last_addr,
2059 : : &residual, &probe_interval, size);
2060 : :
2061 : : /* Get the back-end specific probe ranges. */
2062 : 16 : probe_range = targetm.stack_clash_protection_alloca_probe_range ();
2063 : 16 : target_probe_range_p = probe_range != 0;
2064 : 16 : gcc_assert (probe_range >= 0);
2065 : :
2066 : : /* If no back-end specific range defined, default to the top of the newly
2067 : : allocated range. */
2068 : 16 : if (probe_range == 0)
2069 : 32 : probe_range = probe_interval - GET_MODE_SIZE (word_mode);
2070 : :
2071 : 16 : if (rounded_size != CONST0_RTX (Pmode))
2072 : : {
2073 : 16 : if (CONST_INT_P (rounded_size)
2074 : 0 : && INTVAL (rounded_size) <= 4 * probe_interval)
2075 : : {
2076 : 0 : for (HOST_WIDE_INT i = 0;
2077 : 0 : i < INTVAL (rounded_size);
2078 : 0 : i += probe_interval)
2079 : : {
2080 : 0 : anti_adjust_stack (GEN_INT (probe_interval));
2081 : : /* The prologue does not probe residuals. Thus the offset
2082 : : here to probe just beyond what the prologue had already
2083 : : allocated. */
2084 : 0 : emit_stack_probe (plus_constant (Pmode, stack_pointer_rtx,
2085 : : probe_range));
2086 : :
2087 : 0 : emit_insn (gen_blockage ());
2088 : : }
2089 : : }
2090 : : else
2091 : : {
2092 : 16 : rtx loop_lab, end_loop;
2093 : 16 : bool rotate_loop = CONST_INT_P (rounded_size);
2094 : 16 : emit_stack_clash_protection_probe_loop_start (&loop_lab, &end_loop,
2095 : : last_addr, rotate_loop);
2096 : :
2097 : 16 : anti_adjust_stack (GEN_INT (probe_interval));
2098 : :
2099 : : /* The prologue does not probe residuals. Thus the offset here
2100 : : to probe just beyond what the prologue had already
2101 : : allocated. */
2102 : 16 : emit_stack_probe (plus_constant (Pmode, stack_pointer_rtx,
2103 : : probe_range));
2104 : :
2105 : 16 : emit_stack_clash_protection_probe_loop_end (loop_lab, end_loop,
2106 : : last_addr, rotate_loop);
2107 : 16 : emit_insn (gen_blockage ());
2108 : : }
2109 : : }
2110 : :
2111 : 16 : if (residual != CONST0_RTX (Pmode))
2112 : : {
2113 : 16 : rtx label = NULL_RTX;
2114 : : /* RESIDUAL could be zero at runtime and in that case *sp could
2115 : : hold live data. Furthermore, we do not want to probe into the
2116 : : red zone.
2117 : :
2118 : : If TARGET_PROBE_RANGE_P then the target has promised it's safe to
2119 : : probe at offset 0. In which case we no longer have to check for
2120 : : RESIDUAL == 0. However we still need to probe at the right offset
2121 : : when RESIDUAL > PROBE_RANGE, in which case we probe at PROBE_RANGE.
2122 : :
2123 : : If !TARGET_PROBE_RANGE_P then go ahead and just guard the probe at *sp
2124 : : on RESIDUAL != 0 at runtime if RESIDUAL is not a compile time constant.
2125 : : */
2126 : 16 : anti_adjust_stack (residual);
2127 : :
2128 : 16 : if (!CONST_INT_P (residual))
2129 : : {
2130 : 16 : label = gen_label_rtx ();
2131 : 16 : rtx_code op = target_probe_range_p ? LT : EQ;
2132 : 16 : rtx probe_cmp_value = target_probe_range_p
2133 : 0 : ? gen_rtx_CONST_INT (GET_MODE (residual), probe_range)
2134 : 16 : : CONST0_RTX (GET_MODE (residual));
2135 : :
2136 : 16 : if (target_probe_range_p)
2137 : 0 : emit_stack_probe (stack_pointer_rtx);
2138 : :
2139 : 16 : emit_cmp_and_jump_insns (residual, probe_cmp_value,
2140 : 16 : op, NULL_RTX, Pmode, 1, label);
2141 : : }
2142 : :
2143 : 16 : rtx x = NULL_RTX;
2144 : :
2145 : : /* If RESIDUAL isn't a constant and TARGET_PROBE_RANGE_P then we probe up
2146 : : by the ABI defined safe value. */
2147 : 16 : if (!CONST_INT_P (residual) && target_probe_range_p)
2148 : 0 : x = GEN_INT (probe_range);
2149 : : /* If RESIDUAL is a constant but smaller than the ABI defined safe value,
2150 : : we still want to probe up, but the safest amount if a word. */
2151 : 0 : else if (target_probe_range_p)
2152 : : {
2153 : 0 : if (INTVAL (residual) <= probe_range)
2154 : 0 : x = GEN_INT (GET_MODE_SIZE (word_mode));
2155 : : else
2156 : 0 : x = GEN_INT (probe_range);
2157 : : }
2158 : : else
2159 : : /* If nothing else, probe at the top of the new allocation. */
2160 : 32 : x = plus_constant (Pmode, residual, -GET_MODE_SIZE (word_mode));
2161 : :
2162 : 16 : emit_stack_probe (gen_rtx_PLUS (Pmode, stack_pointer_rtx, x));
2163 : :
2164 : 16 : emit_insn (gen_blockage ());
2165 : 16 : if (!CONST_INT_P (residual))
2166 : 16 : emit_label (label);
2167 : : }
2168 : 16 : }
2169 : :
2170 : :
2171 : : /* Adjust the stack pointer by minus SIZE (an rtx for a number of bytes)
2172 : : while probing it. This pushes when SIZE is positive. SIZE need not
2173 : : be constant. If ADJUST_BACK is true, adjust back the stack pointer
2174 : : by plus SIZE at the end. */
2175 : :
2176 : : void
2177 : 41 : anti_adjust_stack_and_probe (rtx size, bool adjust_back)
2178 : : {
2179 : : /* We skip the probe for the first interval + a small dope of 4 words and
2180 : : probe that many bytes past the specified size to maintain a protection
2181 : : area at the botton of the stack. */
2182 : 41 : const int dope = 4 * UNITS_PER_WORD;
2183 : :
2184 : : /* First ensure SIZE is Pmode. */
2185 : 41 : if (GET_MODE (size) != VOIDmode && GET_MODE (size) != Pmode)
2186 : 0 : size = convert_to_mode (Pmode, size, 1);
2187 : :
2188 : : /* If we have a constant small number of probes to generate, that's the
2189 : : easy case. */
2190 : 41 : if (CONST_INT_P (size) && INTVAL (size) < 7 * PROBE_INTERVAL)
2191 : : {
2192 : : HOST_WIDE_INT isize = INTVAL (size), i;
2193 : : bool first_probe = true;
2194 : :
2195 : : /* Adjust SP and probe at PROBE_INTERVAL + N * PROBE_INTERVAL for
2196 : : values of N from 1 until it exceeds SIZE. If only one probe is
2197 : : needed, this will not generate any code. Then adjust and probe
2198 : : to PROBE_INTERVAL + SIZE. */
2199 : 32 : for (i = PROBE_INTERVAL; i < isize; i += PROBE_INTERVAL)
2200 : : {
2201 : 0 : if (first_probe)
2202 : : {
2203 : 0 : anti_adjust_stack (GEN_INT (2 * PROBE_INTERVAL + dope));
2204 : 0 : first_probe = false;
2205 : : }
2206 : : else
2207 : 0 : anti_adjust_stack (GEN_INT (PROBE_INTERVAL));
2208 : 0 : emit_stack_probe (stack_pointer_rtx);
2209 : : }
2210 : :
2211 : 32 : if (first_probe)
2212 : 32 : anti_adjust_stack (plus_constant (Pmode, size, PROBE_INTERVAL + dope));
2213 : : else
2214 : 0 : anti_adjust_stack (plus_constant (Pmode, size, PROBE_INTERVAL - i));
2215 : 32 : emit_stack_probe (stack_pointer_rtx);
2216 : 32 : }
2217 : :
2218 : : /* In the variable case, do the same as above, but in a loop. Note that we
2219 : : must be extra careful with variables wrapping around because we might be
2220 : : at the very top (or the very bottom) of the address space and we have to
2221 : : be able to handle this case properly; in particular, we use an equality
2222 : : test for the loop condition. */
2223 : : else
2224 : : {
2225 : 9 : rtx rounded_size, rounded_size_op, last_addr, temp;
2226 : 9 : rtx_code_label *loop_lab = gen_label_rtx ();
2227 : 9 : rtx_code_label *end_lab = gen_label_rtx ();
2228 : :
2229 : :
2230 : : /* Step 1: round SIZE to the previous multiple of the interval. */
2231 : :
2232 : : /* ROUNDED_SIZE = SIZE & -PROBE_INTERVAL */
2233 : 9 : rounded_size
2234 : 9 : = simplify_gen_binary (AND, Pmode, size,
2235 : 9 : gen_int_mode (-PROBE_INTERVAL, Pmode));
2236 : 9 : rounded_size_op = force_operand (rounded_size, NULL_RTX);
2237 : :
2238 : :
2239 : : /* Step 2: compute initial and final value of the loop counter. */
2240 : :
2241 : : /* SP = SP_0 + PROBE_INTERVAL. */
2242 : 9 : anti_adjust_stack (GEN_INT (PROBE_INTERVAL + dope));
2243 : :
2244 : : /* LAST_ADDR = SP_0 + PROBE_INTERVAL + ROUNDED_SIZE. */
2245 : 9 : last_addr = force_operand (gen_rtx_fmt_ee (STACK_GROW_OP, Pmode,
2246 : : stack_pointer_rtx,
2247 : : rounded_size_op), NULL_RTX);
2248 : :
2249 : :
2250 : : /* Step 3: the loop
2251 : :
2252 : : while (SP != LAST_ADDR)
2253 : : {
2254 : : SP = SP + PROBE_INTERVAL
2255 : : probe at SP
2256 : : }
2257 : :
2258 : : adjusts SP and probes at PROBE_INTERVAL + N * PROBE_INTERVAL for
2259 : : values of N from 1 until it is equal to ROUNDED_SIZE. */
2260 : :
2261 : 9 : emit_label (loop_lab);
2262 : :
2263 : : /* Jump to END_LAB if SP == LAST_ADDR. */
2264 : 9 : emit_cmp_and_jump_insns (stack_pointer_rtx, last_addr, EQ, NULL_RTX,
2265 : 9 : Pmode, 1, end_lab);
2266 : :
2267 : : /* SP = SP + PROBE_INTERVAL and probe at SP. */
2268 : 9 : anti_adjust_stack (GEN_INT (PROBE_INTERVAL));
2269 : 9 : emit_stack_probe (stack_pointer_rtx);
2270 : :
2271 : 9 : emit_jump (loop_lab);
2272 : :
2273 : 9 : emit_label (end_lab);
2274 : :
2275 : :
2276 : : /* Step 4: adjust SP and probe at PROBE_INTERVAL + SIZE if we cannot
2277 : : assert at compile-time that SIZE is equal to ROUNDED_SIZE. */
2278 : :
2279 : : /* TEMP = SIZE - ROUNDED_SIZE. */
2280 : 9 : temp = simplify_gen_binary (MINUS, Pmode, size, rounded_size);
2281 : 9 : if (temp != const0_rtx)
2282 : : {
2283 : : /* Manual CSE if the difference is not known at compile-time. */
2284 : 9 : if (GET_CODE (temp) != CONST_INT)
2285 : 9 : temp = gen_rtx_MINUS (Pmode, size, rounded_size_op);
2286 : 9 : anti_adjust_stack (temp);
2287 : 9 : emit_stack_probe (stack_pointer_rtx);
2288 : : }
2289 : : }
2290 : :
2291 : : /* Adjust back and account for the additional first interval. */
2292 : 41 : if (adjust_back)
2293 : 32 : adjust_stack (plus_constant (Pmode, size, PROBE_INTERVAL + dope));
2294 : : else
2295 : 9 : adjust_stack (GEN_INT (PROBE_INTERVAL + dope));
2296 : 41 : }
2297 : :
2298 : : /* Return an rtx representing the register or memory location
2299 : : in which a scalar value of data type VALTYPE
2300 : : was returned by a function call to function FUNC.
2301 : : FUNC is a FUNCTION_DECL, FNTYPE a FUNCTION_TYPE node if the precise
2302 : : function is known, otherwise 0.
2303 : : OUTGOING is 1 if on a machine with register windows this function
2304 : : should return the register in which the function will put its result
2305 : : and 0 otherwise. */
2306 : :
2307 : : rtx
2308 : 94020091 : hard_function_value (const_tree valtype, const_tree func, const_tree fntype,
2309 : : int outgoing ATTRIBUTE_UNUSED)
2310 : : {
2311 : 94020091 : rtx val;
2312 : :
2313 : 185639390 : val = targetm.calls.function_value (valtype, func ? func : fntype, outgoing);
2314 : :
2315 : 94020091 : if (REG_P (val)
2316 : 93143430 : && GET_MODE (val) == BLKmode)
2317 : : {
2318 : 42846 : unsigned HOST_WIDE_INT bytes = arg_int_size_in_bytes (valtype);
2319 : 42846 : opt_scalar_int_mode tmpmode;
2320 : :
2321 : : /* int_size_in_bytes can return -1. We don't need a check here
2322 : : since the value of bytes will then be large enough that no
2323 : : mode will match anyway. */
2324 : :
2325 : 148418 : FOR_EACH_MODE_IN_CLASS (tmpmode, MODE_INT)
2326 : : {
2327 : : /* Have we found a large enough mode? */
2328 : 296836 : if (GET_MODE_SIZE (tmpmode.require ()) >= bytes)
2329 : : break;
2330 : : }
2331 : :
2332 : 42846 : PUT_MODE (val, tmpmode.require ());
2333 : : }
2334 : 94020091 : return val;
2335 : : }
2336 : :
2337 : : /* Return an rtx representing the register or memory location
2338 : : in which a scalar value of mode MODE was returned by a library call. */
2339 : :
2340 : : rtx
2341 : 107060 : hard_libcall_value (machine_mode mode, rtx fun)
2342 : : {
2343 : 107060 : return targetm.calls.libcall_value (mode, fun);
2344 : : }
2345 : :
2346 : : /* Look up the tree code for a given rtx code
2347 : : to provide the arithmetic operation for real_arithmetic.
2348 : : The function returns an int because the caller may not know
2349 : : what `enum tree_code' means. */
2350 : :
2351 : : int
2352 : 5601 : rtx_to_tree_code (enum rtx_code code)
2353 : : {
2354 : 5601 : enum tree_code tcode;
2355 : :
2356 : 5601 : switch (code)
2357 : : {
2358 : : case PLUS:
2359 : : tcode = PLUS_EXPR;
2360 : : break;
2361 : : case MINUS:
2362 : : tcode = MINUS_EXPR;
2363 : : break;
2364 : : case MULT:
2365 : : tcode = MULT_EXPR;
2366 : : break;
2367 : : case DIV:
2368 : : tcode = RDIV_EXPR;
2369 : : break;
2370 : : case SMIN:
2371 : : tcode = MIN_EXPR;
2372 : : break;
2373 : : case SMAX:
2374 : : tcode = MAX_EXPR;
2375 : : break;
2376 : : default:
2377 : : tcode = LAST_AND_UNUSED_TREE_CODE;
2378 : : break;
2379 : : }
2380 : 5601 : return ((int) tcode);
2381 : : }
2382 : :
2383 : : #include "gt-explow.h"
|