LCOV - code coverage report
Current view: top level - gcc - expr.cc (source / functions) Coverage Total Hit
Test: gcc.info Lines: 80.6 % 6819 5493
Test Date: 2024-12-21 13:15:12 Functions: 93.8 % 177 166
Legend: Lines: hit not hit | Branches: + taken - not taken # not executed Branches: - 0 0

             Branch data     Line data    Source code
       1                 :             : /* Convert tree expression to rtl instructions, for GNU compiler.
       2                 :             :    Copyright (C) 1988-2024 Free Software Foundation, Inc.
       3                 :             : 
       4                 :             : This file is part of GCC.
       5                 :             : 
       6                 :             : GCC is free software; you can redistribute it and/or modify it under
       7                 :             : the terms of the GNU General Public License as published by the Free
       8                 :             : Software Foundation; either version 3, or (at your option) any later
       9                 :             : version.
      10                 :             : 
      11                 :             : GCC is distributed in the hope that it will be useful, but WITHOUT ANY
      12                 :             : WARRANTY; without even the implied warranty of MERCHANTABILITY or
      13                 :             : FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License
      14                 :             : for more details.
      15                 :             : 
      16                 :             : You should have received a copy of the GNU General Public License
      17                 :             : along with GCC; see the file COPYING3.  If not see
      18                 :             : <http://www.gnu.org/licenses/>.  */
      19                 :             : 
      20                 :             : #include "config.h"
      21                 :             : #include "system.h"
      22                 :             : #include "coretypes.h"
      23                 :             : #include "backend.h"
      24                 :             : #include "target.h"
      25                 :             : #include "rtl.h"
      26                 :             : #include "tree.h"
      27                 :             : #include "gimple.h"
      28                 :             : #include "predict.h"
      29                 :             : #include "memmodel.h"
      30                 :             : #include "tm_p.h"
      31                 :             : #include "ssa.h"
      32                 :             : #include "optabs.h"
      33                 :             : #include "expmed.h"
      34                 :             : #include "regs.h"
      35                 :             : #include "emit-rtl.h"
      36                 :             : #include "recog.h"
      37                 :             : #include "cgraph.h"
      38                 :             : #include "diagnostic.h"
      39                 :             : #include "alias.h"
      40                 :             : #include "fold-const.h"
      41                 :             : #include "stor-layout.h"
      42                 :             : #include "attribs.h"
      43                 :             : #include "varasm.h"
      44                 :             : #include "except.h"
      45                 :             : #include "insn-attr.h"
      46                 :             : #include "dojump.h"
      47                 :             : #include "explow.h"
      48                 :             : #include "calls.h"
      49                 :             : #include "stmt.h"
      50                 :             : /* Include expr.h after insn-config.h so we get HAVE_conditional_move.  */
      51                 :             : #include "expr.h"
      52                 :             : #include "optabs-tree.h"
      53                 :             : #include "libfuncs.h"
      54                 :             : #include "reload.h"
      55                 :             : #include "langhooks.h"
      56                 :             : #include "common/common-target.h"
      57                 :             : #include "tree-dfa.h"
      58                 :             : #include "tree-ssa-live.h"
      59                 :             : #include "tree-outof-ssa.h"
      60                 :             : #include "tree-ssa-address.h"
      61                 :             : #include "builtins.h"
      62                 :             : #include "ccmp.h"
      63                 :             : #include "gimple-iterator.h"
      64                 :             : #include "gimple-fold.h"
      65                 :             : #include "rtx-vector-builder.h"
      66                 :             : #include "tree-pretty-print.h"
      67                 :             : #include "flags.h"
      68                 :             : #include "internal-fn.h"
      69                 :             : 
      70                 :             : 
      71                 :             : /* If this is nonzero, we do not bother generating VOLATILE
      72                 :             :    around volatile memory references, and we are willing to
      73                 :             :    output indirect addresses.  If cse is to follow, we reject
      74                 :             :    indirect addresses so a useful potential cse is generated;
      75                 :             :    if it is used only once, instruction combination will produce
      76                 :             :    the same indirect address eventually.  */
      77                 :             : int cse_not_expected;
      78                 :             : 
      79                 :             : static bool block_move_libcall_safe_for_call_parm (void);
      80                 :             : static bool emit_block_move_via_pattern (rtx, rtx, rtx, unsigned, unsigned,
      81                 :             :                                          HOST_WIDE_INT, unsigned HOST_WIDE_INT,
      82                 :             :                                          unsigned HOST_WIDE_INT,
      83                 :             :                                          unsigned HOST_WIDE_INT, bool);
      84                 :             : static void emit_block_move_via_loop (rtx, rtx, rtx, unsigned, int);
      85                 :             : static void emit_block_move_via_sized_loop (rtx, rtx, rtx, unsigned, unsigned);
      86                 :             : static void emit_block_move_via_oriented_loop (rtx, rtx, rtx, unsigned, unsigned);
      87                 :             : static rtx emit_block_cmp_via_loop (rtx, rtx, rtx, tree, rtx, bool,
      88                 :             :                                     unsigned, unsigned);
      89                 :             : static rtx_insn *compress_float_constant (rtx, rtx);
      90                 :             : static rtx get_subtarget (rtx);
      91                 :             : static rtx store_field (rtx, poly_int64, poly_int64, poly_uint64, poly_uint64,
      92                 :             :                         machine_mode, tree, alias_set_type, bool, bool);
      93                 :             : 
      94                 :             : static unsigned HOST_WIDE_INT highest_pow2_factor_for_target (const_tree, const_tree);
      95                 :             : 
      96                 :             : static bool is_aligning_offset (const_tree, const_tree);
      97                 :             : static rtx reduce_to_bit_field_precision (rtx, rtx, tree);
      98                 :             : static rtx do_store_flag (const_sepops, rtx, machine_mode);
      99                 :             : #ifdef PUSH_ROUNDING
     100                 :             : static void emit_single_push_insn (machine_mode, rtx, tree);
     101                 :             : #endif
     102                 :             : static void do_tablejump (rtx, machine_mode, rtx, rtx, rtx,
     103                 :             :                           profile_probability);
     104                 :             : static rtx const_vector_from_tree (tree);
     105                 :             : static tree tree_expr_size (const_tree);
     106                 :             : static void convert_mode_scalar (rtx, rtx, int);
     107                 :             : 
     108                 :             : 
     109                 :             : /* This is run to set up which modes can be used
     110                 :             :    directly in memory and to initialize the block move optab.  It is run
     111                 :             :    at the beginning of compilation and when the target is reinitialized.  */
     112                 :             : 
     113                 :             : void
     114                 :      207640 : init_expr_target (void)
     115                 :             : {
     116                 :      207640 :   rtx pat;
     117                 :      207640 :   int num_clobbers;
     118                 :      207640 :   rtx mem, mem1;
     119                 :      207640 :   rtx reg;
     120                 :             : 
     121                 :             :   /* Try indexing by frame ptr and try by stack ptr.
     122                 :             :      It is known that on the Convex the stack ptr isn't a valid index.
     123                 :             :      With luck, one or the other is valid on any machine.  */
     124                 :      207640 :   mem = gen_rtx_MEM (word_mode, stack_pointer_rtx);
     125                 :      207640 :   mem1 = gen_rtx_MEM (word_mode, frame_pointer_rtx);
     126                 :             : 
     127                 :             :   /* A scratch register we can modify in-place below to avoid
     128                 :             :      useless RTL allocations.  */
     129                 :      207640 :   reg = gen_rtx_REG (word_mode, LAST_VIRTUAL_REGISTER + 1);
     130                 :             : 
     131                 :      207640 :   rtx_insn *insn = as_a<rtx_insn *> (rtx_alloc (INSN));
     132                 :      207640 :   pat = gen_rtx_SET (NULL_RTX, NULL_RTX);
     133                 :      207640 :   PATTERN (insn) = pat;
     134                 :             : 
     135                 :    27200840 :   for (machine_mode mode = VOIDmode; (int) mode < NUM_MACHINE_MODES;
     136                 :    26993200 :        mode = (machine_mode) ((int) mode + 1))
     137                 :             :     {
     138                 :    26993200 :       int regno;
     139                 :             : 
     140                 :    26993200 :       direct_load[(int) mode] = direct_store[(int) mode] = 0;
     141                 :    26993200 :       PUT_MODE (mem, mode);
     142                 :    26993200 :       PUT_MODE (mem1, mode);
     143                 :             : 
     144                 :             :       /* See if there is some register that can be used in this mode and
     145                 :             :          directly loaded or stored from memory.  */
     146                 :             : 
     147                 :    26993200 :       if (mode != VOIDmode && mode != BLKmode)
     148                 :  1849549289 :         for (regno = 0; regno < FIRST_PSEUDO_REGISTER
     149                 :  1876127209 :              && (direct_load[(int) mode] == 0 || direct_store[(int) mode] == 0);
     150                 :             :              regno++)
     151                 :             :           {
     152                 :  1849549289 :             if (!targetm.hard_regno_mode_ok (regno, mode))
     153                 :  1735912422 :               continue;
     154                 :             : 
     155                 :   113636867 :             set_mode_and_regno (reg, mode, regno);
     156                 :             : 
     157                 :   113636867 :             SET_SRC (pat) = mem;
     158                 :   113636867 :             SET_DEST (pat) = reg;
     159                 :   113636867 :             if (recog (pat, insn, &num_clobbers) >= 0)
     160                 :     6989585 :               direct_load[(int) mode] = 1;
     161                 :             : 
     162                 :   113636867 :             SET_SRC (pat) = mem1;
     163                 :   113636867 :             SET_DEST (pat) = reg;
     164                 :   113636867 :             if (recog (pat, insn, &num_clobbers) >= 0)
     165                 :     6989585 :               direct_load[(int) mode] = 1;
     166                 :             : 
     167                 :   113636867 :             SET_SRC (pat) = reg;
     168                 :   113636867 :             SET_DEST (pat) = mem;
     169                 :   113636867 :             if (recog (pat, insn, &num_clobbers) >= 0)
     170                 :     6989585 :               direct_store[(int) mode] = 1;
     171                 :             : 
     172                 :   113636867 :             SET_SRC (pat) = reg;
     173                 :   113636867 :             SET_DEST (pat) = mem1;
     174                 :   113636867 :             if (recog (pat, insn, &num_clobbers) >= 0)
     175                 :     6989585 :               direct_store[(int) mode] = 1;
     176                 :             :           }
     177                 :             :     }
     178                 :             : 
     179                 :      207640 :   mem = gen_rtx_MEM (VOIDmode, gen_raw_REG (Pmode, LAST_VIRTUAL_REGISTER + 1));
     180                 :             : 
     181                 :      207640 :   opt_scalar_float_mode mode_iter;
     182                 :     1453480 :   FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_FLOAT)
     183                 :             :     {
     184                 :     1245840 :       scalar_float_mode mode = mode_iter.require ();
     185                 :     1245840 :       scalar_float_mode srcmode;
     186                 :     4360440 :       FOR_EACH_MODE_UNTIL (srcmode, mode)
     187                 :             :         {
     188                 :     3114600 :           enum insn_code ic;
     189                 :             : 
     190                 :     3114600 :           ic = can_extend_p (mode, srcmode, 0);
     191                 :     3114600 :           if (ic == CODE_FOR_nothing)
     192                 :     2486948 :             continue;
     193                 :             : 
     194                 :      627652 :           PUT_MODE (mem, srcmode);
     195                 :             : 
     196                 :      627652 :           if (insn_operand_matches (ic, 1, mem))
     197                 :      625576 :             float_extend_from_mem[mode][srcmode] = true;
     198                 :             :         }
     199                 :             :     }
     200                 :      207640 : }
     201                 :             : 
     202                 :             : /* This is run at the start of compiling a function.  */
     203                 :             : 
     204                 :             : void
     205                 :     1629789 : init_expr (void)
     206                 :             : {
     207                 :     1629789 :   memset (&crtl->expr, 0, sizeof (crtl->expr));
     208                 :     1629789 : }
     209                 :             : 
     210                 :             : /* Copy data from FROM to TO, where the machine modes are not the same.
     211                 :             :    Both modes may be integer, or both may be floating, or both may be
     212                 :             :    fixed-point.
     213                 :             :    UNSIGNEDP should be nonzero if FROM is an unsigned type.
     214                 :             :    This causes zero-extension instead of sign-extension.  */
     215                 :             : 
     216                 :             : void
     217                 :     1775424 : convert_move (rtx to, rtx from, int unsignedp)
     218                 :             : {
     219                 :     1775424 :   machine_mode to_mode = GET_MODE (to);
     220                 :     1775424 :   machine_mode from_mode = GET_MODE (from);
     221                 :             : 
     222                 :     1775424 :   gcc_assert (to_mode != BLKmode);
     223                 :     1775424 :   gcc_assert (from_mode != BLKmode);
     224                 :             : 
     225                 :             :   /* If the source and destination are already the same, then there's
     226                 :             :      nothing to do.  */
     227                 :     1775424 :   if (to == from)
     228                 :     1775424 :     return;
     229                 :             : 
     230                 :             :   /* If FROM is a SUBREG that indicates that we have already done at least
     231                 :             :      the required extension, strip it.  We don't handle such SUBREGs as
     232                 :             :      TO here.  */
     233                 :             : 
     234                 :     1775424 :   scalar_int_mode to_int_mode;
     235                 :     1775424 :   if (GET_CODE (from) == SUBREG
     236                 :      107825 :       && SUBREG_PROMOTED_VAR_P (from)
     237                 :     1775424 :       && is_a <scalar_int_mode> (to_mode, &to_int_mode)
     238                 :     1775424 :       && (GET_MODE_PRECISION (subreg_promoted_mode (from))
     239                 :           0 :           >= GET_MODE_PRECISION (to_int_mode))
     240                 :     1775424 :       && SUBREG_CHECK_PROMOTED_SIGN (from, unsignedp))
     241                 :             :     {
     242                 :           0 :       scalar_int_mode int_orig_mode;
     243                 :           0 :       scalar_int_mode int_inner_mode;
     244                 :           0 :       machine_mode orig_mode = GET_MODE (from);
     245                 :             : 
     246                 :           0 :       from = gen_lowpart (to_int_mode, SUBREG_REG (from));
     247                 :           0 :       from_mode = to_int_mode;
     248                 :             : 
     249                 :             :       /* Preserve SUBREG_PROMOTED_VAR_P if the new mode is wider than
     250                 :             :          the original mode, but narrower than the inner mode.  */
     251                 :           0 :       if (GET_CODE (from) == SUBREG
     252                 :           0 :           && is_a <scalar_int_mode> (orig_mode, &int_orig_mode)
     253                 :           0 :           && GET_MODE_PRECISION (to_int_mode)
     254                 :           0 :              > GET_MODE_PRECISION (int_orig_mode)
     255                 :           0 :           && is_a <scalar_int_mode> (GET_MODE (SUBREG_REG (from)),
     256                 :             :                                      &int_inner_mode)
     257                 :           0 :           && GET_MODE_PRECISION (int_inner_mode)
     258                 :           0 :              > GET_MODE_PRECISION (to_int_mode))
     259                 :             :         {
     260                 :           0 :           SUBREG_PROMOTED_VAR_P (from) = 1;
     261                 :           0 :           SUBREG_PROMOTED_SET (from, unsignedp);
     262                 :             :         }
     263                 :             :     }
     264                 :             : 
     265                 :     1775424 :   gcc_assert (GET_CODE (to) != SUBREG || !SUBREG_PROMOTED_VAR_P (to));
     266                 :             : 
     267                 :     1775424 :   if (to_mode == from_mode
     268                 :     1726995 :       || (from_mode == VOIDmode && CONSTANT_P (from)))
     269                 :             :     {
     270                 :       48771 :       emit_move_insn (to, from);
     271                 :       48771 :       return;
     272                 :             :     }
     273                 :             : 
     274                 :     1726653 :   if (VECTOR_MODE_P (to_mode) || VECTOR_MODE_P (from_mode))
     275                 :             :     {
     276                 :       29656 :       if (GET_MODE_UNIT_PRECISION (to_mode)
     277                 :       14828 :           > GET_MODE_UNIT_PRECISION (from_mode))
     278                 :             :         {
     279                 :        5534 :           optab op = unsignedp ? zext_optab : sext_optab;
     280                 :        5534 :           insn_code icode = convert_optab_handler (op, to_mode, from_mode);
     281                 :        5534 :           if (icode != CODE_FOR_nothing)
     282                 :             :             {
     283                 :         766 :               emit_unop_insn (icode, to, from,
     284                 :             :                               unsignedp ? ZERO_EXTEND : SIGN_EXTEND);
     285                 :         766 :               return;
     286                 :             :             }
     287                 :             :         }
     288                 :             : 
     289                 :       28124 :       if (GET_MODE_UNIT_PRECISION (to_mode)
     290                 :       14062 :           < GET_MODE_UNIT_PRECISION (from_mode))
     291                 :             :         {
     292                 :        1943 :           insn_code icode = convert_optab_handler (trunc_optab,
     293                 :             :                                                    to_mode, from_mode);
     294                 :        1943 :           if (icode != CODE_FOR_nothing)
     295                 :             :             {
     296                 :         866 :               emit_unop_insn (icode, to, from, TRUNCATE);
     297                 :         866 :               return;
     298                 :             :             }
     299                 :             :         }
     300                 :             : 
     301                 :       39588 :       gcc_assert (known_eq (GET_MODE_BITSIZE (from_mode),
     302                 :             :                             GET_MODE_BITSIZE (to_mode)));
     303                 :             : 
     304                 :       13196 :       if (VECTOR_MODE_P (to_mode))
     305                 :       13196 :         from = force_subreg (to_mode, from, GET_MODE (from), 0);
     306                 :             :       else
     307                 :           0 :         to = simplify_gen_subreg (from_mode, to, GET_MODE (to), 0);
     308                 :             : 
     309                 :       13196 :       emit_move_insn (to, from);
     310                 :       13196 :       return;
     311                 :             :     }
     312                 :             : 
     313                 :     1711825 :   if (GET_CODE (to) == CONCAT && GET_CODE (from) == CONCAT)
     314                 :             :     {
     315                 :           0 :       convert_move (XEXP (to, 0), XEXP (from, 0), unsignedp);
     316                 :           0 :       convert_move (XEXP (to, 1), XEXP (from, 1), unsignedp);
     317                 :           0 :       return;
     318                 :             :     }
     319                 :             : 
     320                 :     1711825 :   convert_mode_scalar (to, from, unsignedp);
     321                 :             : }
     322                 :             : 
     323                 :             : /* Like convert_move, but deals only with scalar modes.  */
     324                 :             : 
     325                 :             : static void
     326                 :     1711869 : convert_mode_scalar (rtx to, rtx from, int unsignedp)
     327                 :             : {
     328                 :             :   /* Both modes should be scalar types.  */
     329                 :     1711874 :   scalar_mode from_mode = as_a <scalar_mode> (GET_MODE (from));
     330                 :     1711874 :   scalar_mode to_mode = as_a <scalar_mode> (GET_MODE (to));
     331                 :     1711874 :   bool to_real = SCALAR_FLOAT_MODE_P (to_mode);
     332                 :     1711874 :   bool from_real = SCALAR_FLOAT_MODE_P (from_mode);
     333                 :     1711874 :   enum insn_code code;
     334                 :     1711874 :   rtx libcall;
     335                 :             : 
     336                 :     1711874 :   gcc_assert (to_real == from_real);
     337                 :             : 
     338                 :             :   /* rtx code for making an equivalent value.  */
     339                 :     1711874 :   enum rtx_code equiv_code = (unsignedp < 0 ? UNKNOWN
     340                 :     1711874 :                               : (unsignedp ? ZERO_EXTEND : SIGN_EXTEND));
     341                 :             : 
     342                 :     1711874 :   auto acceptable_same_precision_modes
     343                 :         580 :     = [] (scalar_mode from_mode, scalar_mode to_mode) -> bool
     344                 :             :     {
     345                 :         580 :       if (DECIMAL_FLOAT_MODE_P (from_mode) != DECIMAL_FLOAT_MODE_P (to_mode))
     346                 :             :         return true;
     347                 :             : 
     348                 :             :       /* arm_bfloat_half_format <-> ieee_half_format */
     349                 :           2 :       if ((REAL_MODE_FORMAT (from_mode) == &arm_bfloat_half_format
     350                 :           1 :            && REAL_MODE_FORMAT (to_mode) == &ieee_half_format)
     351                 :           2 :           || (REAL_MODE_FORMAT (to_mode) == &arm_bfloat_half_format
     352                 :           1 :               && REAL_MODE_FORMAT (from_mode) == &ieee_half_format))
     353                 :             :         return true;
     354                 :             : 
     355                 :             :       /* ibm_extended_format <-> ieee_quad_format */
     356                 :           0 :       if ((REAL_MODE_FORMAT (from_mode) == &ibm_extended_format
     357                 :           0 :            && REAL_MODE_FORMAT (to_mode) == &ieee_quad_format)
     358                 :           0 :           || (REAL_MODE_FORMAT (from_mode) == &ieee_quad_format
     359                 :           0 :               && REAL_MODE_FORMAT (to_mode) == &ibm_extended_format))
     360                 :           0 :         return true;
     361                 :             : 
     362                 :             :       return false;
     363                 :             :     };
     364                 :             : 
     365                 :     1711874 :   if (to_real)
     366                 :             :     {
     367                 :      184522 :       rtx value;
     368                 :      184522 :       rtx_insn *insns;
     369                 :      184522 :       convert_optab tab;
     370                 :             : 
     371                 :      184522 :       gcc_assert ((GET_MODE_PRECISION (from_mode)
     372                 :             :                    != GET_MODE_PRECISION (to_mode))
     373                 :             :                   || acceptable_same_precision_modes (from_mode, to_mode));
     374                 :             : 
     375                 :      184522 :       if (GET_MODE_PRECISION (from_mode) == GET_MODE_PRECISION (to_mode))
     376                 :             :         {
     377                 :         580 :           if ((REAL_MODE_FORMAT (to_mode) == &arm_bfloat_half_format
     378                 :           1 :                && REAL_MODE_FORMAT (from_mode) == &ieee_half_format)
     379                 :         580 :               || (REAL_MODE_FORMAT (to_mode) == &ieee_quad_format
     380                 :           0 :                   && REAL_MODE_FORMAT (from_mode) == &ibm_extended_format))
     381                 :             :             /* libgcc implements just __trunchfbf2, not __extendhfbf2;
     382                 :             :                and __trunctfkf2, not __extendtfkf2.  */
     383                 :             :             tab = trunc_optab;
     384                 :             :           else
     385                 :             :             /* Conversion between decimal float and binary float, same
     386                 :             :                size.  */
     387                 :         579 :             tab = DECIMAL_FLOAT_MODE_P (from_mode) ? trunc_optab : sext_optab;
     388                 :             :         }
     389                 :      183942 :       else if (GET_MODE_PRECISION (from_mode) < GET_MODE_PRECISION (to_mode))
     390                 :             :         tab = sext_optab;
     391                 :             :       else
     392                 :       19129 :         tab = trunc_optab;
     393                 :             : 
     394                 :             :       /* Try converting directly if the insn is supported.  */
     395                 :             : 
     396                 :      184522 :       code = convert_optab_handler (tab, to_mode, from_mode);
     397                 :      184522 :       if (code != CODE_FOR_nothing)
     398                 :             :         {
     399                 :      160223 :           emit_unop_insn (code, to, from,
     400                 :             :                           tab == sext_optab ? FLOAT_EXTEND : FLOAT_TRUNCATE);
     401                 :      160223 :           return;
     402                 :             :         }
     403                 :             : 
     404                 :             : #ifdef HAVE_SFmode
     405                 :       24299 :       if (REAL_MODE_FORMAT (from_mode) == &arm_bfloat_half_format
     406                 :       24299 :           && REAL_MODE_FORMAT (SFmode) == &ieee_single_format)
     407                 :             :         {
     408                 :        2642 :           if (GET_MODE_PRECISION (to_mode) > GET_MODE_PRECISION (SFmode))
     409                 :             :             {
     410                 :             :               /* To cut down on libgcc size, implement
     411                 :             :                  BFmode -> {DF,XF,TF}mode conversions by
     412                 :             :                  BFmode -> SFmode -> {DF,XF,TF}mode conversions.  */
     413                 :           4 :               rtx temp = gen_reg_rtx (SFmode);
     414                 :           4 :               convert_mode_scalar (temp, from, unsignedp);
     415                 :           4 :               convert_mode_scalar (to, temp, unsignedp);
     416                 :           4 :               return;
     417                 :             :             }
     418                 :        2638 :           if (REAL_MODE_FORMAT (to_mode) == &ieee_half_format)
     419                 :             :             {
     420                 :             :               /* Similarly, implement BFmode -> HFmode as
     421                 :             :                  BFmode -> SFmode -> HFmode conversion where SFmode
     422                 :             :                  has superset of BFmode values.  We don't need
     423                 :             :                  to handle sNaNs by raising exception and turning
     424                 :             :                  it into qNaN though, as that can be done in the
     425                 :             :                  SFmode -> HFmode conversion too.  */
     426                 :           1 :               rtx temp = gen_reg_rtx (SFmode);
     427                 :           1 :               int save_flag_finite_math_only = flag_finite_math_only;
     428                 :           1 :               flag_finite_math_only = true;
     429                 :           1 :               convert_mode_scalar (temp, from, unsignedp);
     430                 :           1 :               flag_finite_math_only = save_flag_finite_math_only;
     431                 :           1 :               convert_mode_scalar (to, temp, unsignedp);
     432                 :           1 :               return;
     433                 :             :             }
     434                 :        2637 :           if (to_mode == SFmode
     435                 :        2637 :               && !HONOR_NANS (from_mode)
     436                 :          40 :               && !HONOR_NANS (to_mode)
     437                 :        2677 :               && optimize_insn_for_speed_p ())
     438                 :             :             {
     439                 :             :               /* If we don't expect sNaNs, for BFmode -> SFmode we can just
     440                 :             :                  shift the bits up.  */
     441                 :          39 :               machine_mode fromi_mode, toi_mode;
     442                 :          78 :               if (int_mode_for_size (GET_MODE_BITSIZE (from_mode),
     443                 :          39 :                                      0).exists (&fromi_mode)
     444                 :          39 :                   && int_mode_for_size (GET_MODE_BITSIZE (to_mode),
     445                 :           0 :                                         0).exists (&toi_mode))
     446                 :             :                 {
     447                 :          39 :                   start_sequence ();
     448                 :          39 :                   rtx fromi = force_lowpart_subreg (fromi_mode, from,
     449                 :             :                                                     from_mode);
     450                 :          39 :                   rtx tof = NULL_RTX;
     451                 :          39 :                   if (fromi)
     452                 :             :                     {
     453                 :          39 :                       rtx toi;
     454                 :          39 :                       if (GET_MODE (fromi) == VOIDmode)
     455                 :           0 :                         toi = simplify_unary_operation (ZERO_EXTEND, toi_mode,
     456                 :             :                                                         fromi, fromi_mode);
     457                 :             :                       else
     458                 :             :                         {
     459                 :          39 :                           toi = gen_reg_rtx (toi_mode);
     460                 :          39 :                           convert_mode_scalar (toi, fromi, 1);
     461                 :             :                         }
     462                 :          39 :                       toi
     463                 :          78 :                         = maybe_expand_shift (LSHIFT_EXPR, toi_mode, toi,
     464                 :          39 :                                               GET_MODE_PRECISION (to_mode)
     465                 :          39 :                                               - GET_MODE_PRECISION (from_mode),
     466                 :             :                                               NULL_RTX, 1);
     467                 :          39 :                       if (toi)
     468                 :             :                         {
     469                 :          39 :                           tof = force_lowpart_subreg (to_mode, toi, toi_mode);
     470                 :          39 :                           if (tof)
     471                 :          39 :                             emit_move_insn (to, tof);
     472                 :             :                         }
     473                 :             :                     }
     474                 :          39 :                   insns = get_insns ();
     475                 :          39 :                   end_sequence ();
     476                 :          39 :                   if (tof)
     477                 :             :                     {
     478                 :          39 :                       emit_insn (insns);
     479                 :          39 :                       return;
     480                 :             :                     }
     481                 :             :                 }
     482                 :             :             }
     483                 :             :         }
     484                 :       24255 :       if (REAL_MODE_FORMAT (from_mode) == &ieee_single_format
     485                 :        5015 :           && REAL_MODE_FORMAT (to_mode) == &arm_bfloat_half_format
     486                 :        1818 :           && !HONOR_NANS (from_mode)
     487                 :           0 :           && !HONOR_NANS (to_mode)
     488                 :           0 :           && !flag_rounding_math
     489                 :       24255 :           && optimize_insn_for_speed_p ())
     490                 :             :         {
     491                 :             :           /* If we don't expect qNaNs nor sNaNs and can assume rounding
     492                 :             :              to nearest, we can expand the conversion inline as
     493                 :             :              (fromi + 0x7fff + ((fromi >> 16) & 1)) >> 16.  */
     494                 :           0 :           machine_mode fromi_mode, toi_mode;
     495                 :           0 :           if (int_mode_for_size (GET_MODE_BITSIZE (from_mode),
     496                 :           0 :                                  0).exists (&fromi_mode)
     497                 :           0 :               && int_mode_for_size (GET_MODE_BITSIZE (to_mode),
     498                 :           0 :                                     0).exists (&toi_mode))
     499                 :             :             {
     500                 :           0 :               start_sequence ();
     501                 :           0 :               rtx fromi = force_lowpart_subreg (fromi_mode, from, from_mode);
     502                 :           0 :               rtx tof = NULL_RTX;
     503                 :           0 :               do
     504                 :             :                 {
     505                 :           0 :                   if (!fromi)
     506                 :             :                     break;
     507                 :           0 :                   int shift = (GET_MODE_PRECISION (from_mode)
     508                 :           0 :                                - GET_MODE_PRECISION (to_mode));
     509                 :           0 :                   rtx temp1
     510                 :           0 :                     = maybe_expand_shift (RSHIFT_EXPR, fromi_mode, fromi,
     511                 :             :                                           shift, NULL_RTX, 1);
     512                 :           0 :                   if (!temp1)
     513                 :             :                     break;
     514                 :           0 :                   rtx temp2
     515                 :           0 :                     = expand_binop (fromi_mode, and_optab, temp1, const1_rtx,
     516                 :             :                                     NULL_RTX, 1, OPTAB_DIRECT);
     517                 :           0 :                   if (!temp2)
     518                 :             :                     break;
     519                 :           0 :                   rtx temp3
     520                 :           0 :                     = expand_binop (fromi_mode, add_optab, fromi,
     521                 :           0 :                                     gen_int_mode ((HOST_WIDE_INT_1U
     522                 :           0 :                                                    << (shift - 1)) - 1,
     523                 :             :                                                   fromi_mode), NULL_RTX,
     524                 :             :                                     1, OPTAB_DIRECT);
     525                 :           0 :                   if (!temp3)
     526                 :             :                     break;
     527                 :           0 :                   rtx temp4
     528                 :           0 :                     = expand_binop (fromi_mode, add_optab, temp3, temp2,
     529                 :             :                                     NULL_RTX, 1, OPTAB_DIRECT);
     530                 :           0 :                   if (!temp4)
     531                 :             :                     break;
     532                 :           0 :                   rtx temp5 = maybe_expand_shift (RSHIFT_EXPR, fromi_mode,
     533                 :             :                                                   temp4, shift, NULL_RTX, 1);
     534                 :           0 :                   if (!temp5)
     535                 :             :                     break;
     536                 :           0 :                   rtx temp6 = force_lowpart_subreg (toi_mode, temp5,
     537                 :             :                                                     fromi_mode);
     538                 :           0 :                   if (!temp6)
     539                 :             :                     break;
     540                 :           0 :                   tof = force_lowpart_subreg (to_mode, temp6, toi_mode);
     541                 :           0 :                   if (tof)
     542                 :           0 :                     emit_move_insn (to, tof);
     543                 :             :                 }
     544                 :             :               while (0);
     545                 :           0 :               insns = get_insns ();
     546                 :           0 :               end_sequence ();
     547                 :           0 :               if (tof)
     548                 :             :                 {
     549                 :           0 :                   emit_insn (insns);
     550                 :           0 :                   return;
     551                 :             :                 }
     552                 :             :             }
     553                 :             :         }
     554                 :             : #endif
     555                 :             : 
     556                 :             :       /* Otherwise use a libcall.  */
     557                 :       24255 :       libcall = convert_optab_libfunc (tab, to_mode, from_mode);
     558                 :             : 
     559                 :             :       /* Is this conversion implemented yet?  */
     560                 :       24255 :       gcc_assert (libcall);
     561                 :             : 
     562                 :       24255 :       start_sequence ();
     563                 :       24255 :       value = emit_library_call_value (libcall, NULL_RTX, LCT_CONST, to_mode,
     564                 :             :                                        from, from_mode);
     565                 :       24255 :       insns = get_insns ();
     566                 :       24255 :       end_sequence ();
     567                 :       24255 :       emit_libcall_block (insns, to, value,
     568                 :        7527 :                           tab == trunc_optab ? gen_rtx_FLOAT_TRUNCATE (to_mode,
     569                 :             :                                                                        from)
     570                 :       16728 :                           : gen_rtx_FLOAT_EXTEND (to_mode, from));
     571                 :       24255 :       return;
     572                 :             :     }
     573                 :             : 
     574                 :             :   /* Handle pointer conversion.  */                     /* SPEE 900220.  */
     575                 :             :   /* If the target has a converter from FROM_MODE to TO_MODE, use it.  */
     576                 :     1527352 :   {
     577                 :     1527352 :     convert_optab ctab;
     578                 :             : 
     579                 :     1527352 :     if (GET_MODE_PRECISION (from_mode) > GET_MODE_PRECISION (to_mode))
     580                 :             :       ctab = trunc_optab;
     581                 :     1335125 :     else if (unsignedp)
     582                 :             :       ctab = zext_optab;
     583                 :             :     else
     584                 :      667515 :       ctab = sext_optab;
     585                 :             : 
     586                 :     1527352 :     if (convert_optab_handler (ctab, to_mode, from_mode)
     587                 :             :         != CODE_FOR_nothing)
     588                 :             :       {
     589                 :     1329879 :         emit_unop_insn (convert_optab_handler (ctab, to_mode, from_mode),
     590                 :             :                         to, from, UNKNOWN);
     591                 :     1329879 :         return;
     592                 :             :       }
     593                 :             :   }
     594                 :             : 
     595                 :             :   /* Targets are expected to provide conversion insns between PxImode and
     596                 :             :      xImode for all MODE_PARTIAL_INT modes they use, but no others.  */
     597                 :      197473 :   if (GET_MODE_CLASS (to_mode) == MODE_PARTIAL_INT)
     598                 :             :     {
     599                 :           0 :       scalar_int_mode full_mode
     600                 :           0 :         = smallest_int_mode_for_size (GET_MODE_BITSIZE (to_mode)).require ();
     601                 :             : 
     602                 :           0 :       gcc_assert (convert_optab_handler (trunc_optab, to_mode, full_mode)
     603                 :             :                   != CODE_FOR_nothing);
     604                 :             : 
     605                 :           0 :       if (full_mode != from_mode)
     606                 :           0 :         from = convert_to_mode (full_mode, from, unsignedp);
     607                 :           0 :       emit_unop_insn (convert_optab_handler (trunc_optab, to_mode, full_mode),
     608                 :             :                       to, from, UNKNOWN);
     609                 :           0 :       return;
     610                 :             :     }
     611                 :      197473 :   if (GET_MODE_CLASS (from_mode) == MODE_PARTIAL_INT)
     612                 :             :     {
     613                 :           0 :       rtx new_from;
     614                 :           0 :       scalar_int_mode full_mode
     615                 :           0 :         = smallest_int_mode_for_size (GET_MODE_BITSIZE (from_mode)).require ();
     616                 :           0 :       convert_optab ctab = unsignedp ? zext_optab : sext_optab;
     617                 :           0 :       enum insn_code icode;
     618                 :             : 
     619                 :           0 :       icode = convert_optab_handler (ctab, full_mode, from_mode);
     620                 :           0 :       gcc_assert (icode != CODE_FOR_nothing);
     621                 :             : 
     622                 :           0 :       if (to_mode == full_mode)
     623                 :             :         {
     624                 :           0 :           emit_unop_insn (icode, to, from, UNKNOWN);
     625                 :           0 :           return;
     626                 :             :         }
     627                 :             : 
     628                 :           0 :       new_from = gen_reg_rtx (full_mode);
     629                 :           0 :       emit_unop_insn (icode, new_from, from, UNKNOWN);
     630                 :             : 
     631                 :             :       /* else proceed to integer conversions below.  */
     632                 :           0 :       from_mode = full_mode;
     633                 :           0 :       from = new_from;
     634                 :             :     }
     635                 :             : 
     636                 :             :    /* Make sure both are fixed-point modes or both are not.  */
     637                 :      197473 :    gcc_assert (ALL_SCALAR_FIXED_POINT_MODE_P (from_mode) ==
     638                 :             :                ALL_SCALAR_FIXED_POINT_MODE_P (to_mode));
     639                 :      197473 :    if (ALL_SCALAR_FIXED_POINT_MODE_P (from_mode))
     640                 :             :     {
     641                 :             :       /* If we widen from_mode to to_mode and they are in the same class,
     642                 :             :          we won't saturate the result.
     643                 :             :          Otherwise, always saturate the result to play safe.  */
     644                 :           0 :       if (GET_MODE_CLASS (from_mode) == GET_MODE_CLASS (to_mode)
     645                 :           0 :           && GET_MODE_SIZE (from_mode) < GET_MODE_SIZE (to_mode))
     646                 :           0 :         expand_fixed_convert (to, from, 0, 0);
     647                 :             :       else
     648                 :           0 :         expand_fixed_convert (to, from, 0, 1);
     649                 :           0 :       return;
     650                 :             :     }
     651                 :             : 
     652                 :             :   /* Now both modes are integers.  */
     653                 :             : 
     654                 :             :   /* Handle expanding beyond a word.  */
     655                 :      197473 :   if (GET_MODE_PRECISION (from_mode) < GET_MODE_PRECISION (to_mode)
     656                 :      200177 :       && GET_MODE_PRECISION (to_mode) > BITS_PER_WORD)
     657                 :             :     {
     658                 :        5246 :       rtx_insn *insns;
     659                 :        5246 :       rtx lowpart;
     660                 :        5246 :       rtx fill_value;
     661                 :        5246 :       rtx lowfrom;
     662                 :        5246 :       int i;
     663                 :        5246 :       scalar_mode lowpart_mode;
     664                 :       10492 :       int nwords = CEIL (GET_MODE_SIZE (to_mode), UNITS_PER_WORD);
     665                 :             : 
     666                 :             :       /* Try converting directly if the insn is supported.  */
     667                 :        5246 :       if ((code = can_extend_p (to_mode, from_mode, unsignedp))
     668                 :             :           != CODE_FOR_nothing)
     669                 :             :         {
     670                 :             :           /* If FROM is a SUBREG, put it into a register.  Do this
     671                 :             :              so that we always generate the same set of insns for
     672                 :             :              better cse'ing; if an intermediate assignment occurred,
     673                 :             :              we won't be doing the operation directly on the SUBREG.  */
     674                 :           0 :           if (optimize > 0 && GET_CODE (from) == SUBREG)
     675                 :           0 :             from = force_reg (from_mode, from);
     676                 :           0 :           emit_unop_insn (code, to, from, equiv_code);
     677                 :           0 :           return;
     678                 :             :         }
     679                 :             :       /* Next, try converting via full word.  */
     680                 :        5246 :       else if (GET_MODE_PRECISION (from_mode) < BITS_PER_WORD
     681                 :        5246 :                && ((code = can_extend_p (to_mode, word_mode, unsignedp))
     682                 :             :                    != CODE_FOR_nothing))
     683                 :             :         {
     684                 :        5246 :           rtx word_to = gen_reg_rtx (word_mode);
     685                 :        5246 :           if (REG_P (to))
     686                 :             :             {
     687                 :        5177 :               if (reg_overlap_mentioned_p (to, from))
     688                 :           0 :                 from = force_reg (from_mode, from);
     689                 :        5177 :               emit_clobber (to);
     690                 :             :             }
     691                 :        5246 :           convert_move (word_to, from, unsignedp);
     692                 :        5246 :           emit_unop_insn (code, to, word_to, equiv_code);
     693                 :        5246 :           return;
     694                 :             :         }
     695                 :             : 
     696                 :             :       /* No special multiword conversion insn; do it by hand.  */
     697                 :           0 :       start_sequence ();
     698                 :             : 
     699                 :             :       /* Since we will turn this into a no conflict block, we must ensure
     700                 :             :          the source does not overlap the target so force it into an isolated
     701                 :             :          register when maybe so.  Likewise for any MEM input, since the
     702                 :             :          conversion sequence might require several references to it and we
     703                 :             :          must ensure we're getting the same value every time.  */
     704                 :             : 
     705                 :           0 :       if (MEM_P (from) || reg_overlap_mentioned_p (to, from))
     706                 :           0 :         from = force_reg (from_mode, from);
     707                 :             : 
     708                 :             :       /* Get a copy of FROM widened to a word, if necessary.  */
     709                 :           0 :       if (GET_MODE_PRECISION (from_mode) < BITS_PER_WORD)
     710                 :           0 :         lowpart_mode = word_mode;
     711                 :             :       else
     712                 :             :         lowpart_mode = from_mode;
     713                 :             : 
     714                 :           0 :       lowfrom = convert_to_mode (lowpart_mode, from, unsignedp);
     715                 :             : 
     716                 :           0 :       lowpart = gen_lowpart (lowpart_mode, to);
     717                 :           0 :       emit_move_insn (lowpart, lowfrom);
     718                 :             : 
     719                 :             :       /* Compute the value to put in each remaining word.  */
     720                 :           0 :       if (unsignedp)
     721                 :           0 :         fill_value = const0_rtx;
     722                 :             :       else
     723                 :           0 :         fill_value = emit_store_flag_force (gen_reg_rtx (word_mode),
     724                 :             :                                             LT, lowfrom, const0_rtx,
     725                 :             :                                             lowpart_mode, 0, -1);
     726                 :             : 
     727                 :             :       /* Fill the remaining words.  */
     728                 :           0 :       for (i = GET_MODE_SIZE (lowpart_mode) / UNITS_PER_WORD; i < nwords; i++)
     729                 :             :         {
     730                 :           0 :           int index = (WORDS_BIG_ENDIAN ? nwords - i - 1 : i);
     731                 :           0 :           rtx subword = operand_subword (to, index, 1, to_mode);
     732                 :             : 
     733                 :           0 :           gcc_assert (subword);
     734                 :             : 
     735                 :           0 :           if (fill_value != subword)
     736                 :           0 :             emit_move_insn (subword, fill_value);
     737                 :             :         }
     738                 :             : 
     739                 :           0 :       insns = get_insns ();
     740                 :           0 :       end_sequence ();
     741                 :             : 
     742                 :           0 :       emit_insn (insns);
     743                 :           0 :       return;
     744                 :             :     }
     745                 :             : 
     746                 :             :   /* Truncating multi-word to a word or less.  */
     747                 :      192227 :   if (GET_MODE_PRECISION (from_mode) > BITS_PER_WORD
     748                 :      192227 :       && GET_MODE_PRECISION (to_mode) <= BITS_PER_WORD)
     749                 :             :     {
     750                 :       70392 :       if (!((MEM_P (from)
     751                 :         537 :              && ! MEM_VOLATILE_P (from)
     752                 :         537 :              && direct_load[(int) to_mode]
     753                 :         537 :              && ! mode_dependent_address_p (XEXP (from, 0),
     754                 :         537 :                                             MEM_ADDR_SPACE (from)))
     755                 :       39700 :             || REG_P (from)
     756                 :             :             || GET_CODE (from) == SUBREG))
     757                 :           0 :         from = force_reg (from_mode, from);
     758                 :       40237 :       convert_move (to, gen_lowpart (word_mode, from), 0);
     759                 :       40237 :       return;
     760                 :             :     }
     761                 :             : 
     762                 :             :   /* Now follow all the conversions between integers
     763                 :             :      no more than a word long.  */
     764                 :             : 
     765                 :             :   /* For truncation, usually we can just refer to FROM in a narrower mode.  */
     766                 :      303980 :   if (GET_MODE_BITSIZE (to_mode) < GET_MODE_BITSIZE (from_mode)
     767                 :      151990 :       && TRULY_NOOP_TRUNCATION_MODES_P (to_mode, from_mode))
     768                 :             :     {
     769                 :      164086 :       if (!((MEM_P (from)
     770                 :       12673 :              && ! MEM_VOLATILE_P (from)
     771                 :       12614 :              && direct_load[(int) to_mode]
     772                 :       12614 :              && ! mode_dependent_address_p (XEXP (from, 0),
     773                 :       12614 :                                             MEM_ADDR_SPACE (from)))
     774                 :      139376 :             || REG_P (from)
     775                 :             :             || GET_CODE (from) == SUBREG))
     776                 :         916 :         from = force_reg (from_mode, from);
     777                 :      128196 :       if (REG_P (from) && REGNO (from) < FIRST_PSEUDO_REGISTER
     778                 :      151991 :           && !targetm.hard_regno_mode_ok (REGNO (from), to_mode))
     779                 :           0 :         from = copy_to_reg (from);
     780                 :      151990 :       emit_move_insn (to, gen_lowpart (to_mode, from));
     781                 :      151990 :       return;
     782                 :             :     }
     783                 :             : 
     784                 :             :   /* Handle extension.  */
     785                 :           0 :   if (GET_MODE_PRECISION (to_mode) > GET_MODE_PRECISION (from_mode))
     786                 :             :     {
     787                 :             :       /* Convert directly if that works.  */
     788                 :           0 :       if ((code = can_extend_p (to_mode, from_mode, unsignedp))
     789                 :             :           != CODE_FOR_nothing)
     790                 :             :         {
     791                 :           0 :           emit_unop_insn (code, to, from, equiv_code);
     792                 :           0 :           return;
     793                 :             :         }
     794                 :             :       else
     795                 :             :         {
     796                 :           0 :           rtx tmp;
     797                 :           0 :           int shift_amount;
     798                 :             : 
     799                 :             :           /* Search for a mode to convert via.  */
     800                 :           0 :           opt_scalar_mode intermediate_iter;
     801                 :           0 :           FOR_EACH_MODE_FROM (intermediate_iter, from_mode)
     802                 :             :             {
     803                 :           0 :               scalar_mode intermediate = intermediate_iter.require ();
     804                 :           0 :               if (((can_extend_p (to_mode, intermediate, unsignedp)
     805                 :             :                     != CODE_FOR_nothing)
     806                 :           0 :                    || (GET_MODE_SIZE (to_mode) < GET_MODE_SIZE (intermediate)
     807                 :           0 :                        && TRULY_NOOP_TRUNCATION_MODES_P (to_mode,
     808                 :             :                                                          intermediate)))
     809                 :           0 :                   && (can_extend_p (intermediate, from_mode, unsignedp)
     810                 :             :                       != CODE_FOR_nothing))
     811                 :             :                 {
     812                 :           0 :                   convert_move (to, convert_to_mode (intermediate, from,
     813                 :             :                                                      unsignedp), unsignedp);
     814                 :           0 :                   return;
     815                 :             :                 }
     816                 :             :             }
     817                 :             : 
     818                 :             :           /* No suitable intermediate mode.
     819                 :             :              Generate what we need with shifts.  */
     820                 :           0 :           shift_amount = (GET_MODE_PRECISION (to_mode)
     821                 :           0 :                           - GET_MODE_PRECISION (from_mode));
     822                 :           0 :           from = gen_lowpart (to_mode, force_reg (from_mode, from));
     823                 :           0 :           tmp = expand_shift (LSHIFT_EXPR, to_mode, from, shift_amount,
     824                 :             :                               to, unsignedp);
     825                 :           0 :           tmp = expand_shift (RSHIFT_EXPR, to_mode, tmp, shift_amount,
     826                 :             :                               to, unsignedp);
     827                 :           0 :           if (tmp != to)
     828                 :           0 :             emit_move_insn (to, tmp);
     829                 :           0 :           return;
     830                 :             :         }
     831                 :             :     }
     832                 :             : 
     833                 :             :   /* Support special truncate insns for certain modes.  */
     834                 :           0 :   if (convert_optab_handler (trunc_optab, to_mode,
     835                 :             :                              from_mode) != CODE_FOR_nothing)
     836                 :             :     {
     837                 :           0 :       emit_unop_insn (convert_optab_handler (trunc_optab, to_mode, from_mode),
     838                 :             :                       to, from, UNKNOWN);
     839                 :           0 :       return;
     840                 :             :     }
     841                 :             : 
     842                 :             :   /* Handle truncation of volatile memrefs, and so on;
     843                 :             :      the things that couldn't be truncated directly,
     844                 :             :      and for which there was no special instruction.
     845                 :             : 
     846                 :             :      ??? Code above formerly short-circuited this, for most integer
     847                 :             :      mode pairs, with a force_reg in from_mode followed by a recursive
     848                 :             :      call to this routine.  Appears always to have been wrong.  */
     849                 :           0 :   if (GET_MODE_PRECISION (to_mode) < GET_MODE_PRECISION (from_mode))
     850                 :             :     {
     851                 :           0 :       rtx temp = force_reg (to_mode, gen_lowpart (to_mode, from));
     852                 :           0 :       emit_move_insn (to, temp);
     853                 :           0 :       return;
     854                 :             :     }
     855                 :             : 
     856                 :             :   /* Mode combination is not recognized.  */
     857                 :           0 :   gcc_unreachable ();
     858                 :             : }
     859                 :             : 
     860                 :             : /* Return an rtx for a value that would result
     861                 :             :    from converting X to mode MODE.
     862                 :             :    Both X and MODE may be floating, or both integer.
     863                 :             :    UNSIGNEDP is nonzero if X is an unsigned value.
     864                 :             :    This can be done by referring to a part of X in place
     865                 :             :    or by copying to a new temporary with conversion.  */
     866                 :             : 
     867                 :             : rtx
     868                 :     1763320 : convert_to_mode (machine_mode mode, rtx x, int unsignedp)
     869                 :             : {
     870                 :     1763320 :   return convert_modes (mode, VOIDmode, x, unsignedp);
     871                 :             : }
     872                 :             : 
     873                 :             : /* Return an rtx for a value that would result
     874                 :             :    from converting X from mode OLDMODE to mode MODE.
     875                 :             :    Both modes may be floating, or both integer.
     876                 :             :    UNSIGNEDP is nonzero if X is an unsigned value.
     877                 :             : 
     878                 :             :    This can be done by referring to a part of X in place
     879                 :             :    or by copying to a new temporary with conversion.
     880                 :             : 
     881                 :             :    You can give VOIDmode for OLDMODE, if you are sure X has a nonvoid mode.  */
     882                 :             : 
     883                 :             : rtx
     884                 :     4111275 : convert_modes (machine_mode mode, machine_mode oldmode, rtx x, int unsignedp)
     885                 :             : {
     886                 :     4111275 :   rtx temp;
     887                 :     4111275 :   scalar_int_mode int_mode;
     888                 :             : 
     889                 :             :   /* If FROM is a SUBREG that indicates that we have already done at least
     890                 :             :      the required extension, strip it.  */
     891                 :             : 
     892                 :     4111275 :   if (GET_CODE (x) == SUBREG
     893                 :       74225 :       && SUBREG_PROMOTED_VAR_P (x)
     894                 :     4111275 :       && is_a <scalar_int_mode> (mode, &int_mode)
     895                 :     4111275 :       && (GET_MODE_PRECISION (subreg_promoted_mode (x))
     896                 :           3 :           >= GET_MODE_PRECISION (int_mode))
     897                 :     4111278 :       && SUBREG_CHECK_PROMOTED_SIGN (x, unsignedp))
     898                 :             :     {
     899                 :           3 :       scalar_int_mode int_orig_mode;
     900                 :           3 :       scalar_int_mode int_inner_mode;
     901                 :           3 :       machine_mode orig_mode = GET_MODE (x);
     902                 :           3 :       x = gen_lowpart (int_mode, SUBREG_REG (x));
     903                 :             : 
     904                 :             :       /* Preserve SUBREG_PROMOTED_VAR_P if the new mode is wider than
     905                 :             :          the original mode, but narrower than the inner mode.  */
     906                 :           3 :       if (GET_CODE (x) == SUBREG
     907                 :           0 :           && is_a <scalar_int_mode> (orig_mode, &int_orig_mode)
     908                 :           0 :           && GET_MODE_PRECISION (int_mode)
     909                 :           0 :              > GET_MODE_PRECISION (int_orig_mode)
     910                 :           0 :           && is_a <scalar_int_mode> (GET_MODE (SUBREG_REG (x)),
     911                 :             :                                      &int_inner_mode)
     912                 :           3 :           && GET_MODE_PRECISION (int_inner_mode)
     913                 :           0 :              > GET_MODE_PRECISION (int_mode))
     914                 :             :         {
     915                 :           0 :           SUBREG_PROMOTED_VAR_P (x) = 1;
     916                 :           0 :           SUBREG_PROMOTED_SET (x, unsignedp);
     917                 :             :         }
     918                 :             :     }
     919                 :             : 
     920                 :     4111275 :   if (GET_MODE (x) != VOIDmode)
     921                 :     2215415 :     oldmode = GET_MODE (x);
     922                 :             : 
     923                 :     4111275 :   if (mode == oldmode)
     924                 :             :     return x;
     925                 :             : 
     926                 :     3129060 :   if (CONST_SCALAR_INT_P (x)
     927                 :     3129060 :       && is_a <scalar_int_mode> (mode, &int_mode))
     928                 :             :     {
     929                 :             :       /* If the caller did not tell us the old mode, then there is not
     930                 :             :          much to do with respect to canonicalization.  We have to
     931                 :             :          assume that all the bits are significant.  */
     932                 :     1589345 :       if (!is_a <scalar_int_mode> (oldmode))
     933                 :     1524197 :         oldmode = MAX_MODE_INT;
     934                 :     1589345 :       wide_int w = wide_int::from (rtx_mode_t (x, oldmode),
     935                 :     1589345 :                                    GET_MODE_PRECISION (int_mode),
     936                 :     2156034 :                                    unsignedp ? UNSIGNED : SIGNED);
     937                 :     1589345 :       return immed_wide_int_const (w, int_mode);
     938                 :     1589345 :     }
     939                 :             : 
     940                 :             :   /* We can do this with a gen_lowpart if both desired and current modes
     941                 :             :      are integer, and this is either a constant integer, a register, or a
     942                 :             :      non-volatile MEM. */
     943                 :     1539715 :   scalar_int_mode int_oldmode;
     944                 :     1539715 :   if (is_int_mode (mode, &int_mode)
     945                 :     1447885 :       && is_int_mode (oldmode, &int_oldmode)
     946                 :     1447885 :       && GET_MODE_PRECISION (int_mode) <= GET_MODE_PRECISION (int_oldmode)
     947                 :      535292 :       && ((MEM_P (x) && !MEM_VOLATILE_P (x) && direct_load[(int) int_mode])
     948                 :       10409 :           || CONST_POLY_INT_P (x)
     949                 :      524883 :           || (REG_P (x)
     950                 :      488504 :               && (!HARD_REGISTER_P (x)
     951                 :        1027 :                   || targetm.hard_regno_mode_ok (REGNO (x), int_mode))
     952                 :      488504 :               && TRULY_NOOP_TRUNCATION_MODES_P (int_mode, GET_MODE (x)))))
     953                 :      498913 :    return gen_lowpart (int_mode, x);
     954                 :             : 
     955                 :             :   /* Converting from integer constant into mode is always equivalent to an
     956                 :             :      subreg operation.  */
     957                 :     1040802 :   if (VECTOR_MODE_P (mode) && GET_MODE (x) == VOIDmode)
     958                 :             :     {
     959                 :           0 :       gcc_assert (known_eq (GET_MODE_BITSIZE (mode),
     960                 :             :                             GET_MODE_BITSIZE (oldmode)));
     961                 :           0 :       return force_subreg (mode, x, oldmode, 0);
     962                 :             :     }
     963                 :             : 
     964                 :     1040802 :   temp = gen_reg_rtx (mode);
     965                 :     1040802 :   convert_move (temp, x, unsignedp);
     966                 :     1040802 :   return temp;
     967                 :             : }
     968                 :             : 
     969                 :             : /* Variant of convert_modes for ABI parameter passing/return.
     970                 :             :    Return an rtx for a value that would result from converting X from
     971                 :             :    a floating point mode FMODE to wider integer mode MODE.  */
     972                 :             : 
     973                 :             : rtx
     974                 :           0 : convert_float_to_wider_int (machine_mode mode, machine_mode fmode, rtx x)
     975                 :             : {
     976                 :           0 :   gcc_assert (SCALAR_INT_MODE_P (mode) && SCALAR_FLOAT_MODE_P (fmode));
     977                 :           0 :   scalar_int_mode tmp_mode = int_mode_for_mode (fmode).require ();
     978                 :           0 :   rtx tmp = force_reg (tmp_mode, gen_lowpart (tmp_mode, x));
     979                 :           0 :   return convert_modes (mode, tmp_mode, tmp, 1);
     980                 :             : }
     981                 :             : 
     982                 :             : /* Variant of convert_modes for ABI parameter passing/return.
     983                 :             :    Return an rtx for a value that would result from converting X from
     984                 :             :    an integer mode IMODE to a narrower floating point mode MODE.  */
     985                 :             : 
     986                 :             : rtx
     987                 :           0 : convert_wider_int_to_float (machine_mode mode, machine_mode imode, rtx x)
     988                 :             : {
     989                 :           0 :   gcc_assert (SCALAR_FLOAT_MODE_P (mode) && SCALAR_INT_MODE_P (imode));
     990                 :           0 :   scalar_int_mode tmp_mode = int_mode_for_mode (mode).require ();
     991                 :           0 :   rtx tmp = force_reg (tmp_mode, gen_lowpart (tmp_mode, x));
     992                 :           0 :   return gen_lowpart_SUBREG (mode, tmp);
     993                 :             : }
     994                 :             : 
     995                 :             : /* Return the largest alignment we can use for doing a move (or store)
     996                 :             :    of MAX_PIECES.  ALIGN is the largest alignment we could use.  */
     997                 :             : 
     998                 :             : static unsigned int
     999                 :     2481673 : alignment_for_piecewise_move (unsigned int max_pieces, unsigned int align)
    1000                 :             : {
    1001                 :     2481673 :   scalar_int_mode tmode
    1002                 :     2481673 :     = int_mode_for_size (max_pieces * BITS_PER_UNIT, 0).require ();
    1003                 :             : 
    1004                 :     2481673 :   if (align >= GET_MODE_ALIGNMENT (tmode))
    1005                 :     1935575 :     align = GET_MODE_ALIGNMENT (tmode);
    1006                 :             :   else
    1007                 :             :     {
    1008                 :      546098 :       scalar_int_mode xmode = NARROWEST_INT_MODE;
    1009                 :      546098 :       opt_scalar_int_mode mode_iter;
    1010                 :     3285532 :       FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
    1011                 :             :         {
    1012                 :     3281363 :           tmode = mode_iter.require ();
    1013                 :     3281363 :           if (GET_MODE_SIZE (tmode) > max_pieces
    1014                 :     3281363 :               || targetm.slow_unaligned_access (tmode, align))
    1015                 :             :             break;
    1016                 :     2739434 :           xmode = tmode;
    1017                 :             :         }
    1018                 :             : 
    1019                 :      546098 :       align = MAX (align, GET_MODE_ALIGNMENT (xmode));
    1020                 :             :     }
    1021                 :             : 
    1022                 :     2481673 :   return align;
    1023                 :             : }
    1024                 :             : 
    1025                 :             : /* Return true if we know how to implement OP using vectors of bytes.  */
    1026                 :             : static bool
    1027                 :     5298829 : can_use_qi_vectors (by_pieces_operation op)
    1028                 :             : {
    1029                 :     5298829 :   return (op == COMPARE_BY_PIECES
    1030                 :     5298829 :           || op == SET_BY_PIECES
    1031                 :     5298829 :           || op == CLEAR_BY_PIECES);
    1032                 :             : }
    1033                 :             : 
    1034                 :             : /* Return true if optabs exists for the mode and certain by pieces
    1035                 :             :    operations.  */
    1036                 :             : static bool
    1037                 :    24671768 : by_pieces_mode_supported_p (fixed_size_mode mode, by_pieces_operation op)
    1038                 :             : {
    1039                 :    24671768 :   if (optab_handler (mov_optab, mode) == CODE_FOR_nothing)
    1040                 :             :     return false;
    1041                 :             : 
    1042                 :    23837497 :   if ((op == SET_BY_PIECES || op == CLEAR_BY_PIECES)
    1043                 :     1294594 :       && VECTOR_MODE_P (mode)
    1044                 :    24978011 :       && optab_handler (vec_duplicate_optab, mode) == CODE_FOR_nothing)
    1045                 :             :     return false;
    1046                 :             : 
    1047                 :    22982332 :   if (op == COMPARE_BY_PIECES
    1048                 :    22982332 :       && !can_compare_p (EQ, mode, ccp_jump))
    1049                 :             :     return false;
    1050                 :             : 
    1051                 :             :   return true;
    1052                 :             : }
    1053                 :             : 
    1054                 :             : /* Return the widest mode that can be used to perform part of an
    1055                 :             :    operation OP on SIZE bytes.  Try to use QI vector modes where
    1056                 :             :    possible.  */
    1057                 :             : static fixed_size_mode
    1058                 :     4827374 : widest_fixed_size_mode_for_size (unsigned int size, by_pieces_operation op)
    1059                 :             : {
    1060                 :     4827374 :   fixed_size_mode result = NARROWEST_INT_MODE;
    1061                 :             : 
    1062                 :     4827374 :   gcc_checking_assert (size > 1);
    1063                 :             : 
    1064                 :             :   /* Use QI vector only if size is wider than a WORD.  */
    1065                 :     4890880 :   if (can_use_qi_vectors (op) && size > UNITS_PER_WORD)
    1066                 :             :     {
    1067                 :      414928 :       machine_mode mode;
    1068                 :      414928 :       fixed_size_mode candidate;
    1069                 :     7000224 :       FOR_EACH_MODE_IN_CLASS (mode, MODE_VECTOR_INT)
    1070                 :     7000224 :         if (is_a<fixed_size_mode> (mode, &candidate)
    1071                 :    14000448 :             && GET_MODE_INNER (candidate) == QImode)
    1072                 :             :           {
    1073                 :     5777314 :             if (GET_MODE_SIZE (candidate) >= size)
    1074                 :             :               break;
    1075                 :     2473729 :             if (by_pieces_mode_supported_p (candidate, op))
    1076                 :     6585296 :               result = candidate;
    1077                 :             :           }
    1078                 :             : 
    1079                 :      414928 :       if (result != NARROWEST_INT_MODE)
    1080                 :      273442 :         return result;
    1081                 :             :     }
    1082                 :             : 
    1083                 :     4553932 :   opt_scalar_int_mode tmode;
    1084                 :     4553932 :   scalar_int_mode mode;
    1085                 :    36431456 :   FOR_EACH_MODE_IN_CLASS (tmode, MODE_INT)
    1086                 :             :     {
    1087                 :    31877524 :       mode = tmode.require ();
    1088                 :    31877524 :       if (GET_MODE_SIZE (mode) < size
    1089                 :    31877524 :           && by_pieces_mode_supported_p (mode, op))
    1090                 :    22161160 :       result = mode;
    1091                 :             :     }
    1092                 :             : 
    1093                 :     4553932 :   return result;
    1094                 :             : }
    1095                 :             : 
    1096                 :             : /* Determine whether an operation OP on LEN bytes with alignment ALIGN can
    1097                 :             :    and should be performed piecewise.  */
    1098                 :             : 
    1099                 :             : static bool
    1100                 :      908673 : can_do_by_pieces (unsigned HOST_WIDE_INT len, unsigned int align,
    1101                 :             :                   enum by_pieces_operation op)
    1102                 :             : {
    1103                 :      908673 :   return targetm.use_by_pieces_infrastructure_p (len, align, op,
    1104                 :      908673 :                                                  optimize_insn_for_speed_p ());
    1105                 :             : }
    1106                 :             : 
    1107                 :             : /* Determine whether the LEN bytes can be moved by using several move
    1108                 :             :    instructions.  Return nonzero if a call to move_by_pieces should
    1109                 :             :    succeed.  */
    1110                 :             : 
    1111                 :             : bool
    1112                 :      872102 : can_move_by_pieces (unsigned HOST_WIDE_INT len, unsigned int align)
    1113                 :             : {
    1114                 :      872102 :   return can_do_by_pieces (len, align, MOVE_BY_PIECES);
    1115                 :             : }
    1116                 :             : 
    1117                 :             : /* Return number of insns required to perform operation OP by pieces
    1118                 :             :    for L bytes.  ALIGN (in bits) is maximum alignment we can assume.  */
    1119                 :             : 
    1120                 :             : unsigned HOST_WIDE_INT
    1121                 :     1756735 : by_pieces_ninsns (unsigned HOST_WIDE_INT l, unsigned int align,
    1122                 :             :                   unsigned int max_size, by_pieces_operation op)
    1123                 :             : {
    1124                 :     1756735 :   unsigned HOST_WIDE_INT n_insns = 0;
    1125                 :     1756735 :   fixed_size_mode mode;
    1126                 :             : 
    1127                 :     1756735 :   if (targetm.overlap_op_by_pieces_p ())
    1128                 :             :     {
    1129                 :             :       /* NB: Round up L and ALIGN to the widest integer mode for
    1130                 :             :          MAX_SIZE.  */
    1131                 :     1756735 :       mode = widest_fixed_size_mode_for_size (max_size, op);
    1132                 :     1756735 :       gcc_assert (optab_handler (mov_optab, mode) != CODE_FOR_nothing);
    1133                 :     3513470 :       unsigned HOST_WIDE_INT up = ROUND_UP (l, GET_MODE_SIZE (mode));
    1134                 :     1756735 :       if (up > l)
    1135                 :             :         l = up;
    1136                 :     1756735 :       align = GET_MODE_ALIGNMENT (mode);
    1137                 :             :     }
    1138                 :             : 
    1139                 :     1756735 :   align = alignment_for_piecewise_move (MOVE_MAX_PIECES, align);
    1140                 :             : 
    1141                 :     5286578 :   while (max_size > 1 && l > 0)
    1142                 :             :     {
    1143                 :     1773108 :       mode = widest_fixed_size_mode_for_size (max_size, op);
    1144                 :     1773108 :       gcc_assert (optab_handler (mov_optab, mode) != CODE_FOR_nothing);
    1145                 :             : 
    1146                 :     1773108 :       unsigned int modesize = GET_MODE_SIZE (mode);
    1147                 :             : 
    1148                 :     1773108 :       if (align >= GET_MODE_ALIGNMENT (mode))
    1149                 :             :         {
    1150                 :     1773108 :           unsigned HOST_WIDE_INT n_pieces = l / modesize;
    1151                 :     1773108 :           l %= modesize;
    1152                 :     1773108 :           switch (op)
    1153                 :             :             {
    1154                 :     1736537 :             default:
    1155                 :     1736537 :               n_insns += n_pieces;
    1156                 :     1736537 :               break;
    1157                 :             : 
    1158                 :       36571 :             case COMPARE_BY_PIECES:
    1159                 :       36571 :               int batch = targetm.compare_by_pieces_branch_ratio (mode);
    1160                 :       36571 :               int batch_ops = 4 * batch - 1;
    1161                 :       36571 :               unsigned HOST_WIDE_INT full = n_pieces / batch;
    1162                 :       36571 :               n_insns += full * batch_ops;
    1163                 :       36571 :               if (n_pieces % batch != 0)
    1164                 :           0 :                 n_insns++;
    1165                 :             :               break;
    1166                 :             : 
    1167                 :             :             }
    1168                 :             :         }
    1169                 :             :       max_size = modesize;
    1170                 :             :     }
    1171                 :             : 
    1172                 :     1756735 :   gcc_assert (!l);
    1173                 :     1756735 :   return n_insns;
    1174                 :             : }
    1175                 :             : 
    1176                 :             : /* Used when performing piecewise block operations, holds information
    1177                 :             :    about one of the memory objects involved.  The member functions
    1178                 :             :    can be used to generate code for loading from the object and
    1179                 :             :    updating the address when iterating.  */
    1180                 :             : 
    1181                 :             : class pieces_addr
    1182                 :             : {
    1183                 :             :   /* The object being referenced, a MEM.  Can be NULL_RTX to indicate
    1184                 :             :      stack pushes.  */
    1185                 :             :   rtx m_obj;
    1186                 :             :   /* The address of the object.  Can differ from that seen in the
    1187                 :             :      MEM rtx if we copied the address to a register.  */
    1188                 :             :   rtx m_addr;
    1189                 :             :   /* Nonzero if the address on the object has an autoincrement already,
    1190                 :             :      signifies whether that was an increment or decrement.  */
    1191                 :             :   signed char m_addr_inc;
    1192                 :             :   /* Nonzero if we intend to use autoinc without the address already
    1193                 :             :      having autoinc form.  We will insert add insns around each memory
    1194                 :             :      reference, expecting later passes to form autoinc addressing modes.
    1195                 :             :      The only supported options are predecrement and postincrement.  */
    1196                 :             :   signed char m_explicit_inc;
    1197                 :             :   /* True if we have either of the two possible cases of using
    1198                 :             :      autoincrement.  */
    1199                 :             :   bool m_auto;
    1200                 :             :   /* True if this is an address to be used for load operations rather
    1201                 :             :      than stores.  */
    1202                 :             :   bool m_is_load;
    1203                 :             : 
    1204                 :             :   /* Optionally, a function to obtain constants for any given offset into
    1205                 :             :      the objects, and data associated with it.  */
    1206                 :             :   by_pieces_constfn m_constfn;
    1207                 :             :   void *m_cfndata;
    1208                 :             : public:
    1209                 :             :   pieces_addr (rtx, bool, by_pieces_constfn, void *);
    1210                 :             :   rtx adjust (fixed_size_mode, HOST_WIDE_INT, by_pieces_prev * = nullptr);
    1211                 :             :   void increment_address (HOST_WIDE_INT);
    1212                 :             :   void maybe_predec (HOST_WIDE_INT);
    1213                 :             :   void maybe_postinc (HOST_WIDE_INT);
    1214                 :             :   void decide_autoinc (machine_mode, bool, HOST_WIDE_INT);
    1215                 :      678456 :   int get_addr_inc ()
    1216                 :             :   {
    1217                 :      678456 :     return m_addr_inc;
    1218                 :             :   }
    1219                 :             : };
    1220                 :             : 
    1221                 :             : /* Initialize a pieces_addr structure from an object OBJ.  IS_LOAD is
    1222                 :             :    true if the operation to be performed on this object is a load
    1223                 :             :    rather than a store.  For stores, OBJ can be NULL, in which case we
    1224                 :             :    assume the operation is a stack push.  For loads, the optional
    1225                 :             :    CONSTFN and its associated CFNDATA can be used in place of the
    1226                 :             :    memory load.  */
    1227                 :             : 
    1228                 :     1356912 : pieces_addr::pieces_addr (rtx obj, bool is_load, by_pieces_constfn constfn,
    1229                 :     1356912 :                           void *cfndata)
    1230                 :     1356912 :   : m_obj (obj), m_is_load (is_load), m_constfn (constfn), m_cfndata (cfndata)
    1231                 :             : {
    1232                 :     1356912 :   m_addr_inc = 0;
    1233                 :     1356912 :   m_auto = false;
    1234                 :     1356912 :   if (obj)
    1235                 :             :     {
    1236                 :     1268255 :       rtx addr = XEXP (obj, 0);
    1237                 :     1268255 :       rtx_code code = GET_CODE (addr);
    1238                 :     1268255 :       m_addr = addr;
    1239                 :     1268255 :       bool dec = code == PRE_DEC || code == POST_DEC;
    1240                 :     1268255 :       bool inc = code == PRE_INC || code == POST_INC;
    1241                 :     1268255 :       m_auto = inc || dec;
    1242                 :     1268255 :       if (m_auto)
    1243                 :           0 :         m_addr_inc = dec ? -1 : 1;
    1244                 :             : 
    1245                 :             :       /* While we have always looked for these codes here, the code
    1246                 :             :          implementing the memory operation has never handled them.
    1247                 :             :          Support could be added later if necessary or beneficial.  */
    1248                 :     1268255 :       gcc_assert (code != PRE_INC && code != POST_DEC);
    1249                 :             :     }
    1250                 :             :   else
    1251                 :             :     {
    1252                 :       88657 :       m_addr = NULL_RTX;
    1253                 :       88657 :       if (!is_load)
    1254                 :             :         {
    1255                 :          45 :           m_auto = true;
    1256                 :          45 :           if (STACK_GROWS_DOWNWARD)
    1257                 :          45 :             m_addr_inc = -1;
    1258                 :             :           else
    1259                 :             :             m_addr_inc = 1;
    1260                 :             :         }
    1261                 :             :       else
    1262                 :       88612 :         gcc_assert (constfn != NULL);
    1263                 :             :     }
    1264                 :     1356912 :   m_explicit_inc = 0;
    1265                 :     1356912 :   if (constfn)
    1266                 :      110459 :     gcc_assert (is_load);
    1267                 :     1356912 : }
    1268                 :             : 
    1269                 :             : /* Decide whether to use autoinc for an address involved in a memory op.
    1270                 :             :    MODE is the mode of the accesses, REVERSE is true if we've decided to
    1271                 :             :    perform the operation starting from the end, and LEN is the length of
    1272                 :             :    the operation.  Don't override an earlier decision to set m_auto.  */
    1273                 :             : 
    1274                 :             : void
    1275                 :      359596 : pieces_addr::decide_autoinc (machine_mode ARG_UNUSED (mode), bool reverse,
    1276                 :             :                              HOST_WIDE_INT len)
    1277                 :             : {
    1278                 :      359596 :   if (m_auto || m_obj == NULL_RTX)
    1279                 :             :     return;
    1280                 :             : 
    1281                 :      337191 :   bool use_predec = (m_is_load
    1282                 :             :                      ? USE_LOAD_PRE_DECREMENT (mode)
    1283                 :             :                      : USE_STORE_PRE_DECREMENT (mode));
    1284                 :      337191 :   bool use_postinc = (m_is_load
    1285                 :             :                       ? USE_LOAD_POST_INCREMENT (mode)
    1286                 :             :                       : USE_STORE_POST_INCREMENT (mode));
    1287                 :      337191 :   machine_mode addr_mode = get_address_mode (m_obj);
    1288                 :             : 
    1289                 :      337191 :   if (use_predec && reverse)
    1290                 :             :     {
    1291                 :             :       m_addr = copy_to_mode_reg (addr_mode,
    1292                 :             :                                  plus_constant (addr_mode,
    1293                 :             :                                                 m_addr, len));
    1294                 :             :       m_auto = true;
    1295                 :             :       m_explicit_inc = -1;
    1296                 :             :     }
    1297                 :      337191 :   else if (use_postinc && !reverse)
    1298                 :             :     {
    1299                 :             :       m_addr = copy_to_mode_reg (addr_mode, m_addr);
    1300                 :             :       m_auto = true;
    1301                 :             :       m_explicit_inc = 1;
    1302                 :             :     }
    1303                 :      337191 :   else if (CONSTANT_P (m_addr))
    1304                 :       70552 :     m_addr = copy_to_mode_reg (addr_mode, m_addr);
    1305                 :             : }
    1306                 :             : 
    1307                 :             : /* Adjust the address to refer to the data at OFFSET in MODE.  If we
    1308                 :             :    are using autoincrement for this address, we don't add the offset,
    1309                 :             :    but we still modify the MEM's properties.  */
    1310                 :             : 
    1311                 :             : rtx
    1312                 :     3838526 : pieces_addr::adjust (fixed_size_mode mode, HOST_WIDE_INT offset,
    1313                 :             :                      by_pieces_prev *prev)
    1314                 :             : {
    1315                 :     3838526 :   if (m_constfn)
    1316                 :             :     /* Pass the previous data to m_constfn.  */
    1317                 :      261047 :     return m_constfn (m_cfndata, prev, offset, mode);
    1318                 :     3577479 :   if (m_obj == NULL_RTX)
    1319                 :             :     return NULL_RTX;
    1320                 :     3577432 :   if (m_auto)
    1321                 :           0 :     return adjust_automodify_address (m_obj, mode, m_addr, offset);
    1322                 :             :   else
    1323                 :     3577432 :     return adjust_address (m_obj, mode, offset);
    1324                 :             : }
    1325                 :             : 
    1326                 :             : /* Emit an add instruction to increment the address by SIZE.  */
    1327                 :             : 
    1328                 :             : void
    1329                 :           0 : pieces_addr::increment_address (HOST_WIDE_INT size)
    1330                 :             : {
    1331                 :           0 :   rtx amount = gen_int_mode (size, GET_MODE (m_addr));
    1332                 :           0 :   emit_insn (gen_add2_insn (m_addr, amount));
    1333                 :           0 : }
    1334                 :             : 
    1335                 :             : /* If we are supposed to decrement the address after each access, emit code
    1336                 :             :    to do so now.  Increment by SIZE (which has should have the correct sign
    1337                 :             :    already).  */
    1338                 :             : 
    1339                 :             : void
    1340                 :     3837990 : pieces_addr::maybe_predec (HOST_WIDE_INT size)
    1341                 :             : {
    1342                 :     3837990 :   if (m_explicit_inc >= 0)
    1343                 :     3837990 :     return;
    1344                 :           0 :   gcc_assert (HAVE_PRE_DECREMENT);
    1345                 :             :   increment_address (size);
    1346                 :             : }
    1347                 :             : 
    1348                 :             : /* If we are supposed to decrement the address after each access, emit code
    1349                 :             :    to do so now.  Increment by SIZE.  */
    1350                 :             : 
    1351                 :             : void
    1352                 :     3838013 : pieces_addr::maybe_postinc (HOST_WIDE_INT size)
    1353                 :             : {
    1354                 :     3838013 :   if (m_explicit_inc <= 0)
    1355                 :     3838013 :     return;
    1356                 :           0 :   gcc_assert (HAVE_POST_INCREMENT);
    1357                 :             :   increment_address (size);
    1358                 :             : }
    1359                 :             : 
    1360                 :             : /* This structure is used by do_op_by_pieces to describe the operation
    1361                 :             :    to be performed.  */
    1362                 :             : 
    1363                 :             : class op_by_pieces_d
    1364                 :             : {
    1365                 :             :  private:
    1366                 :             :   fixed_size_mode get_usable_mode (fixed_size_mode, unsigned int);
    1367                 :             :   fixed_size_mode smallest_fixed_size_mode_for_size (unsigned int);
    1368                 :             : 
    1369                 :             :  protected:
    1370                 :             :   pieces_addr m_to, m_from;
    1371                 :             :   /* Make m_len read-only so that smallest_fixed_size_mode_for_size can
    1372                 :             :      use it to check the valid mode size.  */
    1373                 :             :   const unsigned HOST_WIDE_INT m_len;
    1374                 :             :   HOST_WIDE_INT m_offset;
    1375                 :             :   unsigned int m_align;
    1376                 :             :   unsigned int m_max_size;
    1377                 :             :   bool m_reverse;
    1378                 :             :   /* True if this is a stack push.  */
    1379                 :             :   bool m_push;
    1380                 :             :   /* True if targetm.overlap_op_by_pieces_p () returns true.  */
    1381                 :             :   bool m_overlap_op_by_pieces;
    1382                 :             :   /* The type of operation that we're performing.  */
    1383                 :             :   by_pieces_operation m_op;
    1384                 :             : 
    1385                 :             :   /* Virtual functions, overriden by derived classes for the specific
    1386                 :             :      operation.  */
    1387                 :             :   virtual void generate (rtx, rtx, machine_mode) = 0;
    1388                 :             :   virtual bool prepare_mode (machine_mode, unsigned int) = 0;
    1389                 :     1089725 :   virtual void finish_mode (machine_mode)
    1390                 :             :   {
    1391                 :     1089725 :   }
    1392                 :             : 
    1393                 :             :  public:
    1394                 :             :   op_by_pieces_d (unsigned int, rtx, bool, rtx, bool, by_pieces_constfn,
    1395                 :             :                   void *, unsigned HOST_WIDE_INT, unsigned int, bool,
    1396                 :             :                   by_pieces_operation);
    1397                 :             :   void run ();
    1398                 :             : };
    1399                 :             : 
    1400                 :             : /* The constructor for an op_by_pieces_d structure.  We require two
    1401                 :             :    objects named TO and FROM, which are identified as loads or stores
    1402                 :             :    by TO_LOAD and FROM_LOAD.  If FROM is a load, the optional FROM_CFN
    1403                 :             :    and its associated FROM_CFN_DATA can be used to replace loads with
    1404                 :             :    constant values.  MAX_PIECES describes the maximum number of bytes
    1405                 :             :    at a time which can be moved efficiently.  LEN describes the length
    1406                 :             :    of the operation.  */
    1407                 :             : 
    1408                 :      678456 : op_by_pieces_d::op_by_pieces_d (unsigned int max_pieces, rtx to,
    1409                 :             :                                 bool to_load, rtx from, bool from_load,
    1410                 :             :                                 by_pieces_constfn from_cfn,
    1411                 :             :                                 void *from_cfn_data,
    1412                 :             :                                 unsigned HOST_WIDE_INT len,
    1413                 :             :                                 unsigned int align, bool push,
    1414                 :      678456 :                                 by_pieces_operation op)
    1415                 :      678456 :   : m_to (to, to_load, NULL, NULL),
    1416                 :      678456 :     m_from (from, from_load, from_cfn, from_cfn_data),
    1417                 :      678456 :     m_len (len), m_max_size (max_pieces + 1),
    1418                 :      678456 :     m_push (push), m_op (op)
    1419                 :             : {
    1420                 :      678456 :   int toi = m_to.get_addr_inc ();
    1421                 :      678456 :   int fromi = m_from.get_addr_inc ();
    1422                 :      678456 :   if (toi >= 0 && fromi >= 0)
    1423                 :      678411 :     m_reverse = false;
    1424                 :          45 :   else if (toi <= 0 && fromi <= 0)
    1425                 :          45 :     m_reverse = true;
    1426                 :             :   else
    1427                 :           0 :     gcc_unreachable ();
    1428                 :             : 
    1429                 :      678456 :   m_offset = m_reverse ? len : 0;
    1430                 :     2536561 :   align = MIN (to ? MEM_ALIGN (to) : align,
    1431                 :             :                from ? MEM_ALIGN (from) : align);
    1432                 :             : 
    1433                 :             :   /* If copying requires more than two move insns,
    1434                 :             :      copy addresses to registers (to make displacements shorter)
    1435                 :             :      and use post-increment if available.  */
    1436                 :      678456 :   if (by_pieces_ninsns (len, align, m_max_size, MOVE_BY_PIECES) > 2)
    1437                 :             :     {
    1438                 :             :       /* Find the mode of the largest comparison.  */
    1439                 :      179798 :       fixed_size_mode mode
    1440                 :      179798 :         = widest_fixed_size_mode_for_size (m_max_size, m_op);
    1441                 :             : 
    1442                 :      179798 :       m_from.decide_autoinc (mode, m_reverse, len);
    1443                 :      179798 :       m_to.decide_autoinc (mode, m_reverse, len);
    1444                 :             :     }
    1445                 :             : 
    1446                 :      678456 :   align = alignment_for_piecewise_move (MOVE_MAX_PIECES, align);
    1447                 :      678456 :   m_align = align;
    1448                 :             : 
    1449                 :      678456 :   m_overlap_op_by_pieces = targetm.overlap_op_by_pieces_p ();
    1450                 :      678456 : }
    1451                 :             : 
    1452                 :             : /* This function returns the largest usable integer mode for LEN bytes
    1453                 :             :    whose size is no bigger than size of MODE.  */
    1454                 :             : 
    1455                 :             : fixed_size_mode
    1456                 :     1149911 : op_by_pieces_d::get_usable_mode (fixed_size_mode mode, unsigned int len)
    1457                 :             : {
    1458                 :     1413575 :   unsigned int size;
    1459                 :     1677239 :   do
    1460                 :             :     {
    1461                 :     1413575 :       size = GET_MODE_SIZE (mode);
    1462                 :     1413575 :       if (len >= size && prepare_mode (mode, m_align))
    1463                 :             :         break;
    1464                 :             :       /* widest_fixed_size_mode_for_size checks SIZE > 1.  */
    1465                 :      263664 :       mode = widest_fixed_size_mode_for_size (size, m_op);
    1466                 :             :     }
    1467                 :             :   while (1);
    1468                 :     1149911 :   return mode;
    1469                 :             : }
    1470                 :             : 
    1471                 :             : /* Return the smallest integer or QI vector mode that is not narrower
    1472                 :             :    than SIZE bytes.  */
    1473                 :             : 
    1474                 :             : fixed_size_mode
    1475                 :      471455 : op_by_pieces_d::smallest_fixed_size_mode_for_size (unsigned int size)
    1476                 :             : {
    1477                 :             :   /* Use QI vector only for > size of WORD.  */
    1478                 :      482774 :   if (can_use_qi_vectors (m_op) && size > UNITS_PER_WORD)
    1479                 :             :     {
    1480                 :        6640 :       machine_mode mode;
    1481                 :        6640 :       fixed_size_mode candidate;
    1482                 :       90059 :       FOR_EACH_MODE_IN_CLASS (mode, MODE_VECTOR_INT)
    1483                 :       90059 :         if (is_a<fixed_size_mode> (mode, &candidate)
    1484                 :      180118 :             && GET_MODE_INNER (candidate) == QImode)
    1485                 :             :           {
    1486                 :             :             /* Don't return a mode wider than M_LEN.  */
    1487                 :       83574 :             if (GET_MODE_SIZE (candidate) > m_len)
    1488                 :             :               break;
    1489                 :             : 
    1490                 :       40198 :             if (GET_MODE_SIZE (candidate) >= size
    1491                 :       40198 :                 && by_pieces_mode_supported_p (candidate, m_op))
    1492                 :        5051 :               return candidate;
    1493                 :             :           }
    1494                 :             :     }
    1495                 :             : 
    1496                 :      466404 :   return smallest_int_mode_for_size (size * BITS_PER_UNIT).require ();
    1497                 :             : }
    1498                 :             : 
    1499                 :             : /* This function contains the main loop used for expanding a block
    1500                 :             :    operation.  First move what we can in the largest integer mode,
    1501                 :             :    then go to successively smaller modes.  For every access, call
    1502                 :             :    GENFUN with the two operands and the EXTRA_DATA.  */
    1503                 :             : 
    1504                 :             : void
    1505                 :      678456 : op_by_pieces_d::run ()
    1506                 :             : {
    1507                 :      678456 :   if (m_len == 0)
    1508                 :             :     return;
    1509                 :             : 
    1510                 :      678456 :   unsigned HOST_WIDE_INT length = m_len;
    1511                 :             : 
    1512                 :             :   /* widest_fixed_size_mode_for_size checks M_MAX_SIZE > 1.  */
    1513                 :      678456 :   fixed_size_mode mode
    1514                 :      678456 :     = widest_fixed_size_mode_for_size (m_max_size, m_op);
    1515                 :      678456 :   mode = get_usable_mode (mode, length);
    1516                 :             : 
    1517                 :      678456 :   by_pieces_prev to_prev = { nullptr, mode };
    1518                 :      678456 :   by_pieces_prev from_prev = { nullptr, mode };
    1519                 :             : 
    1520                 :     1149911 :   do
    1521                 :             :     {
    1522                 :     1149911 :       unsigned int size = GET_MODE_SIZE (mode);
    1523                 :     1149911 :       rtx to1 = NULL_RTX, from1;
    1524                 :             : 
    1525                 :     3068906 :       while (length >= size)
    1526                 :             :         {
    1527                 :     1918995 :           if (m_reverse)
    1528                 :          47 :             m_offset -= size;
    1529                 :             : 
    1530                 :     1918995 :           to1 = m_to.adjust (mode, m_offset, &to_prev);
    1531                 :     1918995 :           to_prev.data = to1;
    1532                 :     1918995 :           to_prev.mode = mode;
    1533                 :     1918995 :           from1 = m_from.adjust (mode, m_offset, &from_prev);
    1534                 :     1918995 :           from_prev.data = from1;
    1535                 :     1918995 :           from_prev.mode = mode;
    1536                 :             : 
    1537                 :     1918995 :           m_to.maybe_predec (-(HOST_WIDE_INT)size);
    1538                 :     1918995 :           m_from.maybe_predec (-(HOST_WIDE_INT)size);
    1539                 :             : 
    1540                 :     1918995 :           generate (to1, from1, mode);
    1541                 :             : 
    1542                 :     1918995 :           m_to.maybe_postinc (size);
    1543                 :     1918995 :           m_from.maybe_postinc (size);
    1544                 :             : 
    1545                 :     1918995 :           if (!m_reverse)
    1546                 :     1918948 :             m_offset += size;
    1547                 :             : 
    1548                 :     1918995 :           length -= size;
    1549                 :             :         }
    1550                 :             : 
    1551                 :     1149911 :       finish_mode (mode);
    1552                 :             : 
    1553                 :     1149911 :       if (length == 0)
    1554                 :             :         return;
    1555                 :             : 
    1556                 :      471455 :       if (!m_push && m_overlap_op_by_pieces)
    1557                 :             :         {
    1558                 :             :           /* NB: Generate overlapping operations if it is not a stack
    1559                 :             :              push since stack push must not overlap.  Get the smallest
    1560                 :             :              fixed size mode for M_LEN bytes.  */
    1561                 :      471455 :           mode = smallest_fixed_size_mode_for_size (length);
    1562                 :      942910 :           mode = get_usable_mode (mode, GET_MODE_SIZE (mode));
    1563                 :      471455 :           int gap = GET_MODE_SIZE (mode) - length;
    1564                 :      471455 :           if (gap > 0)
    1565                 :             :             {
    1566                 :             :               /* If size of MODE > M_LEN, generate the last operation
    1567                 :             :                  in MODE for the remaining bytes with ovelapping memory
    1568                 :             :                  from the previois operation.  */
    1569                 :       43382 :               if (m_reverse)
    1570                 :           0 :                 m_offset += gap;
    1571                 :             :               else
    1572                 :       43382 :                 m_offset -= gap;
    1573                 :       43382 :               length += gap;
    1574                 :             :             }
    1575                 :             :         }
    1576                 :             :       else
    1577                 :             :         {
    1578                 :             :           /* widest_fixed_size_mode_for_size checks SIZE > 1.  */
    1579                 :           0 :           mode = widest_fixed_size_mode_for_size (size, m_op);
    1580                 :           0 :           mode = get_usable_mode (mode, length);
    1581                 :             :         }
    1582                 :             :     }
    1583                 :             :   while (1);
    1584                 :             : }
    1585                 :             : 
    1586                 :             : /* Derived class from op_by_pieces_d, providing support for block move
    1587                 :             :    operations.  */
    1588                 :             : 
    1589                 :             : #ifdef PUSH_ROUNDING
    1590                 :             : #define PUSHG_P(to)  ((to) == nullptr)
    1591                 :             : #else
    1592                 :             : #define PUSHG_P(to)  false
    1593                 :             : #endif
    1594                 :             : 
    1595                 :             : class move_by_pieces_d : public op_by_pieces_d
    1596                 :             : {
    1597                 :             :   insn_gen_fn m_gen_fun;
    1598                 :             :   void generate (rtx, rtx, machine_mode) final override;
    1599                 :             :   bool prepare_mode (machine_mode, unsigned int) final override;
    1600                 :             : 
    1601                 :             :  public:
    1602                 :      556256 :   move_by_pieces_d (rtx to, rtx from, unsigned HOST_WIDE_INT len,
    1603                 :             :                     unsigned int align)
    1604                 :      556256 :     : op_by_pieces_d (MOVE_MAX_PIECES, to, false, from, true, NULL,
    1605                 :     1112512 :                       NULL, len, align, PUSHG_P (to), MOVE_BY_PIECES)
    1606                 :             :   {
    1607                 :      556256 :   }
    1608                 :             :   rtx finish_retmode (memop_ret);
    1609                 :             : };
    1610                 :             : 
    1611                 :             : /* Return true if MODE can be used for a set of copies, given an
    1612                 :             :    alignment ALIGN.  Prepare whatever data is necessary for later
    1613                 :             :    calls to generate.  */
    1614                 :             : 
    1615                 :             : bool
    1616                 :      941163 : move_by_pieces_d::prepare_mode (machine_mode mode, unsigned int align)
    1617                 :             : {
    1618                 :      941163 :   insn_code icode = optab_handler (mov_optab, mode);
    1619                 :      941163 :   m_gen_fun = GEN_FCN (icode);
    1620                 :      941163 :   return icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode);
    1621                 :             : }
    1622                 :             : 
    1623                 :             : /* A callback used when iterating for a compare_by_pieces_operation.
    1624                 :             :    OP0 and OP1 are the values that have been loaded and should be
    1625                 :             :    compared in MODE.  If OP0 is NULL, this means we should generate a
    1626                 :             :    push; otherwise EXTRA_DATA holds a pointer to a pointer to the insn
    1627                 :             :    gen function that should be used to generate the mode.  */
    1628                 :             : 
    1629                 :             : void
    1630                 :     1638820 : move_by_pieces_d::generate (rtx op0, rtx op1,
    1631                 :             :                             machine_mode mode ATTRIBUTE_UNUSED)
    1632                 :             : {
    1633                 :             : #ifdef PUSH_ROUNDING
    1634                 :     1638820 :   if (op0 == NULL_RTX)
    1635                 :             :     {
    1636                 :          47 :       emit_single_push_insn (mode, op1, NULL);
    1637                 :          47 :       return;
    1638                 :             :     }
    1639                 :             : #endif
    1640                 :     1638773 :   emit_insn (m_gen_fun (op0, op1));
    1641                 :             : }
    1642                 :             : 
    1643                 :             : /* Perform the final adjustment at the end of a string to obtain the
    1644                 :             :    correct return value for the block operation.
    1645                 :             :    Return value is based on RETMODE argument.  */
    1646                 :             : 
    1647                 :             : rtx
    1648                 :           0 : move_by_pieces_d::finish_retmode (memop_ret retmode)
    1649                 :             : {
    1650                 :           0 :   gcc_assert (!m_reverse);
    1651                 :           0 :   if (retmode == RETURN_END_MINUS_ONE)
    1652                 :             :     {
    1653                 :           0 :       m_to.maybe_postinc (-1);
    1654                 :           0 :       --m_offset;
    1655                 :             :     }
    1656                 :           0 :   return m_to.adjust (QImode, m_offset);
    1657                 :             : }
    1658                 :             : 
    1659                 :             : /* Generate several move instructions to copy LEN bytes from block FROM to
    1660                 :             :    block TO.  (These are MEM rtx's with BLKmode).
    1661                 :             : 
    1662                 :             :    If PUSH_ROUNDING is defined and TO is NULL, emit_single_push_insn is
    1663                 :             :    used to push FROM to the stack.
    1664                 :             : 
    1665                 :             :    ALIGN is maximum stack alignment we can assume.
    1666                 :             : 
    1667                 :             :    Return value is based on RETMODE argument.  */
    1668                 :             : 
    1669                 :             : rtx
    1670                 :      556256 : move_by_pieces (rtx to, rtx from, unsigned HOST_WIDE_INT len,
    1671                 :             :                 unsigned int align, memop_ret retmode)
    1672                 :             : {
    1673                 :             : #ifndef PUSH_ROUNDING
    1674                 :             :   if (to == NULL)
    1675                 :             :     gcc_unreachable ();
    1676                 :             : #endif
    1677                 :             : 
    1678                 :      556256 :   move_by_pieces_d data (to, from, len, align);
    1679                 :             : 
    1680                 :      556256 :   data.run ();
    1681                 :             : 
    1682                 :      556256 :   if (retmode != RETURN_BEGIN)
    1683                 :           0 :     return data.finish_retmode (retmode);
    1684                 :             :   else
    1685                 :             :     return to;
    1686                 :             : }
    1687                 :             : 
    1688                 :             : /* Derived class from op_by_pieces_d, providing support for block move
    1689                 :             :    operations.  */
    1690                 :             : 
    1691                 :             : class store_by_pieces_d : public op_by_pieces_d
    1692                 :             : {
    1693                 :             :   insn_gen_fn m_gen_fun;
    1694                 :             : 
    1695                 :             :   void generate (rtx, rtx, machine_mode) final override;
    1696                 :             :   bool prepare_mode (machine_mode, unsigned int) final override;
    1697                 :             : 
    1698                 :             :  public:
    1699                 :       88612 :   store_by_pieces_d (rtx to, by_pieces_constfn cfn, void *cfn_data,
    1700                 :             :                      unsigned HOST_WIDE_INT len, unsigned int align,
    1701                 :             :                      by_pieces_operation op)
    1702                 :       88612 :     : op_by_pieces_d (STORE_MAX_PIECES, to, false, NULL_RTX, true, cfn,
    1703                 :      177224 :                       cfn_data, len, align, false, op)
    1704                 :             :   {
    1705                 :       88612 :   }
    1706                 :             :   rtx finish_retmode (memop_ret);
    1707                 :             : };
    1708                 :             : 
    1709                 :             : /* Return true if MODE can be used for a set of stores, given an
    1710                 :             :    alignment ALIGN.  Prepare whatever data is necessary for later
    1711                 :             :    calls to generate.  */
    1712                 :             : 
    1713                 :             : bool
    1714                 :      148562 : store_by_pieces_d::prepare_mode (machine_mode mode, unsigned int align)
    1715                 :             : {
    1716                 :      148562 :   insn_code icode = optab_handler (mov_optab, mode);
    1717                 :      148562 :   m_gen_fun = GEN_FCN (icode);
    1718                 :      148562 :   return icode != CODE_FOR_nothing && align >= GET_MODE_ALIGNMENT (mode);
    1719                 :             : }
    1720                 :             : 
    1721                 :             : /* A callback used when iterating for a store_by_pieces_operation.
    1722                 :             :    OP0 and OP1 are the values that have been loaded and should be
    1723                 :             :    compared in MODE.  If OP0 is NULL, this means we should generate a
    1724                 :             :    push; otherwise EXTRA_DATA holds a pointer to a pointer to the insn
    1725                 :             :    gen function that should be used to generate the mode.  */
    1726                 :             : 
    1727                 :             : void
    1728                 :      217278 : store_by_pieces_d::generate (rtx op0, rtx op1, machine_mode)
    1729                 :             : {
    1730                 :      217278 :   emit_insn (m_gen_fun (op0, op1));
    1731                 :      217278 : }
    1732                 :             : 
    1733                 :             : /* Perform the final adjustment at the end of a string to obtain the
    1734                 :             :    correct return value for the block operation.
    1735                 :             :    Return value is based on RETMODE argument.  */
    1736                 :             : 
    1737                 :             : rtx
    1738                 :         536 : store_by_pieces_d::finish_retmode (memop_ret retmode)
    1739                 :             : {
    1740                 :         536 :   gcc_assert (!m_reverse);
    1741                 :         536 :   if (retmode == RETURN_END_MINUS_ONE)
    1742                 :             :     {
    1743                 :          23 :       m_to.maybe_postinc (-1);
    1744                 :          23 :       --m_offset;
    1745                 :             :     }
    1746                 :         536 :   return m_to.adjust (QImode, m_offset);
    1747                 :             : }
    1748                 :             : 
    1749                 :             : /* Determine whether the LEN bytes generated by CONSTFUN can be
    1750                 :             :    stored to memory using several move instructions.  CONSTFUNDATA is
    1751                 :             :    a pointer which will be passed as argument in every CONSTFUN call.
    1752                 :             :    ALIGN is maximum alignment we can assume.  MEMSETP is true if this is
    1753                 :             :    a memset operation and false if it's a copy of a constant string.
    1754                 :             :    Return true if a call to store_by_pieces should succeed.  */
    1755                 :             : 
    1756                 :             : bool
    1757                 :       62220 : can_store_by_pieces (unsigned HOST_WIDE_INT len,
    1758                 :             :                      by_pieces_constfn constfun,
    1759                 :             :                      void *constfundata, unsigned int align, bool memsetp)
    1760                 :             : {
    1761                 :       62220 :   unsigned HOST_WIDE_INT l;
    1762                 :       62220 :   unsigned int max_size;
    1763                 :       62220 :   HOST_WIDE_INT offset = 0;
    1764                 :       62220 :   enum insn_code icode;
    1765                 :       62220 :   int reverse;
    1766                 :             :   /* cst is set but not used if LEGITIMATE_CONSTANT doesn't use it.  */
    1767                 :       62220 :   rtx cst ATTRIBUTE_UNUSED;
    1768                 :             : 
    1769                 :       62220 :   if (len == 0)
    1770                 :             :     return true;
    1771                 :             : 
    1772                 :      102878 :   if (!targetm.use_by_pieces_infrastructure_p (len, align,
    1773                 :             :                                                memsetp
    1774                 :             :                                                  ? SET_BY_PIECES
    1775                 :             :                                                  : STORE_BY_PIECES,
    1776                 :       62176 :                                                optimize_insn_for_speed_p ()))
    1777                 :             :     return false;
    1778                 :             : 
    1779                 :       46482 :   align = alignment_for_piecewise_move (STORE_MAX_PIECES, align);
    1780                 :             : 
    1781                 :             :   /* We would first store what we can in the largest integer mode, then go to
    1782                 :             :      successively smaller modes.  */
    1783                 :             : 
    1784                 :       46482 :   for (reverse = 0;
    1785                 :       92964 :        reverse <= (HAVE_PRE_DECREMENT || HAVE_POST_DECREMENT);
    1786                 :             :        reverse++)
    1787                 :             :     {
    1788                 :       46482 :       l = len;
    1789                 :       46482 :       max_size = STORE_MAX_PIECES + 1;
    1790                 :      222095 :       while (max_size > 1 && l > 0)
    1791                 :             :         {
    1792                 :      175613 :           auto op = memsetp ? SET_BY_PIECES : STORE_BY_PIECES;
    1793                 :      175613 :           auto mode = widest_fixed_size_mode_for_size (max_size, op);
    1794                 :             : 
    1795                 :      175613 :           icode = optab_handler (mov_optab, mode);
    1796                 :      175613 :           if (icode != CODE_FOR_nothing
    1797                 :      175613 :               && align >= GET_MODE_ALIGNMENT (mode))
    1798                 :             :             {
    1799                 :      175613 :               unsigned int size = GET_MODE_SIZE (mode);
    1800                 :             : 
    1801                 :      305178 :               while (l >= size)
    1802                 :             :                 {
    1803                 :      129565 :                   if (reverse)
    1804                 :             :                     offset -= size;
    1805                 :             : 
    1806                 :      129565 :                   cst = (*constfun) (constfundata, nullptr, offset, mode);
    1807                 :             :                   /* All CONST_VECTORs can be loaded for memset since
    1808                 :             :                      vec_duplicate_optab is a precondition to pick a
    1809                 :             :                      vector mode for the memset expander.  */
    1810                 :      246710 :                   if (!((memsetp && VECTOR_MODE_P (mode))
    1811                 :      117145 :                         || targetm.legitimate_constant_p (mode, cst)))
    1812                 :       15694 :                     return false;
    1813                 :             : 
    1814                 :      129565 :                   if (!reverse)
    1815                 :      129565 :                     offset += size;
    1816                 :             : 
    1817                 :      129565 :                   l -= size;
    1818                 :             :                 }
    1819                 :             :             }
    1820                 :             : 
    1821                 :      351226 :           max_size = GET_MODE_SIZE (mode);
    1822                 :             :         }
    1823                 :             : 
    1824                 :             :       /* The code above should have handled everything.  */
    1825                 :       46482 :       gcc_assert (!l);
    1826                 :             :     }
    1827                 :             : 
    1828                 :             :   return true;
    1829                 :             : }
    1830                 :             : 
    1831                 :             : /* Generate several move instructions to store LEN bytes generated by
    1832                 :             :    CONSTFUN to block TO.  (A MEM rtx with BLKmode).  CONSTFUNDATA is a
    1833                 :             :    pointer which will be passed as argument in every CONSTFUN call.
    1834                 :             :    ALIGN is maximum alignment we can assume.  MEMSETP is true if this is
    1835                 :             :    a memset operation and false if it's a copy of a constant string.
    1836                 :             :    Return value is based on RETMODE argument.  */
    1837                 :             : 
    1838                 :             : rtx
    1839                 :       43965 : store_by_pieces (rtx to, unsigned HOST_WIDE_INT len,
    1840                 :             :                  by_pieces_constfn constfun,
    1841                 :             :                  void *constfundata, unsigned int align, bool memsetp,
    1842                 :             :                  memop_ret retmode)
    1843                 :             : {
    1844                 :       43965 :   if (len == 0)
    1845                 :             :     {
    1846                 :          43 :       gcc_assert (retmode != RETURN_END_MINUS_ONE);
    1847                 :             :       return to;
    1848                 :             :     }
    1849                 :             : 
    1850                 :       80849 :   gcc_assert (targetm.use_by_pieces_infrastructure_p
    1851                 :             :                 (len, align,
    1852                 :             :                  memsetp ? SET_BY_PIECES : STORE_BY_PIECES,
    1853                 :             :                  optimize_insn_for_speed_p ()));
    1854                 :             : 
    1855                 :       43922 :   store_by_pieces_d data (to, constfun, constfundata, len, align,
    1856                 :       43922 :                           memsetp ? SET_BY_PIECES : STORE_BY_PIECES);
    1857                 :       43922 :   data.run ();
    1858                 :             : 
    1859                 :       43922 :   if (retmode != RETURN_BEGIN)
    1860                 :         536 :     return data.finish_retmode (retmode);
    1861                 :             :   else
    1862                 :             :     return to;
    1863                 :             : }
    1864                 :             : 
    1865                 :             : void
    1866                 :       44690 : clear_by_pieces (rtx to, unsigned HOST_WIDE_INT len, unsigned int align)
    1867                 :             : {
    1868                 :       44690 :   if (len == 0)
    1869                 :           0 :     return;
    1870                 :             : 
    1871                 :             :   /* Use builtin_memset_read_str to support vector mode broadcast.  */
    1872                 :       44690 :   char c = 0;
    1873                 :       44690 :   store_by_pieces_d data (to, builtin_memset_read_str, &c, len, align,
    1874                 :       44690 :                           CLEAR_BY_PIECES);
    1875                 :       44690 :   data.run ();
    1876                 :             : }
    1877                 :             : 
    1878                 :             : /* Context used by compare_by_pieces_genfn.  It stores the fail label
    1879                 :             :    to jump to in case of miscomparison, and for branch ratios greater than 1,
    1880                 :             :    it stores an accumulator and the current and maximum counts before
    1881                 :             :    emitting another branch.  */
    1882                 :             : 
    1883                 :             : class compare_by_pieces_d : public op_by_pieces_d
    1884                 :             : {
    1885                 :             :   rtx_code_label *m_fail_label;
    1886                 :             :   rtx m_accumulator;
    1887                 :             :   int m_count, m_batch;
    1888                 :             : 
    1889                 :             :   void generate (rtx, rtx, machine_mode) final override;
    1890                 :             :   bool prepare_mode (machine_mode, unsigned int) final override;
    1891                 :             :   void finish_mode (machine_mode) final override;
    1892                 :             : 
    1893                 :             :  public:
    1894                 :       33588 :   compare_by_pieces_d (rtx op0, rtx op1, by_pieces_constfn op1_cfn,
    1895                 :             :                        void *op1_cfn_data, HOST_WIDE_INT len, int align,
    1896                 :             :                        rtx_code_label *fail_label)
    1897                 :       33588 :     : op_by_pieces_d (COMPARE_MAX_PIECES, op0, true, op1, true, op1_cfn,
    1898                 :       67176 :                       op1_cfn_data, len, align, false, COMPARE_BY_PIECES)
    1899                 :             :   {
    1900                 :       33588 :     m_fail_label = fail_label;
    1901                 :       33588 :   }
    1902                 :             : };
    1903                 :             : 
    1904                 :             : /* A callback used when iterating for a compare_by_pieces_operation.
    1905                 :             :    OP0 and OP1 are the values that have been loaded and should be
    1906                 :             :    compared in MODE.  DATA holds a pointer to the compare_by_pieces_data
    1907                 :             :    context structure.  */
    1908                 :             : 
    1909                 :             : void
    1910                 :       62897 : compare_by_pieces_d::generate (rtx op0, rtx op1, machine_mode mode)
    1911                 :             : {
    1912                 :       62897 :   if (m_batch > 1)
    1913                 :             :     {
    1914                 :           0 :       rtx temp = expand_binop (mode, sub_optab, op0, op1, NULL_RTX,
    1915                 :             :                                true, OPTAB_LIB_WIDEN);
    1916                 :           0 :       if (m_count != 0)
    1917                 :           0 :         temp = expand_binop (mode, ior_optab, m_accumulator, temp, temp,
    1918                 :             :                              true, OPTAB_LIB_WIDEN);
    1919                 :           0 :       m_accumulator = temp;
    1920                 :             : 
    1921                 :           0 :       if (++m_count < m_batch)
    1922                 :             :         return;
    1923                 :             : 
    1924                 :           0 :       m_count = 0;
    1925                 :           0 :       op0 = m_accumulator;
    1926                 :           0 :       op1 = const0_rtx;
    1927                 :           0 :       m_accumulator = NULL_RTX;
    1928                 :             :     }
    1929                 :       62897 :   do_compare_rtx_and_jump (op0, op1, NE, true, mode, NULL_RTX, NULL,
    1930                 :             :                            m_fail_label, profile_probability::uninitialized ());
    1931                 :             : }
    1932                 :             : 
    1933                 :             : /* Return true if MODE can be used for a set of moves and comparisons,
    1934                 :             :    given an alignment ALIGN.  Prepare whatever data is necessary for
    1935                 :             :    later calls to generate.  */
    1936                 :             : 
    1937                 :             : bool
    1938                 :       60186 : compare_by_pieces_d::prepare_mode (machine_mode mode, unsigned int align)
    1939                 :             : {
    1940                 :       60186 :   insn_code icode = optab_handler (mov_optab, mode);
    1941                 :       60186 :   if (icode == CODE_FOR_nothing
    1942                 :       60186 :       || align < GET_MODE_ALIGNMENT (mode)
    1943                 :      120372 :       || !can_compare_p (EQ, mode, ccp_jump))
    1944                 :           0 :     return false;
    1945                 :       60186 :   m_batch = targetm.compare_by_pieces_branch_ratio (mode);
    1946                 :       60186 :   if (m_batch < 0)
    1947                 :             :     return false;
    1948                 :       60186 :   m_accumulator = NULL_RTX;
    1949                 :       60186 :   m_count = 0;
    1950                 :       60186 :   return true;
    1951                 :             : }
    1952                 :             : 
    1953                 :             : /* Called after expanding a series of comparisons in MODE.  If we have
    1954                 :             :    accumulated results for which we haven't emitted a branch yet, do
    1955                 :             :    so now.  */
    1956                 :             : 
    1957                 :             : void
    1958                 :       60186 : compare_by_pieces_d::finish_mode (machine_mode mode)
    1959                 :             : {
    1960                 :       60186 :   if (m_accumulator != NULL_RTX)
    1961                 :           0 :     do_compare_rtx_and_jump (m_accumulator, const0_rtx, NE, true, mode,
    1962                 :             :                              NULL_RTX, NULL, m_fail_label,
    1963                 :             :                              profile_probability::uninitialized ());
    1964                 :       60186 : }
    1965                 :             : 
    1966                 :             : /* Generate several move instructions to compare LEN bytes from blocks
    1967                 :             :    ARG0 and ARG1.  (These are MEM rtx's with BLKmode).
    1968                 :             : 
    1969                 :             :    If PUSH_ROUNDING is defined and TO is NULL, emit_single_push_insn is
    1970                 :             :    used to push FROM to the stack.
    1971                 :             : 
    1972                 :             :    ALIGN is maximum stack alignment we can assume.
    1973                 :             : 
    1974                 :             :    Optionally, the caller can pass a constfn and associated data in A1_CFN
    1975                 :             :    and A1_CFN_DATA. describing that the second operand being compared is a
    1976                 :             :    known constant and how to obtain its data.  */
    1977                 :             : 
    1978                 :             : static rtx
    1979                 :       33588 : compare_by_pieces (rtx arg0, rtx arg1, unsigned HOST_WIDE_INT len,
    1980                 :             :                    rtx target, unsigned int align,
    1981                 :             :                    by_pieces_constfn a1_cfn, void *a1_cfn_data)
    1982                 :             : {
    1983                 :       33588 :   rtx_code_label *fail_label = gen_label_rtx ();
    1984                 :       33588 :   rtx_code_label *end_label = gen_label_rtx ();
    1985                 :             : 
    1986                 :       33588 :   if (target == NULL_RTX
    1987                 :       33588 :       || !REG_P (target) || REGNO (target) < FIRST_PSEUDO_REGISTER)
    1988                 :           1 :     target = gen_reg_rtx (TYPE_MODE (integer_type_node));
    1989                 :             : 
    1990                 :       33588 :   compare_by_pieces_d data (arg0, arg1, a1_cfn, a1_cfn_data, len, align,
    1991                 :       33588 :                             fail_label);
    1992                 :             : 
    1993                 :       33588 :   data.run ();
    1994                 :             : 
    1995                 :       33588 :   emit_move_insn (target, const0_rtx);
    1996                 :       33588 :   emit_jump (end_label);
    1997                 :       33588 :   emit_barrier ();
    1998                 :       33588 :   emit_label (fail_label);
    1999                 :       33588 :   emit_move_insn (target, const1_rtx);
    2000                 :       33588 :   emit_label (end_label);
    2001                 :             : 
    2002                 :       33588 :   return target;
    2003                 :             : }
    2004                 :             : 
    2005                 :             : /* Emit code to move a block Y to a block X.  This may be done with
    2006                 :             :    string-move instructions, with multiple scalar move instructions,
    2007                 :             :    or with a library call.
    2008                 :             : 
    2009                 :             :    Both X and Y must be MEM rtx's (perhaps inside VOLATILE) with mode BLKmode.
    2010                 :             :    SIZE is an rtx that says how long they are.
    2011                 :             :    ALIGN is the maximum alignment we can assume they have.
    2012                 :             :    METHOD describes what kind of copy this is, and what mechanisms may be used.
    2013                 :             :    MIN_SIZE is the minimal size of block to move
    2014                 :             :    MAX_SIZE is the maximal size of block to move, if it cannot be represented
    2015                 :             :    in unsigned HOST_WIDE_INT, than it is mask of all ones.
    2016                 :             :    CTZ_SIZE is the trailing-zeros count of SIZE; even a nonconstant SIZE is
    2017                 :             :    known to be a multiple of 1<<CTZ_SIZE.
    2018                 :             : 
    2019                 :             :    Return the address of the new block, if memcpy is called and returns it,
    2020                 :             :    0 otherwise.  */
    2021                 :             : 
    2022                 :             : rtx
    2023                 :      639759 : emit_block_move_hints (rtx x, rtx y, rtx size, enum block_op_methods method,
    2024                 :             :                        unsigned int expected_align, HOST_WIDE_INT expected_size,
    2025                 :             :                        unsigned HOST_WIDE_INT min_size,
    2026                 :             :                        unsigned HOST_WIDE_INT max_size,
    2027                 :             :                        unsigned HOST_WIDE_INT probable_max_size,
    2028                 :             :                        bool bail_out_libcall, bool *is_move_done,
    2029                 :             :                        bool might_overlap, unsigned ctz_size)
    2030                 :             : {
    2031                 :      639759 :   int may_use_call;
    2032                 :      639759 :   rtx retval = 0;
    2033                 :      639759 :   unsigned int align;
    2034                 :             : 
    2035                 :      639759 :   if (is_move_done)
    2036                 :       73176 :     *is_move_done = true;
    2037                 :             : 
    2038                 :      639759 :   gcc_assert (size);
    2039                 :      639759 :   if (CONST_INT_P (size) && INTVAL (size) == 0)
    2040                 :             :     return 0;
    2041                 :             : 
    2042                 :      639482 :   switch (method)
    2043                 :             :     {
    2044                 :             :     case BLOCK_OP_NORMAL:
    2045                 :             :     case BLOCK_OP_TAILCALL:
    2046                 :             :       may_use_call = 1;
    2047                 :             :       break;
    2048                 :             : 
    2049                 :      266107 :     case BLOCK_OP_CALL_PARM:
    2050                 :      266107 :       may_use_call = block_move_libcall_safe_for_call_parm ();
    2051                 :             : 
    2052                 :             :       /* Make inhibit_defer_pop nonzero around the library call
    2053                 :             :          to force it to pop the arguments right away.  */
    2054                 :      266107 :       NO_DEFER_POP;
    2055                 :      266107 :       break;
    2056                 :             : 
    2057                 :         353 :     case BLOCK_OP_NO_LIBCALL:
    2058                 :         353 :       may_use_call = 0;
    2059                 :         353 :       break;
    2060                 :             : 
    2061                 :        1059 :     case BLOCK_OP_NO_LIBCALL_RET:
    2062                 :        1059 :       may_use_call = -1;
    2063                 :        1059 :       break;
    2064                 :             : 
    2065                 :           0 :     default:
    2066                 :           0 :       gcc_unreachable ();
    2067                 :             :     }
    2068                 :             : 
    2069                 :      639482 :   gcc_assert (MEM_P (x) && MEM_P (y));
    2070                 :      639565 :   align = MIN (MEM_ALIGN (x), MEM_ALIGN (y));
    2071                 :      639482 :   gcc_assert (align >= BITS_PER_UNIT);
    2072                 :             : 
    2073                 :             :   /* Make sure we've got BLKmode addresses; store_one_arg can decide that
    2074                 :             :      block copy is more efficient for other large modes, e.g. DCmode.  */
    2075                 :      639482 :   x = adjust_address (x, BLKmode, 0);
    2076                 :      639482 :   y = adjust_address (y, BLKmode, 0);
    2077                 :             : 
    2078                 :             :   /* If source and destination are the same, no need to copy anything.  */
    2079                 :      639482 :   if (rtx_equal_p (x, y)
    2080                 :          10 :       && !MEM_VOLATILE_P (x)
    2081                 :      639492 :       && !MEM_VOLATILE_P (y))
    2082                 :             :     return 0;
    2083                 :             : 
    2084                 :             :   /* Set MEM_SIZE as appropriate for this block copy.  The main place this
    2085                 :             :      can be incorrect is coming from __builtin_memcpy.  */
    2086                 :      639472 :   poly_int64 const_size;
    2087                 :      639472 :   if (poly_int_rtx_p (size, &const_size))
    2088                 :             :     {
    2089                 :      581997 :       x = shallow_copy_rtx (x);
    2090                 :      581997 :       y = shallow_copy_rtx (y);
    2091                 :      581997 :       set_mem_size (x, const_size);
    2092                 :      581997 :       set_mem_size (y, const_size);
    2093                 :             :     }
    2094                 :             : 
    2095                 :      639472 :   bool pieces_ok = CONST_INT_P (size)
    2096                 :      639472 :     && can_move_by_pieces (INTVAL (size), align);
    2097                 :      639472 :   bool pattern_ok = false;
    2098                 :             : 
    2099                 :      639472 :   if (!pieces_ok || might_overlap)
    2100                 :             :     {
    2101                 :       83261 :       pattern_ok
    2102                 :       83261 :         = emit_block_move_via_pattern (x, y, size, align,
    2103                 :             :                                        expected_align, expected_size,
    2104                 :             :                                        min_size, max_size, probable_max_size,
    2105                 :             :                                        might_overlap);
    2106                 :       83261 :       if (!pattern_ok && might_overlap)
    2107                 :             :         {
    2108                 :             :           /* Do not try any of the other methods below as they are not safe
    2109                 :             :              for overlapping moves.  */
    2110                 :       14328 :           *is_move_done = false;
    2111                 :       14328 :           return retval;
    2112                 :             :         }
    2113                 :             :     }
    2114                 :             : 
    2115                 :       68933 :   bool dynamic_direction = false;
    2116                 :       68933 :   if (!pattern_ok && !pieces_ok && may_use_call
    2117                 :       71308 :       && (flag_inline_stringops & (might_overlap ? ILSOP_MEMMOVE : ILSOP_MEMCPY)))
    2118                 :             :     {
    2119                 :      625144 :       may_use_call = 0;
    2120                 :      625144 :       dynamic_direction = might_overlap;
    2121                 :             :     }
    2122                 :             : 
    2123                 :      625144 :   if (pattern_ok)
    2124                 :             :     ;
    2125                 :      591865 :   else if (pieces_ok)
    2126                 :      556211 :     move_by_pieces (x, y, INTVAL (size), align, RETURN_BEGIN);
    2127                 :       35654 :   else if (may_use_call && !might_overlap
    2128                 :       35606 :            && ADDR_SPACE_GENERIC_P (MEM_ADDR_SPACE (x))
    2129                 :       71260 :            && ADDR_SPACE_GENERIC_P (MEM_ADDR_SPACE (y)))
    2130                 :             :     {
    2131                 :       35606 :       if (bail_out_libcall)
    2132                 :             :         {
    2133                 :         252 :           if (is_move_done)
    2134                 :         252 :             *is_move_done = false;
    2135                 :         252 :           return retval;
    2136                 :             :         }
    2137                 :             : 
    2138                 :       35354 :       if (may_use_call < 0)
    2139                 :           0 :         return pc_rtx;
    2140                 :             : 
    2141                 :       35354 :       retval = emit_block_copy_via_libcall (x, y, size,
    2142                 :             :                                             method == BLOCK_OP_TAILCALL);
    2143                 :             :     }
    2144                 :          48 :   else if (dynamic_direction)
    2145                 :           0 :     emit_block_move_via_oriented_loop (x, y, size, align, ctz_size);
    2146                 :          48 :   else if (might_overlap)
    2147                 :           0 :     *is_move_done = false;
    2148                 :             :   else
    2149                 :          48 :     emit_block_move_via_sized_loop (x, y, size, align, ctz_size);
    2150                 :             : 
    2151                 :      624892 :   if (method == BLOCK_OP_CALL_PARM)
    2152                 :      266099 :     OK_DEFER_POP;
    2153                 :             : 
    2154                 :             :   return retval;
    2155                 :             : }
    2156                 :             : 
    2157                 :             : rtx
    2158                 :      566583 : emit_block_move (rtx x, rtx y, rtx size, enum block_op_methods method,
    2159                 :             :                  unsigned int ctz_size)
    2160                 :             : {
    2161                 :      566583 :   unsigned HOST_WIDE_INT max, min = 0;
    2162                 :      566583 :   if (GET_CODE (size) == CONST_INT)
    2163                 :      566363 :     min = max = UINTVAL (size);
    2164                 :             :   else
    2165                 :         220 :     max = GET_MODE_MASK (GET_MODE (size));
    2166                 :      566583 :   return emit_block_move_hints (x, y, size, method, 0, -1,
    2167                 :             :                                 min, max, max,
    2168                 :      566583 :                                 false, NULL, false, ctz_size);
    2169                 :             : }
    2170                 :             : 
    2171                 :             : /* A subroutine of emit_block_move.  Returns true if calling the
    2172                 :             :    block move libcall will not clobber any parameters which may have
    2173                 :             :    already been placed on the stack.  */
    2174                 :             : 
    2175                 :             : static bool
    2176                 :      266107 : block_move_libcall_safe_for_call_parm (void)
    2177                 :             : {
    2178                 :      266107 :   tree fn;
    2179                 :             : 
    2180                 :             :   /* If arguments are pushed on the stack, then they're safe.  */
    2181                 :      266107 :   if (targetm.calls.push_argument (0))
    2182                 :             :     return true;
    2183                 :             : 
    2184                 :             :   /* If registers go on the stack anyway, any argument is sure to clobber
    2185                 :             :      an outgoing argument.  */
    2186                 :             : #if defined (REG_PARM_STACK_SPACE)
    2187                 :           1 :   fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
    2188                 :             :   /* Avoid set but not used warning if *REG_PARM_STACK_SPACE doesn't
    2189                 :             :      depend on its argument.  */
    2190                 :           1 :   (void) fn;
    2191                 :           1 :   if (OUTGOING_REG_PARM_STACK_SPACE ((!fn ? NULL_TREE : TREE_TYPE (fn)))
    2192                 :           1 :       && REG_PARM_STACK_SPACE (fn) != 0)
    2193                 :             :     return false;
    2194                 :             : #endif
    2195                 :             : 
    2196                 :             :   /* If any argument goes in memory, then it might clobber an outgoing
    2197                 :             :      argument.  */
    2198                 :           1 :   {
    2199                 :           1 :     CUMULATIVE_ARGS args_so_far_v;
    2200                 :           1 :     cumulative_args_t args_so_far;
    2201                 :           1 :     tree arg;
    2202                 :             : 
    2203                 :           1 :     fn = builtin_decl_implicit (BUILT_IN_MEMCPY);
    2204                 :           1 :     INIT_CUMULATIVE_ARGS (args_so_far_v, TREE_TYPE (fn), NULL_RTX, 0, 3);
    2205                 :           1 :     args_so_far = pack_cumulative_args (&args_so_far_v);
    2206                 :             : 
    2207                 :           1 :     arg = TYPE_ARG_TYPES (TREE_TYPE (fn));
    2208                 :           4 :     for ( ; arg != void_list_node ; arg = TREE_CHAIN (arg))
    2209                 :             :       {
    2210                 :           3 :         machine_mode mode = TYPE_MODE (TREE_VALUE (arg));
    2211                 :           3 :         function_arg_info arg_info (mode, /*named=*/true);
    2212                 :           3 :         rtx tmp = targetm.calls.function_arg (args_so_far, arg_info);
    2213                 :           3 :         if (!tmp || !REG_P (tmp))
    2214                 :           0 :           return false;
    2215                 :           3 :         if (targetm.calls.arg_partial_bytes (args_so_far, arg_info))
    2216                 :             :           return false;
    2217                 :           3 :         targetm.calls.function_arg_advance (args_so_far, arg_info);
    2218                 :             :       }
    2219                 :             :   }
    2220                 :           1 :   return true;
    2221                 :             : }
    2222                 :             : 
    2223                 :             : /* A subroutine of emit_block_move.  Expand a cpymem or movmem pattern;
    2224                 :             :    return true if successful.
    2225                 :             : 
    2226                 :             :    X is the destination of the copy or move.
    2227                 :             :    Y is the source of the copy or move.
    2228                 :             :    SIZE is the size of the block to be moved.
    2229                 :             : 
    2230                 :             :    MIGHT_OVERLAP indicates this originated with expansion of a
    2231                 :             :    builtin_memmove() and the source and destination blocks may
    2232                 :             :    overlap.
    2233                 :             :   */
    2234                 :             : 
    2235                 :             : static bool
    2236                 :       83261 : emit_block_move_via_pattern (rtx x, rtx y, rtx size, unsigned int align,
    2237                 :             :                              unsigned int expected_align,
    2238                 :             :                              HOST_WIDE_INT expected_size,
    2239                 :             :                              unsigned HOST_WIDE_INT min_size,
    2240                 :             :                              unsigned HOST_WIDE_INT max_size,
    2241                 :             :                              unsigned HOST_WIDE_INT probable_max_size,
    2242                 :             :                              bool might_overlap)
    2243                 :             : {
    2244                 :       83261 :   if (expected_align < align)
    2245                 :             :     expected_align = align;
    2246                 :       83261 :   if (expected_size != -1)
    2247                 :             :     {
    2248                 :          12 :       if ((unsigned HOST_WIDE_INT)expected_size > probable_max_size)
    2249                 :           0 :         expected_size = probable_max_size;
    2250                 :          12 :       if ((unsigned HOST_WIDE_INT)expected_size < min_size)
    2251                 :           0 :         expected_size = min_size;
    2252                 :             :     }
    2253                 :             : 
    2254                 :             :   /* Since this is a move insn, we don't care about volatility.  */
    2255                 :       83261 :   temporary_volatile_ok v (true);
    2256                 :             : 
    2257                 :             :   /* Try the most limited insn first, because there's no point
    2258                 :             :      including more than one in the machine description unless
    2259                 :             :      the more limited one has some advantage.  */
    2260                 :             : 
    2261                 :       83261 :   opt_scalar_int_mode mode_iter;
    2262                 :      501609 :   FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
    2263                 :             :     {
    2264                 :      451627 :       scalar_int_mode mode = mode_iter.require ();
    2265                 :      451627 :       enum insn_code code;
    2266                 :      451627 :       if (might_overlap)
    2267                 :      100296 :         code = direct_optab_handler (movmem_optab, mode);
    2268                 :             :       else
    2269                 :      351331 :         code = direct_optab_handler (cpymem_optab, mode);
    2270                 :             : 
    2271                 :      451627 :       if (code != CODE_FOR_nothing
    2272                 :             :           /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
    2273                 :             :              here because if SIZE is less than the mode mask, as it is
    2274                 :             :              returned by the macro, it will definitely be less than the
    2275                 :             :              actual mode mask.  Since SIZE is within the Pmode address
    2276                 :             :              space, we limit MODE to Pmode.  */
    2277                 :      451627 :           && ((CONST_INT_P (size)
    2278                 :       24324 :                && ((unsigned HOST_WIDE_INT) INTVAL (size)
    2279                 :       24324 :                    <= (GET_MODE_MASK (mode) >> 1)))
    2280                 :       80617 :               || max_size <= (GET_MODE_MASK (mode) >> 1)
    2281                 :      106916 :               || GET_MODE_BITSIZE (mode) >= GET_MODE_BITSIZE (Pmode)))
    2282                 :             :         {
    2283                 :       70757 :           class expand_operand ops[9];
    2284                 :       70757 :           unsigned int nops;
    2285                 :             : 
    2286                 :             :           /* ??? When called via emit_block_move_for_call, it'd be
    2287                 :             :              nice if there were some way to inform the backend, so
    2288                 :             :              that it doesn't fail the expansion because it thinks
    2289                 :             :              emitting the libcall would be more efficient.  */
    2290                 :       70757 :           nops = insn_data[(int) code].n_generator_args;
    2291                 :       70757 :           gcc_assert (nops == 4 || nops == 6 || nops == 8 || nops == 9);
    2292                 :             : 
    2293                 :       70757 :           create_fixed_operand (&ops[0], x);
    2294                 :       70757 :           create_fixed_operand (&ops[1], y);
    2295                 :             :           /* The check above guarantees that this size conversion is valid.  */
    2296                 :       70757 :           create_convert_operand_to (&ops[2], size, mode, true);
    2297                 :       70757 :           create_integer_operand (&ops[3], align / BITS_PER_UNIT);
    2298                 :       70757 :           if (nops >= 6)
    2299                 :             :             {
    2300                 :       70757 :               create_integer_operand (&ops[4], expected_align / BITS_PER_UNIT);
    2301                 :       70757 :               create_integer_operand (&ops[5], expected_size);
    2302                 :             :             }
    2303                 :       70757 :           if (nops >= 8)
    2304                 :             :             {
    2305                 :       70757 :               create_integer_operand (&ops[6], min_size);
    2306                 :             :               /* If we cannot represent the maximal size,
    2307                 :             :                  make parameter NULL.  */
    2308                 :       70757 :               if ((HOST_WIDE_INT) max_size != -1)
    2309                 :       54191 :                 create_integer_operand (&ops[7], max_size);
    2310                 :             :               else
    2311                 :       16566 :                 create_fixed_operand (&ops[7], NULL);
    2312                 :             :             }
    2313                 :       70757 :           if (nops == 9)
    2314                 :             :             {
    2315                 :             :               /* If we cannot represent the maximal size,
    2316                 :             :                  make parameter NULL.  */
    2317                 :       70757 :               if ((HOST_WIDE_INT) probable_max_size != -1)
    2318                 :       55651 :                 create_integer_operand (&ops[8], probable_max_size);
    2319                 :             :               else
    2320                 :       15106 :                 create_fixed_operand (&ops[8], NULL);
    2321                 :             :             }
    2322                 :       70757 :           if (maybe_expand_insn (code, nops, ops))
    2323                 :       33279 :             return true;
    2324                 :             :         }
    2325                 :             :     }
    2326                 :             : 
    2327                 :             :   return false;
    2328                 :       83261 : }
    2329                 :             : 
    2330                 :             : /* Like emit_block_move_via_loop, but choose a suitable INCR based on
    2331                 :             :    ALIGN and CTZ_SIZE.  */
    2332                 :             : 
    2333                 :             : static void
    2334                 :          48 : emit_block_move_via_sized_loop (rtx x, rtx y, rtx size,
    2335                 :             :                                 unsigned int align,
    2336                 :             :                                 unsigned int ctz_size)
    2337                 :             : {
    2338                 :          48 :   int incr = align / BITS_PER_UNIT;
    2339                 :             : 
    2340                 :          48 :   if (CONST_INT_P (size))
    2341                 :           0 :     ctz_size = MAX (ctz_size, (unsigned) wi::ctz (UINTVAL (size)));
    2342                 :             : 
    2343                 :          48 :   if (HOST_WIDE_INT_1U << ctz_size < (unsigned HOST_WIDE_INT) incr)
    2344                 :           0 :     incr = HOST_WIDE_INT_1U << ctz_size;
    2345                 :             : 
    2346                 :          48 :   while (incr > 1 && !can_move_by_pieces (incr, align))
    2347                 :           0 :     incr >>= 1;
    2348                 :             : 
    2349                 :          48 :   gcc_checking_assert (incr);
    2350                 :             : 
    2351                 :          48 :   return emit_block_move_via_loop (x, y, size, align, incr);
    2352                 :             : }
    2353                 :             : 
    2354                 :             : /* Like emit_block_move_via_sized_loop, but besides choosing INCR so
    2355                 :             :    as to ensure safe moves even in case of overlap, output dynamic
    2356                 :             :    tests to choose between two loops, one moving downwards, another
    2357                 :             :    moving upwards.  */
    2358                 :             : 
    2359                 :             : static void
    2360                 :           0 : emit_block_move_via_oriented_loop (rtx x, rtx y, rtx size,
    2361                 :             :                                    unsigned int align,
    2362                 :             :                                    unsigned int ctz_size)
    2363                 :             : {
    2364                 :           0 :   int incr = align / BITS_PER_UNIT;
    2365                 :             : 
    2366                 :           0 :   if (CONST_INT_P (size))
    2367                 :           0 :     ctz_size = MAX (ctz_size, (unsigned) wi::ctz (UINTVAL (size)));
    2368                 :             : 
    2369                 :           0 :   if (HOST_WIDE_INT_1U << ctz_size < (unsigned HOST_WIDE_INT) incr)
    2370                 :           0 :     incr = HOST_WIDE_INT_1U << ctz_size;
    2371                 :             : 
    2372                 :           0 :   while (incr > 1 && !int_mode_for_size (incr, 0).exists ())
    2373                 :           0 :     incr >>= 1;
    2374                 :             : 
    2375                 :           0 :   gcc_checking_assert (incr);
    2376                 :             : 
    2377                 :           0 :   rtx_code_label *upw_label, *end_label;
    2378                 :           0 :   upw_label = gen_label_rtx ();
    2379                 :           0 :   end_label = gen_label_rtx ();
    2380                 :             : 
    2381                 :           0 :   rtx x_addr = force_operand (XEXP (x, 0), NULL_RTX);
    2382                 :           0 :   rtx y_addr = force_operand (XEXP (y, 0), NULL_RTX);
    2383                 :           0 :   do_pending_stack_adjust ();
    2384                 :             : 
    2385                 :           0 :   machine_mode mode = GET_MODE (x_addr);
    2386                 :           0 :   if (mode != GET_MODE (y_addr))
    2387                 :             :     {
    2388                 :           0 :       scalar_int_mode xmode
    2389                 :           0 :         = smallest_int_mode_for_size (GET_MODE_BITSIZE (mode)).require ();
    2390                 :           0 :       scalar_int_mode ymode
    2391                 :           0 :         = smallest_int_mode_for_size (GET_MODE_BITSIZE
    2392                 :           0 :                                       (GET_MODE (y_addr))).require ();
    2393                 :           0 :       if (GET_MODE_BITSIZE (xmode) < GET_MODE_BITSIZE (ymode))
    2394                 :             :         mode = ymode;
    2395                 :             :       else
    2396                 :           0 :         mode = xmode;
    2397                 :             : 
    2398                 :             : #ifndef POINTERS_EXTEND_UNSIGNED
    2399                 :             :       const int POINTERS_EXTEND_UNSIGNED = 1;
    2400                 :             : #endif
    2401                 :           0 :       x_addr = convert_modes (mode, GET_MODE (x_addr), x_addr,
    2402                 :             :                               POINTERS_EXTEND_UNSIGNED);
    2403                 :           0 :       y_addr = convert_modes (mode, GET_MODE (y_addr), y_addr,
    2404                 :             :                               POINTERS_EXTEND_UNSIGNED);
    2405                 :             :     }
    2406                 :             : 
    2407                 :             :   /* Test for overlap: if (x >= y || x + size <= y) goto upw_label.  */
    2408                 :           0 :   emit_cmp_and_jump_insns (x_addr, y_addr, GEU, NULL_RTX, mode,
    2409                 :             :                            true, upw_label,
    2410                 :           0 :                            profile_probability::guessed_always ()
    2411                 :             :                                 .apply_scale (5, 10));
    2412                 :           0 :   rtx tmp = convert_modes (GET_MODE (x_addr), GET_MODE (size), size, true);
    2413                 :           0 :   tmp = simplify_gen_binary (PLUS, GET_MODE (x_addr), x_addr, tmp);
    2414                 :             : 
    2415                 :           0 :   emit_cmp_and_jump_insns (tmp, y_addr, LEU, NULL_RTX, mode,
    2416                 :             :                            true, upw_label,
    2417                 :           0 :                            profile_probability::guessed_always ()
    2418                 :             :                                 .apply_scale (8, 10));
    2419                 :             : 
    2420                 :           0 :   emit_block_move_via_loop (x, y, size, align, -incr);
    2421                 :             : 
    2422                 :           0 :   emit_jump (end_label);
    2423                 :           0 :   emit_label (upw_label);
    2424                 :             : 
    2425                 :           0 :   emit_block_move_via_loop (x, y, size, align, incr);
    2426                 :             : 
    2427                 :           0 :   emit_label (end_label);
    2428                 :           0 : }
    2429                 :             : 
    2430                 :             : /* A subroutine of emit_block_move.  Copy the data via an explicit
    2431                 :             :    loop.  This is used only when libcalls are forbidden, or when
    2432                 :             :    inlining is required.  INCR is the block size to be copied in each
    2433                 :             :    loop iteration.  If it is negative, the absolute value is used, and
    2434                 :             :    the block is copied backwards.  INCR must be a power of two, an
    2435                 :             :    exact divisor for SIZE and ALIGN, and imply a mode that can be
    2436                 :             :    safely copied per iteration assuming no overlap.  */
    2437                 :             : 
    2438                 :             : static void
    2439                 :          48 : emit_block_move_via_loop (rtx x, rtx y, rtx size,
    2440                 :             :                           unsigned int align, int incr)
    2441                 :             : {
    2442                 :          48 :   rtx_code_label *cmp_label, *top_label;
    2443                 :          48 :   rtx iter, x_addr, y_addr, tmp;
    2444                 :          48 :   machine_mode x_addr_mode = get_address_mode (x);
    2445                 :          48 :   machine_mode y_addr_mode = get_address_mode (y);
    2446                 :          48 :   machine_mode iter_mode;
    2447                 :             : 
    2448                 :          48 :   iter_mode = GET_MODE (size);
    2449                 :          48 :   if (iter_mode == VOIDmode)
    2450                 :           0 :     iter_mode = word_mode;
    2451                 :             : 
    2452                 :          48 :   top_label = gen_label_rtx ();
    2453                 :          48 :   cmp_label = gen_label_rtx ();
    2454                 :          48 :   iter = gen_reg_rtx (iter_mode);
    2455                 :             : 
    2456                 :          48 :   bool downwards = incr < 0;
    2457                 :          48 :   rtx iter_init;
    2458                 :          48 :   rtx_code iter_cond;
    2459                 :          48 :   rtx iter_limit;
    2460                 :          48 :   rtx iter_incr;
    2461                 :          48 :   machine_mode move_mode;
    2462                 :          48 :   if (downwards)
    2463                 :             :     {
    2464                 :           0 :       incr = -incr;
    2465                 :           0 :       iter_init = size;
    2466                 :           0 :       iter_cond = GEU;
    2467                 :           0 :       iter_limit = const0_rtx;
    2468                 :           0 :       iter_incr = GEN_INT (incr);
    2469                 :             :     }
    2470                 :             :   else
    2471                 :             :     {
    2472                 :          48 :       iter_init = const0_rtx;
    2473                 :          48 :       iter_cond = LTU;
    2474                 :          48 :       iter_limit = size;
    2475                 :          48 :       iter_incr = GEN_INT (incr);
    2476                 :             :     }
    2477                 :          48 :   emit_move_insn (iter, iter_init);
    2478                 :             : 
    2479                 :          48 :   opt_scalar_int_mode int_move_mode
    2480                 :          48 :     = int_mode_for_size (incr * BITS_PER_UNIT, 1);
    2481                 :          48 :   if (!int_move_mode.exists (&move_mode)
    2482                 :          96 :       || GET_MODE_BITSIZE (int_move_mode.require ()) != incr * BITS_PER_UNIT)
    2483                 :             :     {
    2484                 :           0 :       move_mode = BLKmode;
    2485                 :           0 :       gcc_checking_assert (can_move_by_pieces (incr, align));
    2486                 :             :     }
    2487                 :             : 
    2488                 :          48 :   x_addr = force_operand (XEXP (x, 0), NULL_RTX);
    2489                 :          48 :   y_addr = force_operand (XEXP (y, 0), NULL_RTX);
    2490                 :          48 :   do_pending_stack_adjust ();
    2491                 :             : 
    2492                 :          48 :   emit_jump (cmp_label);
    2493                 :          48 :   emit_label (top_label);
    2494                 :             : 
    2495                 :          48 :   tmp = convert_modes (x_addr_mode, iter_mode, iter, true);
    2496                 :          48 :   x_addr = simplify_gen_binary (PLUS, x_addr_mode, x_addr, tmp);
    2497                 :             : 
    2498                 :          48 :   if (x_addr_mode != y_addr_mode)
    2499                 :           0 :     tmp = convert_modes (y_addr_mode, iter_mode, iter, true);
    2500                 :          48 :   y_addr = simplify_gen_binary (PLUS, y_addr_mode, y_addr, tmp);
    2501                 :             : 
    2502                 :          48 :   x = change_address (x, move_mode, x_addr);
    2503                 :          48 :   y = change_address (y, move_mode, y_addr);
    2504                 :             : 
    2505                 :          48 :   if (move_mode == BLKmode)
    2506                 :             :     {
    2507                 :           0 :       bool done;
    2508                 :           0 :       emit_block_move_hints (x, y, iter_incr, BLOCK_OP_NO_LIBCALL,
    2509                 :             :                              align, incr, incr, incr, incr,
    2510                 :             :                              false, &done, false);
    2511                 :           0 :       gcc_checking_assert (done);
    2512                 :             :     }
    2513                 :             :   else
    2514                 :          48 :     emit_move_insn (x, y);
    2515                 :             : 
    2516                 :          48 :   if (downwards)
    2517                 :           0 :     emit_label (cmp_label);
    2518                 :             : 
    2519                 :          48 :   tmp = expand_simple_binop (iter_mode, PLUS, iter, iter_incr, iter,
    2520                 :             :                              true, OPTAB_LIB_WIDEN);
    2521                 :          48 :   if (tmp != iter)
    2522                 :           0 :     emit_move_insn (iter, tmp);
    2523                 :             : 
    2524                 :          48 :   if (!downwards)
    2525                 :          48 :     emit_label (cmp_label);
    2526                 :             : 
    2527                 :          48 :   emit_cmp_and_jump_insns (iter, iter_limit, iter_cond, NULL_RTX, iter_mode,
    2528                 :             :                            true, top_label,
    2529                 :          48 :                            profile_probability::guessed_always ()
    2530                 :             :                                 .apply_scale (9, 10));
    2531                 :          48 : }
    2532                 :             : 
    2533                 :             : /* Expand a call to memcpy or memmove or memcmp, and return the result.
    2534                 :             :    TAILCALL is true if this is a tail call.  */
    2535                 :             : 
    2536                 :             : rtx
    2537                 :       35357 : emit_block_op_via_libcall (enum built_in_function fncode, rtx dst, rtx src,
    2538                 :             :                            rtx size, bool tailcall)
    2539                 :             : {
    2540                 :       35357 :   rtx dst_addr, src_addr;
    2541                 :       35357 :   tree call_expr, dst_tree, src_tree, size_tree;
    2542                 :       35357 :   machine_mode size_mode;
    2543                 :             : 
    2544                 :             :   /* Since dst and src are passed to a libcall, mark the corresponding
    2545                 :             :      tree EXPR as addressable.  */
    2546                 :       35357 :   tree dst_expr = MEM_EXPR (dst);
    2547                 :       35357 :   tree src_expr = MEM_EXPR (src);
    2548                 :       35357 :   if (dst_expr)
    2549                 :       35055 :     mark_addressable (dst_expr);
    2550                 :       35357 :   if (src_expr)
    2551                 :       35319 :     mark_addressable (src_expr);
    2552                 :             : 
    2553                 :       35357 :   dst_addr = copy_addr_to_reg (XEXP (dst, 0));
    2554                 :       35357 :   dst_addr = convert_memory_address (ptr_mode, dst_addr);
    2555                 :       35357 :   dst_tree = make_tree (ptr_type_node, dst_addr);
    2556                 :             : 
    2557                 :       35357 :   src_addr = copy_addr_to_reg (XEXP (src, 0));
    2558                 :       35357 :   src_addr = convert_memory_address (ptr_mode, src_addr);
    2559                 :       35357 :   src_tree = make_tree (ptr_type_node, src_addr);
    2560                 :             : 
    2561                 :       35357 :   size_mode = TYPE_MODE (sizetype);
    2562                 :       35357 :   size = convert_to_mode (size_mode, size, 1);
    2563                 :       35357 :   size = copy_to_mode_reg (size_mode, size);
    2564                 :       35357 :   size_tree = make_tree (sizetype, size);
    2565                 :             : 
    2566                 :             :   /* It is incorrect to use the libcall calling conventions for calls to
    2567                 :             :      memcpy/memmove/memcmp because they can be provided by the user.  */
    2568                 :       35357 :   tree fn = builtin_decl_implicit (fncode);
    2569                 :       35357 :   call_expr = build_call_expr (fn, 3, dst_tree, src_tree, size_tree);
    2570                 :       35357 :   CALL_EXPR_TAILCALL (call_expr) = tailcall;
    2571                 :             : 
    2572                 :       35357 :   return expand_call (call_expr, NULL_RTX, false);
    2573                 :             : }
    2574                 :             : 
    2575                 :             : /* Try to expand cmpstrn or cmpmem operation ICODE with the given operands.
    2576                 :             :    ARG3_TYPE is the type of ARG3_RTX.  Return the result rtx on success,
    2577                 :             :    otherwise return null.  */
    2578                 :             : 
    2579                 :             : rtx
    2580                 :      204235 : expand_cmpstrn_or_cmpmem (insn_code icode, rtx target, rtx arg1_rtx,
    2581                 :             :                           rtx arg2_rtx, tree arg3_type, rtx arg3_rtx,
    2582                 :             :                           HOST_WIDE_INT align)
    2583                 :             : {
    2584                 :      204235 :   machine_mode insn_mode = insn_data[icode].operand[0].mode;
    2585                 :             : 
    2586                 :      204235 :   if (target && (!REG_P (target) || HARD_REGISTER_P (target)))
    2587                 :             :     target = NULL_RTX;
    2588                 :             : 
    2589                 :      204235 :   class expand_operand ops[5];
    2590                 :      204235 :   create_output_operand (&ops[0], target, insn_mode);
    2591                 :      204235 :   create_fixed_operand (&ops[1], arg1_rtx);
    2592                 :      204235 :   create_fixed_operand (&ops[2], arg2_rtx);
    2593                 :      204235 :   create_convert_operand_from (&ops[3], arg3_rtx, TYPE_MODE (arg3_type),
    2594                 :      204235 :                                TYPE_UNSIGNED (arg3_type));
    2595                 :      204235 :   create_integer_operand (&ops[4], align);
    2596                 :      204235 :   if (maybe_expand_insn (icode, 5, ops))
    2597                 :        5718 :     return ops[0].value;
    2598                 :             :   return NULL_RTX;
    2599                 :             : }
    2600                 :             : 
    2601                 :             : /* Expand a block compare between X and Y with length LEN using the
    2602                 :             :    cmpmem optab, placing the result in TARGET.  LEN_TYPE is the type
    2603                 :             :    of the expression that was used to calculate the length.  ALIGN
    2604                 :             :    gives the known minimum common alignment.  */
    2605                 :             : 
    2606                 :             : static rtx
    2607                 :       76641 : emit_block_cmp_via_cmpmem (rtx x, rtx y, rtx len, tree len_type, rtx target,
    2608                 :             :                            unsigned align)
    2609                 :             : {
    2610                 :             :   /* Note: The cmpstrnsi pattern, if it exists, is not suitable for
    2611                 :             :      implementing memcmp because it will stop if it encounters two
    2612                 :             :      zero bytes.  */
    2613                 :       76641 :   insn_code icode = direct_optab_handler (cmpmem_optab, SImode);
    2614                 :             : 
    2615                 :       76641 :   if (icode == CODE_FOR_nothing)
    2616                 :             :     return NULL_RTX;
    2617                 :             : 
    2618                 :       76641 :   return expand_cmpstrn_or_cmpmem (icode, target, x, y, len_type, len, align);
    2619                 :             : }
    2620                 :             : 
    2621                 :             : /* Emit code to compare a block Y to a block X.  This may be done with
    2622                 :             :    string-compare instructions, with multiple scalar instructions,
    2623                 :             :    or with a library call.
    2624                 :             : 
    2625                 :             :    Both X and Y must be MEM rtx's.  LEN is an rtx that says how long
    2626                 :             :    they are.  LEN_TYPE is the type of the expression that was used to
    2627                 :             :    calculate it, and CTZ_LEN is the known trailing-zeros count of LEN,
    2628                 :             :    so LEN must be a multiple of 1<<CTZ_LEN even if it's not constant.
    2629                 :             : 
    2630                 :             :    If EQUALITY_ONLY is true, it means we don't have to return the tri-state
    2631                 :             :    value of a normal memcmp call, instead we can just compare for equality.
    2632                 :             :    If FORCE_LIBCALL is true, we should emit a call to memcmp rather than
    2633                 :             :    returning NULL_RTX.
    2634                 :             : 
    2635                 :             :    Optionally, the caller can pass a constfn and associated data in Y_CFN
    2636                 :             :    and Y_CFN_DATA. describing that the second operand being compared is a
    2637                 :             :    known constant and how to obtain its data.
    2638                 :             :    Return the result of the comparison, or NULL_RTX if we failed to
    2639                 :             :    perform the operation.  */
    2640                 :             : 
    2641                 :             : rtx
    2642                 :      110234 : emit_block_cmp_hints (rtx x, rtx y, rtx len, tree len_type, rtx target,
    2643                 :             :                       bool equality_only, by_pieces_constfn y_cfn,
    2644                 :             :                       void *y_cfndata, unsigned ctz_len)
    2645                 :             : {
    2646                 :      110234 :   rtx result = 0;
    2647                 :             : 
    2648                 :      110234 :   if (CONST_INT_P (len) && INTVAL (len) == 0)
    2649                 :           6 :     return const0_rtx;
    2650                 :             : 
    2651                 :      110228 :   gcc_assert (MEM_P (x) && MEM_P (y));
    2652                 :      110228 :   unsigned int align = MIN (MEM_ALIGN (x), MEM_ALIGN (y));
    2653                 :      110228 :   gcc_assert (align >= BITS_PER_UNIT);
    2654                 :             : 
    2655                 :      110228 :   x = adjust_address (x, BLKmode, 0);
    2656                 :      110228 :   y = adjust_address (y, BLKmode, 0);
    2657                 :             : 
    2658                 :      110228 :   if (equality_only
    2659                 :       56958 :       && CONST_INT_P (len)
    2660                 :      146753 :       && can_do_by_pieces (INTVAL (len), align, COMPARE_BY_PIECES))
    2661                 :       33587 :     result = compare_by_pieces (x, y, INTVAL (len), target, align,
    2662                 :             :                                 y_cfn, y_cfndata);
    2663                 :             :   else
    2664                 :       76641 :     result = emit_block_cmp_via_cmpmem (x, y, len, len_type, target, align);
    2665                 :             : 
    2666                 :      110228 :   if (!result && (flag_inline_stringops & ILSOP_MEMCMP))
    2667                 :         361 :     result = emit_block_cmp_via_loop (x, y, len, len_type,
    2668                 :             :                                       target, equality_only,
    2669                 :             :                                       align, ctz_len);
    2670                 :             : 
    2671                 :             :   return result;
    2672                 :             : }
    2673                 :             : 
    2674                 :             : /* Like emit_block_cmp_hints, but with known alignment and no support
    2675                 :             :    for constats.  Always expand to a loop with iterations that compare
    2676                 :             :    blocks of the largest compare-by-pieces size that divides both len
    2677                 :             :    and align, and then, if !EQUALITY_ONLY, identify the word and then
    2678                 :             :    the unit that first differs to return the result.  */
    2679                 :             : 
    2680                 :             : rtx
    2681                 :         403 : emit_block_cmp_via_loop (rtx x, rtx y, rtx len, tree len_type, rtx target,
    2682                 :             :                          bool equality_only, unsigned align, unsigned ctz_len)
    2683                 :             : {
    2684                 :         403 :   unsigned incr = align / BITS_PER_UNIT;
    2685                 :             : 
    2686                 :         403 :   if (CONST_INT_P (len))
    2687                 :         319 :     ctz_len = MAX (ctz_len, (unsigned) wi::ctz (UINTVAL (len)));
    2688                 :             : 
    2689                 :         403 :   if (HOST_WIDE_INT_1U << ctz_len < (unsigned HOST_WIDE_INT) incr)
    2690                 :         148 :     incr = HOST_WIDE_INT_1U << ctz_len;
    2691                 :             : 
    2692                 :             :   while (incr > 1
    2693                 :         407 :          && !can_do_by_pieces (incr, align, COMPARE_BY_PIECES))
    2694                 :           4 :     incr >>= 1;
    2695                 :             : 
    2696                 :         403 :   rtx_code_label *cmp_label, *top_label, *ne_label, *res_label;
    2697                 :         403 :   rtx iter, x_addr, y_addr, tmp;
    2698                 :         403 :   machine_mode x_addr_mode = get_address_mode (x);
    2699                 :         403 :   machine_mode y_addr_mode = get_address_mode (y);
    2700                 :         403 :   machine_mode iter_mode;
    2701                 :             : 
    2702                 :         403 :   iter_mode = GET_MODE (len);
    2703                 :         403 :   if (iter_mode == VOIDmode)
    2704                 :         319 :     iter_mode = word_mode;
    2705                 :             : 
    2706                 :         403 :   rtx iter_init = const0_rtx;
    2707                 :         403 :   rtx_code iter_cond = LTU;
    2708                 :         403 :   rtx_code entry_cond = GEU;
    2709                 :         403 :   rtx iter_limit = len;
    2710                 :         403 :   rtx iter_incr = GEN_INT (incr);
    2711                 :         403 :   machine_mode cmp_mode;
    2712                 :             : 
    2713                 :             :   /* We can drop the loop back edge if we know there's exactly one
    2714                 :             :      iteration.  */
    2715                 :         403 :   top_label = (!rtx_equal_p (len, iter_incr)
    2716                 :         403 :                ? gen_label_rtx ()
    2717                 :             :                : NULL);
    2718                 :             :   /* We need not test before entering the loop if len is known
    2719                 :             :      nonzero.  ??? This could be even stricter, testing whether a
    2720                 :             :      nonconstant LEN could possibly be zero.  */
    2721                 :         319 :   cmp_label = (!CONSTANT_P (len) || rtx_equal_p (len, iter_init)
    2722                 :         403 :                ? gen_label_rtx ()
    2723                 :             :                : NULL);
    2724                 :         403 :   ne_label = gen_label_rtx ();
    2725                 :         403 :   res_label = gen_label_rtx ();
    2726                 :             : 
    2727                 :         403 :   iter = gen_reg_rtx (iter_mode);
    2728                 :         403 :   emit_move_insn (iter, iter_init);
    2729                 :             : 
    2730                 :         403 :   opt_scalar_int_mode int_cmp_mode
    2731                 :         403 :     = int_mode_for_size (incr * BITS_PER_UNIT, 1);
    2732                 :         403 :   if (!int_cmp_mode.exists (&cmp_mode)
    2733                 :        1206 :       || GET_MODE_BITSIZE (int_cmp_mode.require ()) != incr * BITS_PER_UNIT
    2734                 :         402 :       || !can_compare_p (NE, cmp_mode, ccp_jump))
    2735                 :             :     {
    2736                 :           1 :       cmp_mode = BLKmode;
    2737                 :           1 :       gcc_checking_assert (incr != 1);
    2738                 :             :     }
    2739                 :             : 
    2740                 :             :   /* Save the base addresses.  */
    2741                 :         403 :   x_addr = force_operand (XEXP (x, 0), NULL_RTX);
    2742                 :         403 :   y_addr = force_operand (XEXP (y, 0), NULL_RTX);
    2743                 :         403 :   do_pending_stack_adjust ();
    2744                 :             : 
    2745                 :         403 :   if (cmp_label)
    2746                 :             :     {
    2747                 :          84 :       if (top_label)
    2748                 :          84 :         emit_jump (cmp_label);
    2749                 :             :       else
    2750                 :           0 :         emit_cmp_and_jump_insns (iter, iter_limit, entry_cond,
    2751                 :             :                                  NULL_RTX, iter_mode,
    2752                 :             :                                  true, cmp_label,
    2753                 :           0 :                                  profile_probability::guessed_always ()
    2754                 :             :                                  .apply_scale (1, 10));
    2755                 :             :     }
    2756                 :         403 :   if (top_label)
    2757                 :         386 :     emit_label (top_label);
    2758                 :             : 
    2759                 :             :   /* Offset the base addresses by ITER.  */
    2760                 :         403 :   tmp = convert_modes (x_addr_mode, iter_mode, iter, true);
    2761                 :         403 :   x_addr = simplify_gen_binary (PLUS, x_addr_mode, x_addr, tmp);
    2762                 :             : 
    2763                 :         403 :   if (x_addr_mode != y_addr_mode)
    2764                 :           0 :     tmp = convert_modes (y_addr_mode, iter_mode, iter, true);
    2765                 :         403 :   y_addr = simplify_gen_binary (PLUS, y_addr_mode, y_addr, tmp);
    2766                 :             : 
    2767                 :         403 :   x = change_address (x, cmp_mode, x_addr);
    2768                 :         403 :   y = change_address (y, cmp_mode, y_addr);
    2769                 :             : 
    2770                 :             :   /* Compare one block.  */
    2771                 :         403 :   rtx part_res;
    2772                 :         403 :   if (cmp_mode == BLKmode)
    2773                 :           1 :     part_res = compare_by_pieces (x, y, incr, target, align, 0, 0);
    2774                 :             :   else
    2775                 :         402 :     part_res = expand_binop (cmp_mode, sub_optab, x, y, NULL_RTX,
    2776                 :             :                              true, OPTAB_LIB_WIDEN);
    2777                 :             : 
    2778                 :             :   /* Stop if we found a difference.  */
    2779                 :         806 :   emit_cmp_and_jump_insns (part_res, GEN_INT (0), NE, NULL_RTX,
    2780                 :         403 :                            GET_MODE (part_res), true, ne_label,
    2781                 :         403 :                            profile_probability::guessed_always ()
    2782                 :             :                                 .apply_scale (1, 10));
    2783                 :             : 
    2784                 :             :   /* Increment ITER.  */
    2785                 :         403 :   tmp = expand_simple_binop (iter_mode, PLUS, iter, iter_incr, iter,
    2786                 :             :                              true, OPTAB_LIB_WIDEN);
    2787                 :         403 :   if (tmp != iter)
    2788                 :           0 :     emit_move_insn (iter, tmp);
    2789                 :             : 
    2790                 :         403 :   if (cmp_label)
    2791                 :          84 :     emit_label (cmp_label);
    2792                 :             :   /* Loop until we reach the limit.  */
    2793                 :             : 
    2794                 :         403 :   if (top_label)
    2795                 :         386 :     emit_cmp_and_jump_insns (iter, iter_limit, iter_cond, NULL_RTX, iter_mode,
    2796                 :             :                              true, top_label,
    2797                 :         772 :                              profile_probability::guessed_always ()
    2798                 :             :                              .apply_scale (9, 10));
    2799                 :             : 
    2800                 :             :   /* We got to the end without differences, so the result is zero.  */
    2801                 :         403 :   if (target == NULL_RTX
    2802                 :         403 :       || !REG_P (target) || REGNO (target) < FIRST_PSEUDO_REGISTER)
    2803                 :          49 :     target = gen_reg_rtx (TYPE_MODE (integer_type_node));
    2804                 :             : 
    2805                 :         403 :   emit_move_insn (target, const0_rtx);
    2806                 :         403 :   emit_jump (res_label);
    2807                 :             : 
    2808                 :         403 :   emit_label (ne_label);
    2809                 :             : 
    2810                 :             :   /* Return nonzero, or pinpoint the difference to return the expected
    2811                 :             :      result for non-equality tests.  */
    2812                 :         403 :   if (equality_only)
    2813                 :           0 :     emit_move_insn (target, const1_rtx);
    2814                 :             :   else
    2815                 :             :     {
    2816                 :         403 :       if (incr > UNITS_PER_WORD)
    2817                 :             :         /* ??? Re-compare the block found to be different one word at a
    2818                 :             :            time.  */
    2819                 :           5 :         part_res = emit_block_cmp_via_loop (x, y, GEN_INT (incr), len_type,
    2820                 :             :                                             target, equality_only,
    2821                 :             :                                             BITS_PER_WORD, 0);
    2822                 :         398 :       else if (incr > 1)
    2823                 :             :         /* ??? Re-compare the block found to be different one byte at a
    2824                 :             :            time.  We could do better using part_res, and being careful
    2825                 :             :            about endianness.  */
    2826                 :          37 :         part_res = emit_block_cmp_via_loop (x, y, GEN_INT (incr), len_type,
    2827                 :             :                                             target, equality_only,
    2828                 :             :                                             BITS_PER_UNIT, 0);
    2829                 :        1083 :       else if (known_gt (GET_MODE_BITSIZE (GET_MODE (target)),
    2830                 :             :                          GET_MODE_BITSIZE (cmp_mode)))
    2831                 :         361 :         part_res = expand_binop (GET_MODE (target), sub_optab, x, y, target,
    2832                 :             :                                  true, OPTAB_LIB_WIDEN);
    2833                 :             :       else
    2834                 :             :         {
    2835                 :             :           /* In the odd chance target is QImode, we can't count on
    2836                 :             :              widening subtract to capture the result of the unsigned
    2837                 :             :              compares.  */
    2838                 :           0 :           rtx_code_label *ltu_label;
    2839                 :           0 :           ltu_label = gen_label_rtx ();
    2840                 :           0 :           emit_cmp_and_jump_insns (x, y, LTU, NULL_RTX,
    2841                 :             :                                    cmp_mode, true, ltu_label,
    2842                 :           0 :                                    profile_probability::guessed_always ()
    2843                 :             :                                    .apply_scale (5, 10));
    2844                 :             : 
    2845                 :           0 :           emit_move_insn (target, const1_rtx);
    2846                 :           0 :           emit_jump (res_label);
    2847                 :             : 
    2848                 :           0 :           emit_label (ltu_label);
    2849                 :           0 :           emit_move_insn (target, constm1_rtx);
    2850                 :           0 :           part_res = target;
    2851                 :             :         }
    2852                 :             : 
    2853                 :         403 :       if (target != part_res)
    2854                 :           0 :         convert_move (target, part_res, false);
    2855                 :             :     }
    2856                 :             : 
    2857                 :         403 :   emit_label (res_label);
    2858                 :             : 
    2859                 :         403 :   return target;
    2860                 :             : }
    2861                 :             : 
    2862                 :             : 
    2863                 :             : /* Copy all or part of a value X into registers starting at REGNO.
    2864                 :             :    The number of registers to be filled is NREGS.  */
    2865                 :             : 
    2866                 :             : void
    2867                 :         317 : move_block_to_reg (int regno, rtx x, int nregs, machine_mode mode)
    2868                 :             : {
    2869                 :         317 :   if (nregs == 0)
    2870                 :             :     return;
    2871                 :             : 
    2872                 :         303 :   if (CONSTANT_P (x) && !targetm.legitimate_constant_p (mode, x))
    2873                 :           0 :     x = validize_mem (force_const_mem (mode, x));
    2874                 :             : 
    2875                 :             :   /* See if the machine can do this with a load multiple insn.  */
    2876                 :         303 :   if (targetm.have_load_multiple ())
    2877                 :             :     {
    2878                 :           0 :       rtx_insn *last = get_last_insn ();
    2879                 :           0 :       rtx first = gen_rtx_REG (word_mode, regno);
    2880                 :           0 :       if (rtx_insn *pat = targetm.gen_load_multiple (first, x,
    2881                 :             :                                                      GEN_INT (nregs)))
    2882                 :             :         {
    2883                 :           0 :           emit_insn (pat);
    2884                 :           0 :           return;
    2885                 :             :         }
    2886                 :             :       else
    2887                 :           0 :         delete_insns_since (last);
    2888                 :             :     }
    2889                 :             : 
    2890                 :         606 :   for (int i = 0; i < nregs; i++)
    2891                 :         303 :     emit_move_insn (gen_rtx_REG (word_mode, regno + i),
    2892                 :         303 :                     operand_subword_force (x, i, mode));
    2893                 :             : }
    2894                 :             : 
    2895                 :             : /* Copy all or part of a BLKmode value X out of registers starting at REGNO.
    2896                 :             :    The number of registers to be filled is NREGS.  */
    2897                 :             : 
    2898                 :             : void
    2899                 :        1166 : move_block_from_reg (int regno, rtx x, int nregs)
    2900                 :             : {
    2901                 :        1166 :   if (nregs == 0)
    2902                 :             :     return;
    2903                 :             : 
    2904                 :             :   /* See if the machine can do this with a store multiple insn.  */
    2905                 :        1166 :   if (targetm.have_store_multiple ())
    2906                 :             :     {
    2907                 :           0 :       rtx_insn *last = get_last_insn ();
    2908                 :           0 :       rtx first = gen_rtx_REG (word_mode, regno);
    2909                 :           0 :       if (rtx_insn *pat = targetm.gen_store_multiple (x, first,
    2910                 :             :                                                       GEN_INT (nregs)))
    2911                 :             :         {
    2912                 :           0 :           emit_insn (pat);
    2913                 :           0 :           return;
    2914                 :             :         }
    2915                 :             :       else
    2916                 :           0 :         delete_insns_since (last);
    2917                 :             :     }
    2918                 :             : 
    2919                 :        2332 :   for (int i = 0; i < nregs; i++)
    2920                 :             :     {
    2921                 :        1166 :       rtx tem = operand_subword (x, i, 1, BLKmode);
    2922                 :             : 
    2923                 :        1166 :       gcc_assert (tem);
    2924                 :             : 
    2925                 :        1166 :       emit_move_insn (tem, gen_rtx_REG (word_mode, regno + i));
    2926                 :             :     }
    2927                 :             : }
    2928                 :             : 
    2929                 :             : /* Generate a PARALLEL rtx for a new non-consecutive group of registers from
    2930                 :             :    ORIG, where ORIG is a non-consecutive group of registers represented by
    2931                 :             :    a PARALLEL.  The clone is identical to the original except in that the
    2932                 :             :    original set of registers is replaced by a new set of pseudo registers.
    2933                 :             :    The new set has the same modes as the original set.  */
    2934                 :             : 
    2935                 :             : rtx
    2936                 :        2858 : gen_group_rtx (rtx orig)
    2937                 :             : {
    2938                 :        2858 :   int i, length;
    2939                 :        2858 :   rtx *tmps;
    2940                 :             : 
    2941                 :        2858 :   gcc_assert (GET_CODE (orig) == PARALLEL);
    2942                 :             : 
    2943                 :        2858 :   length = XVECLEN (orig, 0);
    2944                 :        2858 :   tmps = XALLOCAVEC (rtx, length);
    2945                 :             : 
    2946                 :             :   /* Skip a NULL entry in first slot.  */
    2947                 :        2858 :   i = XEXP (XVECEXP (orig, 0, 0), 0) ? 0 : 1;
    2948                 :             : 
    2949                 :        2858 :   if (i)
    2950                 :           0 :     tmps[0] = 0;
    2951                 :             : 
    2952                 :        6995 :   for (; i < length; i++)
    2953                 :             :     {
    2954                 :        4137 :       machine_mode mode = GET_MODE (XEXP (XVECEXP (orig, 0, i), 0));
    2955                 :        4137 :       rtx offset = XEXP (XVECEXP (orig, 0, i), 1);
    2956                 :             : 
    2957                 :        4137 :       tmps[i] = gen_rtx_EXPR_LIST (VOIDmode, gen_reg_rtx (mode), offset);
    2958                 :             :     }
    2959                 :             : 
    2960                 :        2858 :   return gen_rtx_PARALLEL (GET_MODE (orig), gen_rtvec_v (length, tmps));
    2961                 :             : }
    2962                 :             : 
    2963                 :             : /* A subroutine of emit_group_load.  Arguments as for emit_group_load,
    2964                 :             :    except that values are placed in TMPS[i], and must later be moved
    2965                 :             :    into corresponding XEXP (XVECEXP (DST, 0, i), 0) element.  */
    2966                 :             : 
    2967                 :             : static void
    2968                 :      267711 : emit_group_load_1 (rtx *tmps, rtx dst, rtx orig_src, tree type,
    2969                 :             :                    poly_int64 ssize)
    2970                 :             : {
    2971                 :      267714 :   rtx src;
    2972                 :      267714 :   int start, i;
    2973                 :      267714 :   machine_mode m = GET_MODE (orig_src);
    2974                 :             : 
    2975                 :      267714 :   gcc_assert (GET_CODE (dst) == PARALLEL);
    2976                 :             : 
    2977                 :      267714 :   if (m != VOIDmode
    2978                 :      254853 :       && !SCALAR_INT_MODE_P (m)
    2979                 :       17289 :       && !MEM_P (orig_src)
    2980                 :        4231 :       && GET_CODE (orig_src) != CONCAT)
    2981                 :             :     {
    2982                 :           3 :       scalar_int_mode imode;
    2983                 :           3 :       if (int_mode_for_mode (GET_MODE (orig_src)).exists (&imode))
    2984                 :             :         {
    2985                 :           3 :           src = gen_reg_rtx (imode);
    2986                 :           3 :           emit_move_insn (gen_lowpart (GET_MODE (orig_src), src), orig_src);
    2987                 :             :         }
    2988                 :             :       else
    2989                 :             :         {
    2990                 :           0 :           src = assign_stack_temp (GET_MODE (orig_src), ssize);
    2991                 :           0 :           emit_move_insn (src, orig_src);
    2992                 :             :         }
    2993                 :           3 :       emit_group_load_1 (tmps, dst, src, type, ssize);
    2994                 :             :       return;
    2995                 :             :     }
    2996                 :             : 
    2997                 :             :   /* Check for a NULL entry, used to indicate that the parameter goes
    2998                 :             :      both on the stack and in registers.  */
    2999                 :      267711 :   if (XEXP (XVECEXP (dst, 0, 0), 0))
    3000                 :             :     start = 0;
    3001                 :             :   else
    3002                 :           0 :     start = 1;
    3003                 :             : 
    3004                 :             :   /* Process the pieces.  */
    3005                 :      792548 :   for (i = start; i < XVECLEN (dst, 0); i++)
    3006                 :             :     {
    3007                 :      524837 :       machine_mode mode = GET_MODE (XEXP (XVECEXP (dst, 0, i), 0));
    3008                 :      524837 :       poly_int64 bytepos = rtx_to_poly_int64 (XEXP (XVECEXP (dst, 0, i), 1));
    3009                 :     1049674 :       poly_int64 bytelen = GET_MODE_SIZE (mode);
    3010                 :      524837 :       poly_int64 shift = 0;
    3011                 :             : 
    3012                 :             :       /* Handle trailing fragments that run over the size of the struct.
    3013                 :             :          It's the target's responsibility to make sure that the fragment
    3014                 :             :          cannot be strictly smaller in some cases and strictly larger
    3015                 :             :          in others.  */
    3016                 :      524837 :       gcc_checking_assert (ordered_p (bytepos + bytelen, ssize));
    3017                 :      524837 :       if (known_size_p (ssize) && maybe_gt (bytepos + bytelen, ssize))
    3018                 :             :         {
    3019                 :             :           /* Arrange to shift the fragment to where it belongs.
    3020                 :             :              extract_bit_field loads to the lsb of the reg.  */
    3021                 :             :           if (
    3022                 :             : #ifdef BLOCK_REG_PADDING
    3023                 :             :               BLOCK_REG_PADDING (GET_MODE (orig_src), type, i == start)
    3024                 :             :               == (BYTES_BIG_ENDIAN ? PAD_UPWARD : PAD_DOWNWARD)
    3025                 :             : #else
    3026                 :             :               BYTES_BIG_ENDIAN
    3027                 :             : #endif
    3028                 :             :               )
    3029                 :             :             shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
    3030                 :        1767 :           bytelen = ssize - bytepos;
    3031                 :        1767 :           gcc_assert (maybe_gt (bytelen, 0));
    3032                 :             :         }
    3033                 :             : 
    3034                 :             :       /* If we won't be loading directly from memory, protect the real source
    3035                 :             :          from strange tricks we might play; but make sure that the source can
    3036                 :             :          be loaded directly into the destination.  */
    3037                 :      524837 :       src = orig_src;
    3038                 :      524837 :       if (!MEM_P (orig_src)
    3039                 :      437571 :           && (!REG_P (orig_src) || HARD_REGISTER_P (orig_src))
    3040                 :      557004 :           && !CONSTANT_P (orig_src))
    3041                 :             :         {
    3042                 :        6445 :           gcc_assert (GET_MODE (orig_src) != VOIDmode);
    3043                 :        6445 :           src = force_reg (GET_MODE (orig_src), orig_src);
    3044                 :             :         }
    3045                 :             : 
    3046                 :             :       /* Optimize the access just a bit.  */
    3047                 :      524837 :       if (MEM_P (src)
    3048                 :       87266 :           && (! targetm.slow_unaligned_access (mode, MEM_ALIGN (src))
    3049                 :           0 :               || MEM_ALIGN (src) >= GET_MODE_ALIGNMENT (mode))
    3050                 :      174532 :           && multiple_p (bytepos * BITS_PER_UNIT, GET_MODE_ALIGNMENT (mode))
    3051                 :      612103 :           && known_eq (bytelen, GET_MODE_SIZE (mode)))
    3052                 :             :         {
    3053                 :       85518 :           tmps[i] = gen_reg_rtx (mode);
    3054                 :       85518 :           emit_move_insn (tmps[i], adjust_address (src, mode, bytepos));
    3055                 :             :         }
    3056                 :      439319 :       else if (COMPLEX_MODE_P (mode)
    3057                 :           0 :                && GET_MODE (src) == mode
    3058                 :      439319 :                && known_eq (bytelen, GET_MODE_SIZE (mode)))
    3059                 :             :         /* Let emit_move_complex do the bulk of the work.  */
    3060                 :           0 :         tmps[i] = src;
    3061                 :      439319 :       else if (GET_CODE (src) == CONCAT)
    3062                 :             :         {
    3063                 :       12890 :           poly_int64 slen = GET_MODE_SIZE (GET_MODE (src));
    3064                 :       12890 :           poly_int64 slen0 = GET_MODE_SIZE (GET_MODE (XEXP (src, 0)));
    3065                 :        6445 :           unsigned int elt;
    3066                 :        6445 :           poly_int64 subpos;
    3067                 :             : 
    3068                 :        6445 :           if (can_div_trunc_p (bytepos, slen0, &elt, &subpos)
    3069                 :        6445 :               && known_le (subpos + bytelen, slen0))
    3070                 :             :             {
    3071                 :             :               /* The following assumes that the concatenated objects all
    3072                 :             :                  have the same size.  In this case, a simple calculation
    3073                 :             :                  can be used to determine the object and the bit field
    3074                 :             :                  to be extracted.  */
    3075                 :        4434 :               tmps[i] = XEXP (src, elt);
    3076                 :        4434 :               if (maybe_ne (subpos, 0)
    3077                 :        4434 :                   || maybe_ne (subpos + bytelen, slen0)
    3078                 :        8868 :                   || (!CONSTANT_P (tmps[i])
    3079                 :        4434 :                       && (!REG_P (tmps[i]) || GET_MODE (tmps[i]) != mode)))
    3080                 :           0 :                 tmps[i] = extract_bit_field (tmps[i], bytelen * BITS_PER_UNIT,
    3081                 :           0 :                                              subpos * BITS_PER_UNIT,
    3082                 :             :                                              1, NULL_RTX, mode, mode, false,
    3083                 :             :                                              NULL);
    3084                 :             :             }
    3085                 :             :           else
    3086                 :             :             {
    3087                 :        2011 :               rtx mem;
    3088                 :             : 
    3089                 :        2011 :               gcc_assert (known_eq (bytepos, 0));
    3090                 :        2011 :               mem = assign_stack_temp (GET_MODE (src), slen);
    3091                 :        2011 :               emit_move_insn (mem, src);
    3092                 :        2011 :               tmps[i] = extract_bit_field (mem, bytelen * BITS_PER_UNIT,
    3093                 :        2011 :                                            0, 1, NULL_RTX, mode, mode, false,
    3094                 :             :                                            NULL);
    3095                 :             :             }
    3096                 :             :         }
    3097                 :      432874 :       else if (CONSTANT_P (src) && GET_MODE (dst) != BLKmode
    3098                 :       25722 :                && XVECLEN (dst, 0) > 1)
    3099                 :       25722 :         tmps[i] = force_subreg (mode, src, GET_MODE (dst), bytepos);
    3100                 :      407152 :       else if (CONSTANT_P (src))
    3101                 :             :         {
    3102                 :           0 :           if (known_eq (bytelen, ssize))
    3103                 :           0 :             tmps[i] = src;
    3104                 :             :           else
    3105                 :             :             {
    3106                 :             :               rtx first, second;
    3107                 :             : 
    3108                 :             :               /* TODO: const_wide_int can have sizes other than this...  */
    3109                 :           0 :               gcc_assert (known_eq (2 * bytelen, ssize));
    3110                 :           0 :               split_double (src, &first, &second);
    3111                 :           0 :               if (i)
    3112                 :           0 :                 tmps[i] = second;
    3113                 :             :               else
    3114                 :           0 :                 tmps[i] = first;
    3115                 :             :             }
    3116                 :             :         }
    3117                 :      407152 :       else if (REG_P (src) && GET_MODE (src) == mode)
    3118                 :           0 :         tmps[i] = src;
    3119                 :             :       else
    3120                 :      407152 :         tmps[i] = extract_bit_field (src, bytelen * BITS_PER_UNIT,
    3121                 :      407152 :                                      bytepos * BITS_PER_UNIT, 1, NULL_RTX,
    3122                 :             :                                      mode, mode, false, NULL);
    3123                 :             : 
    3124                 :      524837 :       if (maybe_ne (shift, 0))
    3125                 :             :         tmps[i] = expand_shift (LSHIFT_EXPR, mode, tmps[i],
    3126                 :             :                                 shift, tmps[i], 0);
    3127                 :             :     }
    3128                 :             : }
    3129                 :             : 
    3130                 :             : /* Emit code to move a block SRC of type TYPE to a block DST,
    3131                 :             :    where DST is non-consecutive registers represented by a PARALLEL.
    3132                 :             :    SSIZE represents the total size of block ORIG_SRC in bytes, or -1
    3133                 :             :    if not known.  */
    3134                 :             : 
    3135                 :             : void
    3136                 :       10492 : emit_group_load (rtx dst, rtx src, tree type, poly_int64 ssize)
    3137                 :             : {
    3138                 :       10492 :   rtx *tmps;
    3139                 :       10492 :   int i;
    3140                 :             : 
    3141                 :       10492 :   tmps = XALLOCAVEC (rtx, XVECLEN (dst, 0));
    3142                 :       10492 :   emit_group_load_1 (tmps, dst, src, type, ssize);
    3143                 :             : 
    3144                 :             :   /* Copy the extracted pieces into the proper (probable) hard regs.  */
    3145                 :       29582 :   for (i = 0; i < XVECLEN (dst, 0); i++)
    3146                 :             :     {
    3147                 :       19090 :       rtx d = XEXP (XVECEXP (dst, 0, i), 0);
    3148                 :       19090 :       if (d == NULL)
    3149                 :           0 :         continue;
    3150                 :       19090 :       emit_move_insn (d, tmps[i]);
    3151                 :             :     }
    3152                 :       10492 : }
    3153                 :             : 
    3154                 :             : /* Similar, but load SRC into new pseudos in a format that looks like
    3155                 :             :    PARALLEL.  This can later be fed to emit_group_move to get things
    3156                 :             :    in the right place.  */
    3157                 :             : 
    3158                 :             : rtx
    3159                 :      257219 : emit_group_load_into_temps (rtx parallel, rtx src, tree type, poly_int64 ssize)
    3160                 :             : {
    3161                 :      257219 :   rtvec vec;
    3162                 :      257219 :   int i;
    3163                 :             : 
    3164                 :      257219 :   vec = rtvec_alloc (XVECLEN (parallel, 0));
    3165                 :      257219 :   emit_group_load_1 (&RTVEC_ELT (vec, 0), parallel, src, type, ssize);
    3166                 :             : 
    3167                 :             :   /* Convert the vector to look just like the original PARALLEL, except
    3168                 :             :      with the computed values.  */
    3169                 :      762966 :   for (i = 0; i < XVECLEN (parallel, 0); i++)
    3170                 :             :     {
    3171                 :      505747 :       rtx e = XVECEXP (parallel, 0, i);
    3172                 :      505747 :       rtx d = XEXP (e, 0);
    3173                 :             : 
    3174                 :      505747 :       if (d)
    3175                 :             :         {
    3176                 :      505747 :           d = force_reg (GET_MODE (d), RTVEC_ELT (vec, i));
    3177                 :      505747 :           e = alloc_EXPR_LIST (REG_NOTE_KIND (e), d, XEXP (e, 1));
    3178                 :             :         }
    3179                 :      505747 :       RTVEC_ELT (vec, i) = e;
    3180                 :             :     }
    3181                 :             : 
    3182                 :      257219 :   return gen_rtx_PARALLEL (GET_MODE (parallel), vec);
    3183                 :             : }
    3184                 :             : 
    3185                 :             : /* Emit code to move a block SRC to block DST, where SRC and DST are
    3186                 :             :    non-consecutive groups of registers, each represented by a PARALLEL.  */
    3187                 :             : 
    3188                 :             : void
    3189                 :      260077 : emit_group_move (rtx dst, rtx src)
    3190                 :             : {
    3191                 :      260077 :   int i;
    3192                 :             : 
    3193                 :      260077 :   gcc_assert (GET_CODE (src) == PARALLEL
    3194                 :             :               && GET_CODE (dst) == PARALLEL
    3195                 :             :               && XVECLEN (src, 0) == XVECLEN (dst, 0));
    3196                 :             : 
    3197                 :             :   /* Skip first entry if NULL.  */
    3198                 :      769961 :   for (i = XEXP (XVECEXP (src, 0, 0), 0) ? 0 : 1; i < XVECLEN (src, 0); i++)
    3199                 :      509884 :     emit_move_insn (XEXP (XVECEXP (dst, 0, i), 0),
    3200                 :      509884 :                     XEXP (XVECEXP (src, 0, i), 0));
    3201                 :      260077 : }
    3202                 :             : 
    3203                 :             : /* Move a group of registers represented by a PARALLEL into pseudos.  */
    3204                 :             : 
    3205                 :             : rtx
    3206                 :        5054 : emit_group_move_into_temps (rtx src)
    3207                 :             : {
    3208                 :        5054 :   rtvec vec = rtvec_alloc (XVECLEN (src, 0));
    3209                 :        5054 :   int i;
    3210                 :             : 
    3211                 :       12039 :   for (i = 0; i < XVECLEN (src, 0); i++)
    3212                 :             :     {
    3213                 :        6985 :       rtx e = XVECEXP (src, 0, i);
    3214                 :        6985 :       rtx d = XEXP (e, 0);
    3215                 :             : 
    3216                 :        6985 :       if (d)
    3217                 :        6985 :         e = alloc_EXPR_LIST (REG_NOTE_KIND (e), copy_to_reg (d), XEXP (e, 1));
    3218                 :        6985 :       RTVEC_ELT (vec, i) = e;
    3219                 :             :     }
    3220                 :             : 
    3221                 :        5054 :   return gen_rtx_PARALLEL (GET_MODE (src), vec);
    3222                 :             : }
    3223                 :             : 
    3224                 :             : /* Emit code to move a block SRC to a block ORIG_DST of type TYPE,
    3225                 :             :    where SRC is non-consecutive registers represented by a PARALLEL.
    3226                 :             :    SSIZE represents the total size of block ORIG_DST, or -1 if not
    3227                 :             :    known.  */
    3228                 :             : 
    3229                 :             : void
    3230                 :       59842 : emit_group_store (rtx orig_dst, rtx src, tree type ATTRIBUTE_UNUSED,
    3231                 :             :                   poly_int64 ssize)
    3232                 :             : {
    3233                 :       59842 :   rtx *tmps, dst;
    3234                 :       59842 :   int start, finish, i;
    3235                 :       59842 :   machine_mode m = GET_MODE (orig_dst);
    3236                 :             : 
    3237                 :       59842 :   gcc_assert (GET_CODE (src) == PARALLEL);
    3238                 :             : 
    3239                 :       59842 :   if (!SCALAR_INT_MODE_P (m)
    3240                 :       12169 :       && !MEM_P (orig_dst) && GET_CODE (orig_dst) != CONCAT)
    3241                 :             :     {
    3242                 :           0 :       scalar_int_mode imode;
    3243                 :           0 :       if (int_mode_for_mode (GET_MODE (orig_dst)).exists (&imode))
    3244                 :             :         {
    3245                 :           0 :           dst = gen_reg_rtx (imode);
    3246                 :           0 :           emit_group_store (dst, src, type, ssize);
    3247                 :           0 :           dst = gen_lowpart (GET_MODE (orig_dst), dst);
    3248                 :             :         }
    3249                 :             :       else
    3250                 :             :         {
    3251                 :           0 :           dst = assign_stack_temp (GET_MODE (orig_dst), ssize);
    3252                 :           0 :           emit_group_store (dst, src, type, ssize);
    3253                 :             :         }
    3254                 :           0 :       emit_move_insn (orig_dst, dst);
    3255                 :           0 :       return;
    3256                 :             :     }
    3257                 :             : 
    3258                 :             :   /* Check for a NULL entry, used to indicate that the parameter goes
    3259                 :             :      both on the stack and in registers.  */
    3260                 :       59842 :   if (XEXP (XVECEXP (src, 0, 0), 0))
    3261                 :             :     start = 0;
    3262                 :             :   else
    3263                 :           0 :     start = 1;
    3264                 :       59842 :   finish = XVECLEN (src, 0);
    3265                 :             : 
    3266                 :       59842 :   tmps = XALLOCAVEC (rtx, finish);
    3267                 :             : 
    3268                 :             :   /* Copy the (probable) hard regs into pseudos.  */
    3269                 :      172684 :   for (i = start; i < finish; i++)
    3270                 :             :     {
    3271                 :      112842 :       rtx reg = XEXP (XVECEXP (src, 0, i), 0);
    3272                 :      112842 :       if (!REG_P (reg) || REGNO (reg) < FIRST_PSEUDO_REGISTER)
    3273                 :             :         {
    3274                 :      105857 :           tmps[i] = gen_reg_rtx (GET_MODE (reg));
    3275                 :      105857 :           emit_move_insn (tmps[i], reg);
    3276                 :             :         }
    3277                 :             :       else
    3278                 :        6985 :         tmps[i] = reg;
    3279                 :             :     }
    3280                 :             : 
    3281                 :             :   /* If we won't be storing directly into memory, protect the real destination
    3282                 :             :      from strange tricks we might play.  */
    3283                 :       59842 :   dst = orig_dst;
    3284                 :       59842 :   if (GET_CODE (dst) == PARALLEL)
    3285                 :             :     {
    3286                 :           0 :       rtx temp;
    3287                 :             : 
    3288                 :             :       /* We can get a PARALLEL dst if there is a conditional expression in
    3289                 :             :          a return statement.  In that case, the dst and src are the same,
    3290                 :             :          so no action is necessary.  */
    3291                 :           0 :       if (rtx_equal_p (dst, src))
    3292                 :             :         return;
    3293                 :             : 
    3294                 :             :       /* It is unclear if we can ever reach here, but we may as well handle
    3295                 :             :          it.  Allocate a temporary, and split this into a store/load to/from
    3296                 :             :          the temporary.  */
    3297                 :           0 :       temp = assign_stack_temp (GET_MODE (dst), ssize);
    3298                 :           0 :       emit_group_store (temp, src, type, ssize);
    3299                 :           0 :       emit_group_load (dst, temp, type, ssize);
    3300                 :           0 :       return;
    3301                 :             :     }
    3302                 :       59842 :   else if (!MEM_P (dst) && GET_CODE (dst) != CONCAT)
    3303                 :             :     {
    3304                 :       47059 :       machine_mode outer = GET_MODE (dst);
    3305                 :       47059 :       machine_mode inner;
    3306                 :       47059 :       poly_int64 bytepos;
    3307                 :       47059 :       bool done = false;
    3308                 :       47059 :       rtx temp;
    3309                 :             : 
    3310                 :       47059 :       if (!REG_P (dst) || REGNO (dst) < FIRST_PSEUDO_REGISTER)
    3311                 :           0 :         dst = gen_reg_rtx (outer);
    3312                 :             : 
    3313                 :             :       /* Make life a bit easier for combine: if the first element of the
    3314                 :             :          vector is the low part of the destination mode, use a paradoxical
    3315                 :             :          subreg to initialize the destination.  */
    3316                 :       47059 :       if (start < finish)
    3317                 :             :         {
    3318                 :       47059 :           inner = GET_MODE (tmps[start]);
    3319                 :       47059 :           bytepos = subreg_lowpart_offset (inner, outer);
    3320                 :       47059 :           if (known_eq (rtx_to_poly_int64 (XEXP (XVECEXP (src, 0, start), 1)),
    3321                 :             :                         bytepos))
    3322                 :             :             {
    3323                 :       47035 :               temp = force_subreg (outer, tmps[start], inner, 0);
    3324                 :       47035 :               if (temp)
    3325                 :             :                 {
    3326                 :       46390 :                   emit_move_insn (dst, temp);
    3327                 :       46390 :                   done = true;
    3328                 :       46390 :                   start++;
    3329                 :             :                 }
    3330                 :             :             }
    3331                 :             :         }
    3332                 :             : 
    3333                 :             :       /* If the first element wasn't the low part, try the last.  */
    3334                 :       46390 :       if (!done
    3335                 :         669 :           && start < finish - 1)
    3336                 :             :         {
    3337                 :         602 :           inner = GET_MODE (tmps[finish - 1]);
    3338                 :         602 :           bytepos = subreg_lowpart_offset (inner, outer);
    3339                 :         602 :           if (known_eq (rtx_to_poly_int64 (XEXP (XVECEXP (src, 0,
    3340                 :             :                                                           finish - 1), 1)),
    3341                 :             :                         bytepos))
    3342                 :             :             {
    3343                 :           0 :               temp = force_subreg (outer, tmps[finish - 1], inner, 0);
    3344                 :           0 :               if (temp)
    3345                 :             :                 {
    3346                 :           0 :                   emit_move_insn (dst, temp);
    3347                 :           0 :                   done = true;
    3348                 :           0 :                   finish--;
    3349                 :             :                 }
    3350                 :             :             }
    3351                 :             :         }
    3352                 :             : 
    3353                 :             :       /* Otherwise, simply initialize the result to zero.  */
    3354                 :       46390 :       if (!done)
    3355                 :         669 :         emit_move_insn (dst, CONST0_RTX (outer));
    3356                 :             :     }
    3357                 :             : 
    3358                 :             :   /* Process the pieces.  */
    3359                 :      123583 :   for (i = start; i < finish; i++)
    3360                 :             :     {
    3361                 :       66452 :       poly_int64 bytepos = rtx_to_poly_int64 (XEXP (XVECEXP (src, 0, i), 1));
    3362                 :       66452 :       machine_mode mode = GET_MODE (tmps[i]);
    3363                 :      132904 :       poly_int64 bytelen = GET_MODE_SIZE (mode);
    3364                 :       66452 :       poly_uint64 adj_bytelen;
    3365                 :       66452 :       rtx dest = dst;
    3366                 :             : 
    3367                 :             :       /* Handle trailing fragments that run over the size of the struct.
    3368                 :             :          It's the target's responsibility to make sure that the fragment
    3369                 :             :          cannot be strictly smaller in some cases and strictly larger
    3370                 :             :          in others.  */
    3371                 :       66452 :       gcc_checking_assert (ordered_p (bytepos + bytelen, ssize));
    3372                 :      132093 :       if (known_size_p (ssize) && maybe_gt (bytepos + bytelen, ssize))
    3373                 :         811 :         adj_bytelen = ssize - bytepos;
    3374                 :             :       else
    3375                 :       66452 :         adj_bytelen = bytelen;
    3376                 :             : 
    3377                 :             :       /* Deal with destination CONCATs by either storing into one of the parts
    3378                 :             :          or doing a copy after storing into a register or stack temporary.  */
    3379                 :       66452 :       if (GET_CODE (dst) == CONCAT)
    3380                 :             :         {
    3381                 :       24050 :           if (known_le (bytepos + adj_bytelen,
    3382                 :             :                         GET_MODE_SIZE (GET_MODE (XEXP (dst, 0)))))
    3383                 :             :             dest = XEXP (dst, 0);
    3384                 :             : 
    3385                 :       14736 :           else if (known_ge (bytepos, GET_MODE_SIZE (GET_MODE (XEXP (dst, 0)))))
    3386                 :             :             {
    3387                 :        9314 :               bytepos -= GET_MODE_SIZE (GET_MODE (XEXP (dst, 0)));
    3388                 :        4657 :               dest = XEXP (dst, 1);
    3389                 :             :             }
    3390                 :             : 
    3391                 :             :           else
    3392                 :             :             {
    3393                 :        2711 :               machine_mode dest_mode = GET_MODE (dest);
    3394                 :        2711 :               machine_mode tmp_mode = GET_MODE (tmps[i]);
    3395                 :        2711 :               scalar_int_mode dest_imode;
    3396                 :             : 
    3397                 :        2711 :               gcc_assert (known_eq (bytepos, 0) && XVECLEN (src, 0));
    3398                 :             : 
    3399                 :             :               /* If the source is a single scalar integer register, and the
    3400                 :             :                  destination has a complex mode for which a same-sized integer
    3401                 :             :                  mode exists, then we can take the left-justified part of the
    3402                 :             :                  source in the complex mode.  */
    3403                 :        2711 :               if (finish == start + 1
    3404                 :        2711 :                   && REG_P (tmps[i])
    3405                 :        2711 :                   && SCALAR_INT_MODE_P (tmp_mode)
    3406                 :        2711 :                   && COMPLEX_MODE_P (dest_mode)
    3407                 :        5422 :                   && int_mode_for_mode (dest_mode).exists (&dest_imode))
    3408                 :             :                 {
    3409                 :        2711 :                   const scalar_int_mode tmp_imode
    3410                 :        2711 :                     = as_a <scalar_int_mode> (tmp_mode);
    3411                 :             : 
    3412                 :        5422 :                   if (GET_MODE_BITSIZE (dest_imode)
    3413                 :        2711 :                       < GET_MODE_BITSIZE (tmp_imode))
    3414                 :             :                     {
    3415                 :          59 :                       dest = gen_reg_rtx (dest_imode);
    3416                 :          59 :                       if (BYTES_BIG_ENDIAN)
    3417                 :             :                         tmps[i] = expand_shift (RSHIFT_EXPR, tmp_mode, tmps[i],
    3418                 :             :                                                 GET_MODE_BITSIZE (tmp_imode)
    3419                 :             :                                                 - GET_MODE_BITSIZE (dest_imode),
    3420                 :             :                                                 NULL_RTX, 1);
    3421                 :          59 :                       emit_move_insn (dest, gen_lowpart (dest_imode, tmps[i]));
    3422                 :          59 :                       dst = gen_lowpart (dest_mode, dest);
    3423                 :             :                     }
    3424                 :             :                   else
    3425                 :        2652 :                     dst = gen_lowpart (dest_mode, tmps[i]);
    3426                 :             :                 }
    3427                 :             : 
    3428                 :             :               /* Otherwise spill the source onto the stack using the more
    3429                 :             :                  aligned of the two modes.  */
    3430                 :           0 :               else if (GET_MODE_ALIGNMENT (dest_mode)
    3431                 :           0 :                        >= GET_MODE_ALIGNMENT (tmp_mode))
    3432                 :             :                 {
    3433                 :           0 :                   dest = assign_stack_temp (dest_mode,
    3434                 :           0 :                                             GET_MODE_SIZE (dest_mode));
    3435                 :           0 :                   emit_move_insn (adjust_address (dest, tmp_mode, bytepos),
    3436                 :             :                                   tmps[i]);
    3437                 :           0 :                   dst = dest;
    3438                 :             :                 }
    3439                 :             : 
    3440                 :             :               else
    3441                 :             :                 {
    3442                 :           0 :                   dest = assign_stack_temp (tmp_mode,
    3443                 :           0 :                                             GET_MODE_SIZE (tmp_mode));
    3444                 :           0 :                   emit_move_insn (dest, tmps[i]);
    3445                 :           0 :                   dst = adjust_address (dest, dest_mode, bytepos);
    3446                 :             :                 }
    3447                 :             : 
    3448                 :             :               break;
    3449                 :             :             }
    3450                 :             :         }
    3451                 :             : 
    3452                 :             :       /* Handle trailing fragments that run over the size of the struct.  */
    3453                 :       63741 :       if (known_size_p (ssize) && maybe_gt (bytepos + bytelen, ssize))
    3454                 :             :         {
    3455                 :             :           /* store_bit_field always takes its value from the lsb.
    3456                 :             :              Move the fragment to the lsb if it's not already there.  */
    3457                 :         752 :           if (
    3458                 :             : #ifdef BLOCK_REG_PADDING
    3459                 :             :               BLOCK_REG_PADDING (GET_MODE (orig_dst), type, i == start)
    3460                 :             :               == (BYTES_BIG_ENDIAN ? PAD_UPWARD : PAD_DOWNWARD)
    3461                 :             : #else
    3462                 :             :               BYTES_BIG_ENDIAN
    3463                 :             : #endif
    3464                 :             :               )
    3465                 :             :             {
    3466                 :             :               poly_int64 shift = (bytelen - (ssize - bytepos)) * BITS_PER_UNIT;
    3467                 :             :               tmps[i] = expand_shift (RSHIFT_EXPR, mode, tmps[i],
    3468                 :             :                                       shift, tmps[i], 0);
    3469                 :             :             }
    3470                 :             : 
    3471                 :             :           /* Make sure not to write past the end of the struct.  */
    3472                 :        2256 :           store_bit_field (dest,
    3473                 :         752 :                            adj_bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
    3474                 :        1504 :                            bytepos * BITS_PER_UNIT, ssize * BITS_PER_UNIT - 1,
    3475                 :             :                            VOIDmode, tmps[i], false, false);
    3476                 :             :         }
    3477                 :             : 
    3478                 :             :       /* Optimize the access just a bit.  */
    3479                 :       62989 :       else if (MEM_P (dest)
    3480                 :        6843 :                && (!targetm.slow_unaligned_access (mode, MEM_ALIGN (dest))
    3481                 :           0 :                    || MEM_ALIGN (dest) >= GET_MODE_ALIGNMENT (mode))
    3482                 :       13686 :                && multiple_p (bytepos * BITS_PER_UNIT,
    3483                 :             :                               GET_MODE_ALIGNMENT (mode))
    3484                 :       69832 :                && known_eq (bytelen, GET_MODE_SIZE (mode)))
    3485                 :        6843 :         emit_move_insn (adjust_address (dest, mode, bytepos), tmps[i]);
    3486                 :             : 
    3487                 :             :       else
    3488                 :       56146 :         store_bit_field (dest, bytelen * BITS_PER_UNIT, bytepos * BITS_PER_UNIT,
    3489                 :       56146 :                          0, 0, mode, tmps[i], false, false);
    3490                 :             :     }
    3491                 :             : 
    3492                 :             :   /* Copy from the pseudo into the (probable) hard reg.  */
    3493                 :       59842 :   if (orig_dst != dst)
    3494                 :        2711 :     emit_move_insn (orig_dst, dst);
    3495                 :             : }
    3496                 :             : 
    3497                 :             : /* Return a form of X that does not use a PARALLEL.  TYPE is the type
    3498                 :             :    of the value stored in X.  */
    3499                 :             : 
    3500                 :             : rtx
    3501                 :      325614 : maybe_emit_group_store (rtx x, tree type)
    3502                 :             : {
    3503                 :      325614 :   machine_mode mode = TYPE_MODE (type);
    3504                 :      325614 :   gcc_checking_assert (GET_MODE (x) == VOIDmode || GET_MODE (x) == mode);
    3505                 :      325614 :   if (GET_CODE (x) == PARALLEL)
    3506                 :             :     {
    3507                 :           0 :       rtx result = gen_reg_rtx (mode);
    3508                 :           0 :       emit_group_store (result, x, type, int_size_in_bytes (type));
    3509                 :           0 :       return result;
    3510                 :             :     }
    3511                 :             :   return x;
    3512                 :             : }
    3513                 :             : 
    3514                 :             : /* Copy a BLKmode object of TYPE out of a register SRCREG into TARGET.
    3515                 :             : 
    3516                 :             :    This is used on targets that return BLKmode values in registers.  */
    3517                 :             : 
    3518                 :             : static void
    3519                 :         251 : copy_blkmode_from_reg (rtx target, rtx srcreg, tree type)
    3520                 :             : {
    3521                 :         251 :   unsigned HOST_WIDE_INT bytes = int_size_in_bytes (type);
    3522                 :         251 :   rtx src = NULL, dst = NULL;
    3523                 :         251 :   unsigned HOST_WIDE_INT bitsize = MIN (TYPE_ALIGN (type), BITS_PER_WORD);
    3524                 :         251 :   unsigned HOST_WIDE_INT bitpos, xbitpos, padding_correction = 0;
    3525                 :             :   /* No current ABI uses variable-sized modes to pass a BLKmnode type.  */
    3526                 :         251 :   fixed_size_mode mode = as_a <fixed_size_mode> (GET_MODE (srcreg));
    3527                 :         251 :   fixed_size_mode tmode = as_a <fixed_size_mode> (GET_MODE (target));
    3528                 :         251 :   fixed_size_mode copy_mode;
    3529                 :             : 
    3530                 :             :   /* BLKmode registers created in the back-end shouldn't have survived.  */
    3531                 :         251 :   gcc_assert (mode != BLKmode);
    3532                 :             : 
    3533                 :             :   /* If the structure doesn't take up a whole number of words, see whether
    3534                 :             :      SRCREG is padded on the left or on the right.  If it's on the left,
    3535                 :             :      set PADDING_CORRECTION to the number of bits to skip.
    3536                 :             : 
    3537                 :             :      In most ABIs, the structure will be returned at the least end of
    3538                 :             :      the register, which translates to right padding on little-endian
    3539                 :             :      targets and left padding on big-endian targets.  The opposite
    3540                 :             :      holds if the structure is returned at the most significant
    3541                 :             :      end of the register.  */
    3542                 :         251 :   if (bytes % UNITS_PER_WORD != 0
    3543                 :         251 :       && (targetm.calls.return_in_msb (type)
    3544                 :         217 :           ? !BYTES_BIG_ENDIAN
    3545                 :             :           : BYTES_BIG_ENDIAN))
    3546                 :           0 :     padding_correction
    3547                 :           0 :       = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD) * BITS_PER_UNIT));
    3548                 :             : 
    3549                 :             :   /* We can use a single move if we have an exact mode for the size.  */
    3550                 :         251 :   else if (MEM_P (target)
    3551                 :         251 :            && (!targetm.slow_unaligned_access (mode, MEM_ALIGN (target))
    3552                 :           0 :                || MEM_ALIGN (target) >= GET_MODE_ALIGNMENT (mode))
    3553                 :         502 :            && bytes == GET_MODE_SIZE (mode))
    3554                 :             :   {
    3555                 :          41 :     emit_move_insn (adjust_address (target, mode, 0), srcreg);
    3556                 :          41 :     return;
    3557                 :             :   }
    3558                 :             : 
    3559                 :             :   /* And if we additionally have the same mode for a register.  */
    3560                 :         210 :   else if (REG_P (target)
    3561                 :           0 :            && GET_MODE (target) == mode
    3562                 :         210 :            && bytes == GET_MODE_SIZE (mode))
    3563                 :             :   {
    3564                 :           0 :     emit_move_insn (target, srcreg);
    3565                 :           0 :     return;
    3566                 :             :   }
    3567                 :             : 
    3568                 :             :   /* This code assumes srcreg is at least a full word.  If it isn't, copy it
    3569                 :             :      into a new pseudo which is a full word.  */
    3570                 :         420 :   if (GET_MODE_SIZE (mode) < UNITS_PER_WORD)
    3571                 :             :     {
    3572                 :          77 :       srcreg = convert_to_mode (word_mode, srcreg, TYPE_UNSIGNED (type));
    3573                 :          77 :       mode = word_mode;
    3574                 :             :     }
    3575                 :             : 
    3576                 :             :   /* Copy the structure BITSIZE bits at a time.  If the target lives in
    3577                 :             :      memory, take care of not reading/writing past its end by selecting
    3578                 :             :      a copy mode suited to BITSIZE.  This should always be possible given
    3579                 :             :      how it is computed.
    3580                 :             : 
    3581                 :             :      If the target lives in register, make sure not to select a copy mode
    3582                 :             :      larger than the mode of the register.
    3583                 :             : 
    3584                 :             :      We could probably emit more efficient code for machines which do not use
    3585                 :             :      strict alignment, but it doesn't seem worth the effort at the current
    3586                 :             :      time.  */
    3587                 :             : 
    3588                 :         210 :   copy_mode = word_mode;
    3589                 :         210 :   if (MEM_P (target))
    3590                 :             :     {
    3591                 :         210 :       opt_scalar_int_mode mem_mode = int_mode_for_size (bitsize, 1);
    3592                 :         210 :       if (mem_mode.exists ())
    3593                 :         210 :         copy_mode = mem_mode.require ();
    3594                 :             :     }
    3595                 :           0 :   else if (REG_P (target) && GET_MODE_BITSIZE (tmode) < BITS_PER_WORD)
    3596                 :             :     copy_mode = tmode;
    3597                 :             : 
    3598                 :         210 :   for (bitpos = 0, xbitpos = padding_correction;
    3599                 :        1029 :        bitpos < bytes * BITS_PER_UNIT;
    3600                 :         819 :        bitpos += bitsize, xbitpos += bitsize)
    3601                 :             :     {
    3602                 :             :       /* We need a new source operand each time xbitpos is on a
    3603                 :             :          word boundary and when xbitpos == padding_correction
    3604                 :             :          (the first time through).  */
    3605                 :         819 :       if (xbitpos % BITS_PER_WORD == 0 || xbitpos == padding_correction)
    3606                 :         210 :         src = operand_subword_force (srcreg, xbitpos / BITS_PER_WORD, mode);
    3607                 :             : 
    3608                 :             :       /* We need a new destination operand each time bitpos is on
    3609                 :             :          a word boundary.  */
    3610                 :         819 :       if (REG_P (target) && GET_MODE_BITSIZE (tmode) < BITS_PER_WORD)
    3611                 :             :         dst = target;
    3612                 :         819 :       else if (bitpos % BITS_PER_WORD == 0)
    3613                 :         210 :         dst = operand_subword (target, bitpos / BITS_PER_WORD, 1, tmode);
    3614                 :             : 
    3615                 :             :       /* Use xbitpos for the source extraction (right justified) and
    3616                 :             :          bitpos for the destination store (left justified).  */
    3617                 :         819 :       store_bit_field (dst, bitsize, bitpos % BITS_PER_WORD, 0, 0, copy_mode,
    3618                 :         819 :                        extract_bit_field (src, bitsize,
    3619                 :         819 :                                           xbitpos % BITS_PER_WORD, 1,
    3620                 :             :                                           NULL_RTX, copy_mode, copy_mode,
    3621                 :             :                                           false, NULL),
    3622                 :             :                        false, false);
    3623                 :             :     }
    3624                 :             : }
    3625                 :             : 
    3626                 :             : /* Copy BLKmode value SRC into a register of mode MODE_IN.  Return the
    3627                 :             :    register if it contains any data, otherwise return null.
    3628                 :             : 
    3629                 :             :    This is used on targets that return BLKmode values in registers.  */
    3630                 :             : 
    3631                 :             : rtx
    3632                 :        3225 : copy_blkmode_to_reg (machine_mode mode_in, tree src)
    3633                 :             : {
    3634                 :        3225 :   int i, n_regs;
    3635                 :        3225 :   unsigned HOST_WIDE_INT bitpos, xbitpos, padding_correction = 0, bytes;
    3636                 :        3225 :   unsigned int bitsize;
    3637                 :        3225 :   rtx *dst_words, dst, x, src_word = NULL_RTX, dst_word = NULL_RTX;
    3638                 :             :   /* No current ABI uses variable-sized modes to pass a BLKmnode type.  */
    3639                 :        3225 :   fixed_size_mode mode = as_a <fixed_size_mode> (mode_in);
    3640                 :        3225 :   fixed_size_mode dst_mode;
    3641                 :        3225 :   scalar_int_mode min_mode;
    3642                 :             : 
    3643                 :        3225 :   gcc_assert (TYPE_MODE (TREE_TYPE (src)) == BLKmode);
    3644                 :             : 
    3645                 :        3225 :   x = expand_normal (src);
    3646                 :             : 
    3647                 :        3225 :   bytes = arg_int_size_in_bytes (TREE_TYPE (src));
    3648                 :        3225 :   if (bytes == 0)
    3649                 :             :     return NULL_RTX;
    3650                 :             : 
    3651                 :             :   /* If the structure doesn't take up a whole number of words, see
    3652                 :             :      whether the register value should be padded on the left or on
    3653                 :             :      the right.  Set PADDING_CORRECTION to the number of padding
    3654                 :             :      bits needed on the left side.
    3655                 :             : 
    3656                 :             :      In most ABIs, the structure will be returned at the least end of
    3657                 :             :      the register, which translates to right padding on little-endian
    3658                 :             :      targets and left padding on big-endian targets.  The opposite
    3659                 :             :      holds if the structure is returned at the most significant
    3660                 :             :      end of the register.  */
    3661                 :        1220 :   if (bytes % UNITS_PER_WORD != 0
    3662                 :        1220 :       && (targetm.calls.return_in_msb (TREE_TYPE (src))
    3663                 :        1185 :           ? !BYTES_BIG_ENDIAN
    3664                 :             :           : BYTES_BIG_ENDIAN))
    3665                 :           0 :     padding_correction = (BITS_PER_WORD - ((bytes % UNITS_PER_WORD)
    3666                 :           0 :                                            * BITS_PER_UNIT));
    3667                 :             : 
    3668                 :        1220 :   n_regs = (bytes + UNITS_PER_WORD - 1) / UNITS_PER_WORD;
    3669                 :        1220 :   dst_words = XALLOCAVEC (rtx, n_regs);
    3670                 :        1220 :   bitsize = MIN (TYPE_ALIGN (TREE_TYPE (src)), BITS_PER_WORD);
    3671                 :        1220 :   min_mode = smallest_int_mode_for_size (bitsize).require ();
    3672                 :             : 
    3673                 :             :   /* Copy the structure BITSIZE bits at a time.  */
    3674                 :        1220 :   for (bitpos = 0, xbitpos = padding_correction;
    3675                 :        3963 :        bitpos < bytes * BITS_PER_UNIT;
    3676                 :        2743 :        bitpos += bitsize, xbitpos += bitsize)
    3677                 :             :     {
    3678                 :             :       /* We need a new destination pseudo each time xbitpos is
    3679                 :             :          on a word boundary and when xbitpos == padding_correction
    3680                 :             :          (the first time through).  */
    3681                 :        2743 :       if (xbitpos % BITS_PER_WORD == 0
    3682                 :        1520 :           || xbitpos == padding_correction)
    3683                 :             :         {
    3684                 :             :           /* Generate an appropriate register.  */
    3685                 :        1223 :           dst_word = gen_reg_rtx (word_mode);
    3686                 :        1223 :           dst_words[xbitpos / BITS_PER_WORD] = dst_word;
    3687                 :             : 
    3688                 :             :           /* Clear the destination before we move anything into it.  */
    3689                 :        1223 :           emit_move_insn (dst_word, CONST0_RTX (word_mode));
    3690                 :             :         }
    3691                 :             : 
    3692                 :             :       /* Find the largest integer mode that can be used to copy all or as
    3693                 :             :          many bits as possible of the structure if the target supports larger
    3694                 :             :          copies.  There are too many corner cases here w.r.t to alignments on
    3695                 :             :          the read/writes.  So if there is any padding just use single byte
    3696                 :             :          operations.  */
    3697                 :        2743 :       opt_scalar_int_mode mode_iter;
    3698                 :        2743 :       if (padding_correction == 0 && !STRICT_ALIGNMENT)
    3699                 :             :         {
    3700                 :        7467 :           FOR_EACH_MODE_FROM (mode_iter, min_mode)
    3701                 :             :             {
    3702                 :        7467 :               unsigned int msize = GET_MODE_BITSIZE (mode_iter.require ());
    3703                 :        7467 :               if (msize <= ((bytes * BITS_PER_UNIT) - bitpos)
    3704                 :        4727 :                   && msize <= BITS_PER_WORD)
    3705                 :        4724 :                 bitsize = msize;
    3706                 :             :               else
    3707                 :             :                 break;
    3708                 :             :             }
    3709                 :             :         }
    3710                 :             : 
    3711                 :             :       /* We need a new source operand each time bitpos is on a word
    3712                 :             :          boundary.  */
    3713                 :        2743 :       if (bitpos % BITS_PER_WORD == 0)
    3714                 :        1223 :         src_word = operand_subword_force (x, bitpos / BITS_PER_WORD, BLKmode);
    3715                 :             : 
    3716                 :             :       /* Use bitpos for the source extraction (left justified) and
    3717                 :             :          xbitpos for the destination store (right justified).  */
    3718                 :        2743 :       store_bit_field (dst_word, bitsize, xbitpos % BITS_PER_WORD,
    3719                 :        2743 :                        0, 0, word_mode,
    3720                 :        2743 :                        extract_bit_field (src_word, bitsize,
    3721                 :        2743 :                                           bitpos % BITS_PER_WORD, 1,
    3722                 :             :                                           NULL_RTX, word_mode, word_mode,
    3723                 :             :                                           false, NULL),
    3724                 :             :                        false, false);
    3725                 :             :     }
    3726                 :             : 
    3727                 :        1220 :   if (mode == BLKmode)
    3728                 :             :     {
    3729                 :             :       /* Find the smallest integer mode large enough to hold the
    3730                 :             :          entire structure.  */
    3731                 :           0 :       opt_scalar_int_mode mode_iter;
    3732                 :           0 :       FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
    3733                 :           0 :         if (GET_MODE_SIZE (mode_iter.require ()) >= bytes)
    3734                 :             :           break;
    3735                 :             : 
    3736                 :             :       /* A suitable mode should have been found.  */
    3737                 :           0 :       mode = mode_iter.require ();
    3738                 :             :     }
    3739                 :             : 
    3740                 :        3660 :   if (GET_MODE_SIZE (mode) < GET_MODE_SIZE (word_mode))
    3741                 :             :     dst_mode = word_mode;
    3742                 :             :   else
    3743                 :         494 :     dst_mode = mode;
    3744                 :        1220 :   dst = gen_reg_rtx (dst_mode);
    3745                 :             : 
    3746                 :        3663 :   for (i = 0; i < n_regs; i++)
    3747                 :        1223 :     emit_move_insn (operand_subword (dst, i, 0, dst_mode), dst_words[i]);
    3748                 :             : 
    3749                 :        1220 :   if (mode != dst_mode)
    3750                 :         726 :     dst = gen_lowpart (mode, dst);
    3751                 :             : 
    3752                 :             :   return dst;
    3753                 :             : }
    3754                 :             : 
    3755                 :             : /* Add a USE expression for REG to the (possibly empty) list pointed
    3756                 :             :    to by CALL_FUSAGE.  REG must denote a hard register.  */
    3757                 :             : 
    3758                 :             : void
    3759                 :    10717277 : use_reg_mode (rtx *call_fusage, rtx reg, machine_mode mode)
    3760                 :             : {
    3761                 :    10717277 :   gcc_assert (REG_P (reg));
    3762                 :             : 
    3763                 :    10717277 :   if (!HARD_REGISTER_P (reg))
    3764                 :             :     return;
    3765                 :             : 
    3766                 :    10717277 :   *call_fusage
    3767                 :    10717277 :     = gen_rtx_EXPR_LIST (mode, gen_rtx_USE (VOIDmode, reg), *call_fusage);
    3768                 :             : }
    3769                 :             : 
    3770                 :             : /* Add a CLOBBER expression for REG to the (possibly empty) list pointed
    3771                 :             :    to by CALL_FUSAGE.  REG must denote a hard register.  */
    3772                 :             : 
    3773                 :             : void
    3774                 :      797463 : clobber_reg_mode (rtx *call_fusage, rtx reg, machine_mode mode)
    3775                 :             : {
    3776                 :      797463 :   gcc_assert (REG_P (reg) && REGNO (reg) < FIRST_PSEUDO_REGISTER);
    3777                 :             : 
    3778                 :      797463 :   *call_fusage
    3779                 :      797463 :     = gen_rtx_EXPR_LIST (mode, gen_rtx_CLOBBER (VOIDmode, reg), *call_fusage);
    3780                 :      797463 : }
    3781                 :             : 
    3782                 :             : /* Add USE expressions to *CALL_FUSAGE for each of NREGS consecutive regs,
    3783                 :             :    starting at REGNO.  All of these registers must be hard registers.  */
    3784                 :             : 
    3785                 :             : void
    3786                 :        1574 : use_regs (rtx *call_fusage, int regno, int nregs)
    3787                 :             : {
    3788                 :        1574 :   int i;
    3789                 :             : 
    3790                 :        1574 :   gcc_assert (regno + nregs <= FIRST_PSEUDO_REGISTER);
    3791                 :             : 
    3792                 :        3148 :   for (i = 0; i < nregs; i++)
    3793                 :        1574 :     use_reg (call_fusage, regno_reg_rtx[regno + i]);
    3794                 :        1574 : }
    3795                 :             : 
    3796                 :             : /* Add USE expressions to *CALL_FUSAGE for each REG contained in the
    3797                 :             :    PARALLEL REGS.  This is for calls that pass values in multiple
    3798                 :             :    non-contiguous locations.  The Irix 6 ABI has examples of this.  */
    3799                 :             : 
    3800                 :             : void
    3801                 :      264225 : use_group_regs (rtx *call_fusage, rtx regs)
    3802                 :             : {
    3803                 :      264225 :   int i;
    3804                 :             : 
    3805                 :      783984 :   for (i = 0; i < XVECLEN (regs, 0); i++)
    3806                 :             :     {
    3807                 :      519759 :       rtx reg = XEXP (XVECEXP (regs, 0, i), 0);
    3808                 :             : 
    3809                 :             :       /* A NULL entry means the parameter goes both on the stack and in
    3810                 :             :          registers.  This can also be a MEM for targets that pass values
    3811                 :             :          partially on the stack and partially in registers.  */
    3812                 :      519759 :       if (reg != 0 && REG_P (reg))
    3813                 :      519759 :         use_reg (call_fusage, reg);
    3814                 :             :     }
    3815                 :      264225 : }
    3816                 :             : 
    3817                 :             : /* Return the defining gimple statement for SSA_NAME NAME if it is an
    3818                 :             :    assigment and the code of the expresion on the RHS is CODE.  Return
    3819                 :             :    NULL otherwise.  */
    3820                 :             : 
    3821                 :             : static gimple *
    3822                 :    10582671 : get_def_for_expr (tree name, enum tree_code code)
    3823                 :             : {
    3824                 :    10582671 :   gimple *def_stmt;
    3825                 :             : 
    3826                 :    10582671 :   if (TREE_CODE (name) != SSA_NAME)
    3827                 :             :     return NULL;
    3828                 :             : 
    3829                 :     8404303 :   def_stmt = get_gimple_for_ssa_name (name);
    3830                 :     8404303 :   if (!def_stmt
    3831                 :     1831975 :       || !is_gimple_assign (def_stmt)
    3832                 :    10235003 :       || gimple_assign_rhs_code (def_stmt) != code)
    3833                 :             :     return NULL;
    3834                 :             : 
    3835                 :             :   return def_stmt;
    3836                 :             : }
    3837                 :             : 
    3838                 :             : /* Return the defining gimple statement for SSA_NAME NAME if it is an
    3839                 :             :    assigment and the class of the expresion on the RHS is CLASS.  Return
    3840                 :             :    NULL otherwise.  */
    3841                 :             : 
    3842                 :             : static gimple *
    3843                 :       15784 : get_def_for_expr_class (tree name, enum tree_code_class tclass)
    3844                 :             : {
    3845                 :       15784 :   gimple *def_stmt;
    3846                 :             : 
    3847                 :       15784 :   if (TREE_CODE (name) != SSA_NAME)
    3848                 :             :     return NULL;
    3849                 :             : 
    3850                 :       15784 :   def_stmt = get_gimple_for_ssa_name (name);
    3851                 :       15784 :   if (!def_stmt
    3852                 :       13672 :       || !is_gimple_assign (def_stmt)
    3853                 :       29456 :       || TREE_CODE_CLASS (gimple_assign_rhs_code (def_stmt)) != tclass)
    3854                 :             :     return NULL;
    3855                 :             : 
    3856                 :             :   return def_stmt;
    3857                 :             : }
    3858                 :             : 
    3859                 :             : /* Write zeros through the storage of OBJECT.  If OBJECT has BLKmode, SIZE is
    3860                 :             :    its length in bytes.  */
    3861                 :             : 
    3862                 :             : rtx
    3863                 :      123730 : clear_storage_hints (rtx object, rtx size, enum block_op_methods method,
    3864                 :             :                      unsigned int expected_align, HOST_WIDE_INT expected_size,
    3865                 :             :                      unsigned HOST_WIDE_INT min_size,
    3866                 :             :                      unsigned HOST_WIDE_INT max_size,
    3867                 :             :                      unsigned HOST_WIDE_INT probable_max_size,
    3868                 :             :                      unsigned ctz_size)
    3869                 :             : {
    3870                 :      123730 :   machine_mode mode = GET_MODE (object);
    3871                 :      123730 :   unsigned int align;
    3872                 :             : 
    3873                 :      123730 :   gcc_assert (method == BLOCK_OP_NORMAL || method == BLOCK_OP_TAILCALL);
    3874                 :             : 
    3875                 :             :   /* If OBJECT is not BLKmode and SIZE is the same size as its mode,
    3876                 :             :      just move a zero.  Otherwise, do this a piece at a time.  */
    3877                 :      123730 :   poly_int64 size_val;
    3878                 :      123730 :   if (mode != BLKmode
    3879                 :       53764 :       && poly_int_rtx_p (size, &size_val)
    3880                 :      177494 :       && known_eq (size_val, GET_MODE_SIZE (mode)))
    3881                 :             :     {
    3882                 :       53764 :       rtx zero = CONST0_RTX (mode);
    3883                 :       53764 :       if (zero != NULL)
    3884                 :             :         {
    3885                 :       53764 :           emit_move_insn (object, zero);
    3886                 :       53764 :           return NULL;
    3887                 :             :         }
    3888                 :             : 
    3889                 :           0 :       if (COMPLEX_MODE_P (mode))
    3890                 :             :         {
    3891                 :           0 :           zero = CONST0_RTX (GET_MODE_INNER (mode));
    3892                 :           0 :           if (zero != NULL)
    3893                 :             :             {
    3894                 :           0 :               write_complex_part (object, zero, 0, true);
    3895                 :           0 :               write_complex_part (object, zero, 1, false);
    3896                 :           0 :               return NULL;
    3897                 :             :             }
    3898                 :             :         }
    3899                 :             :     }
    3900                 :             : 
    3901                 :       69966 :   if (size == const0_rtx)
    3902                 :             :     return NULL;
    3903                 :             : 
    3904                 :       69966 :   align = MEM_ALIGN (object);
    3905                 :             : 
    3906                 :       69966 :   if (CONST_INT_P (size)
    3907                 :      133474 :       && targetm.use_by_pieces_infrastructure_p (INTVAL (size), align,
    3908                 :             :                                                  CLEAR_BY_PIECES,
    3909                 :       63508 :                                                  optimize_insn_for_speed_p ()))
    3910                 :       44690 :     clear_by_pieces (object, INTVAL (size), align);
    3911                 :       25276 :   else if (set_storage_via_setmem (object, size, const0_rtx, align,
    3912                 :             :                                    expected_align, expected_size,
    3913                 :             :                                    min_size, max_size, probable_max_size))
    3914                 :             :     ;
    3915                 :        5296 :   else if (try_store_by_multiple_pieces (object, size, ctz_size,
    3916                 :             :                                          min_size, max_size,
    3917                 :             :                                          NULL_RTX, 0, align))
    3918                 :             :     ;
    3919                 :        5241 :   else if (ADDR_SPACE_GENERIC_P (MEM_ADDR_SPACE (object)))
    3920                 :        5241 :     return set_storage_via_libcall (object, size, const0_rtx,
    3921                 :        5241 :                                     method == BLOCK_OP_TAILCALL);
    3922                 :             :   else
    3923                 :           0 :     gcc_unreachable ();
    3924                 :             : 
    3925                 :             :   return NULL;
    3926                 :             : }
    3927                 :             : 
    3928                 :             : rtx
    3929                 :      103328 : clear_storage (rtx object, rtx size, enum block_op_methods method)
    3930                 :             : {
    3931                 :      103328 :   unsigned HOST_WIDE_INT max, min = 0;
    3932                 :      103328 :   if (GET_CODE (size) == CONST_INT)
    3933                 :      103328 :     min = max = UINTVAL (size);
    3934                 :             :   else
    3935                 :           0 :     max = GET_MODE_MASK (GET_MODE (size));
    3936                 :      103328 :   return clear_storage_hints (object, size, method, 0, -1, min, max, max, 0);
    3937                 :             : }
    3938                 :             : 
    3939                 :             : 
    3940                 :             : /* A subroutine of clear_storage.  Expand a call to memset.
    3941                 :             :    Return the return value of memset, 0 otherwise.  */
    3942                 :             : 
    3943                 :             : rtx
    3944                 :        5245 : set_storage_via_libcall (rtx object, rtx size, rtx val, bool tailcall)
    3945                 :             : {
    3946                 :        5245 :   tree call_expr, fn, object_tree, size_tree, val_tree;
    3947                 :        5245 :   machine_mode size_mode;
    3948                 :             : 
    3949                 :        5245 :   object = copy_addr_to_reg (XEXP (object, 0));
    3950                 :        5245 :   object_tree = make_tree (ptr_type_node, object);
    3951                 :             : 
    3952                 :        5245 :   if (!CONST_INT_P (val))
    3953                 :           3 :     val = convert_to_mode (TYPE_MODE (integer_type_node), val, 1);
    3954                 :        5245 :   val_tree = make_tree (integer_type_node, val);
    3955                 :             : 
    3956                 :        5245 :   size_mode = TYPE_MODE (sizetype);
    3957                 :        5245 :   size = convert_to_mode (size_mode, size, 1);
    3958                 :        5245 :   size = copy_to_mode_reg (size_mode, size);
    3959                 :        5245 :   size_tree = make_tree (sizetype, size);
    3960                 :             : 
    3961                 :             :   /* It is incorrect to use the libcall calling conventions for calls to
    3962                 :             :      memset because it can be provided by the user.  */
    3963                 :        5245 :   fn = builtin_decl_implicit (BUILT_IN_MEMSET);
    3964                 :        5245 :   call_expr = build_call_expr (fn, 3, object_tree, val_tree, size_tree);
    3965                 :        5245 :   CALL_EXPR_TAILCALL (call_expr) = tailcall;
    3966                 :             : 
    3967                 :        5245 :   return expand_call (call_expr, NULL_RTX, false);
    3968                 :             : }
    3969                 :             : 
    3970                 :             : /* Expand a setmem pattern; return true if successful.  */
    3971                 :             : 
    3972                 :             : bool
    3973                 :       33045 : set_storage_via_setmem (rtx object, rtx size, rtx val, unsigned int align,
    3974                 :             :                         unsigned int expected_align, HOST_WIDE_INT expected_size,
    3975                 :             :                         unsigned HOST_WIDE_INT min_size,
    3976                 :             :                         unsigned HOST_WIDE_INT max_size,
    3977                 :             :                         unsigned HOST_WIDE_INT probable_max_size)
    3978                 :             : {
    3979                 :             :   /* Try the most limited insn first, because there's no point
    3980                 :             :      including more than one in the machine description unless
    3981                 :             :      the more limited one has some advantage.  */
    3982                 :             : 
    3983                 :       33045 :   if (expected_align < align)
    3984                 :             :     expected_align = align;
    3985                 :       33045 :   if (expected_size != -1)
    3986                 :             :     {
    3987                 :           5 :       if ((unsigned HOST_WIDE_INT)expected_size > max_size)
    3988                 :           0 :         expected_size = max_size;
    3989                 :           5 :       if ((unsigned HOST_WIDE_INT)expected_size < min_size)
    3990                 :           0 :         expected_size = min_size;
    3991                 :             :     }
    3992                 :             : 
    3993                 :       33045 :   opt_scalar_int_mode mode_iter;
    3994                 :      155741 :   FOR_EACH_MODE_IN_CLASS (mode_iter, MODE_INT)
    3995                 :             :     {
    3996                 :      144557 :       scalar_int_mode mode = mode_iter.require ();
    3997                 :      144557 :       enum insn_code code = direct_optab_handler (setmem_optab, mode);
    3998                 :             : 
    3999                 :      144557 :       if (code != CODE_FOR_nothing
    4000                 :             :           /* We don't need MODE to be narrower than BITS_PER_HOST_WIDE_INT
    4001                 :             :              here because if SIZE is less than the mode mask, as it is
    4002                 :             :              returned by the macro, it will definitely be less than the
    4003                 :             :              actual mode mask.  Since SIZE is within the Pmode address
    4004                 :             :              space, we limit MODE to Pmode.  */
    4005                 :      144557 :           && ((CONST_INT_P (size)
    4006                 :       20079 :                && ((unsigned HOST_WIDE_INT) INTVAL (size)
    4007                 :       20079 :                    <= (GET_MODE_MASK (mode) >> 1)))
    4008                 :       23915 :               || max_size <= (GET_MODE_MASK (mode) >> 1)
    4009                 :       30952 :               || GET_MODE_BITSIZE (mode) >= GET_MODE_BITSIZE (Pmode)))
    4010                 :             :         {
    4011                 :       34159 :           class expand_operand ops[9];
    4012                 :       34159 :           unsigned int nops;
    4013                 :             : 
    4014                 :       34159 :           nops = insn_data[(int) code].n_generator_args;
    4015                 :       34159 :           gcc_assert (nops == 4 || nops == 6 || nops == 8 || nops == 9);
    4016                 :             : 
    4017                 :       34159 :           create_fixed_operand (&ops[0], object);
    4018                 :             :           /* The check above guarantees that this size conversion is valid.  */
    4019                 :       34159 :           create_convert_operand_to (&ops[1], size, mode, true);
    4020                 :       34159 :           create_convert_operand_from (&ops[2], val, byte_mode, true);
    4021                 :       34159 :           create_integer_operand (&ops[3], align / BITS_PER_UNIT);
    4022                 :       34159 :           if (nops >= 6)
    4023                 :             :             {
    4024                 :       34159 :               create_integer_operand (&ops[4], expected_align / BITS_PER_UNIT);
    4025                 :       34159 :               create_integer_operand (&ops[5], expected_size);
    4026                 :             :             }
    4027                 :       34159 :           if (nops >= 8)
    4028                 :             :             {
    4029                 :       34159 :               create_integer_operand (&ops[6], min_size);
    4030                 :             :               /* If we cannot represent the maximal size,
    4031                 :             :                  make parameter NULL.  */
    4032                 :       34159 :               if ((HOST_WIDE_INT) max_size != -1)
    4033                 :       29548 :                 create_integer_operand (&ops[7], max_size);
    4034                 :             :               else
    4035                 :        4611 :                 create_fixed_operand (&ops[7], NULL);
    4036                 :             :             }
    4037                 :       34159 :           if (nops == 9)
    4038                 :             :             {
    4039                 :             :               /* If we cannot represent the maximal size,
    4040                 :             :                  make parameter NULL.  */
    4041                 :       34159 :               if ((HOST_WIDE_INT) probable_max_size != -1)
    4042                 :       29707 :                 create_integer_operand (&ops[8], probable_max_size);
    4043                 :             :               else
    4044                 :        4452 :                 create_fixed_operand (&ops[8], NULL);
    4045                 :             :             }
    4046                 :       34159 :           if (maybe_expand_insn (code, nops, ops))
    4047                 :       21861 :             return true;
    4048                 :             :         }
    4049                 :             :     }
    4050                 :             : 
    4051                 :             :   return false;
    4052                 :             : }
    4053                 :             : 
    4054                 :             : 
    4055                 :             : /* Write to one of the components of the complex value CPLX.  Write VAL to
    4056                 :             :    the real part if IMAG_P is false, and the imaginary part if its true.
    4057                 :             :    If UNDEFINED_P then the value in CPLX is currently undefined.  */
    4058                 :             : 
    4059                 :             : void
    4060                 :      484395 : write_complex_part (rtx cplx, rtx val, bool imag_p, bool undefined_p)
    4061                 :             : {
    4062                 :      484395 :   machine_mode cmode;
    4063                 :      484395 :   scalar_mode imode;
    4064                 :      484395 :   unsigned ibitsize;
    4065                 :             : 
    4066                 :      484395 :   if (GET_CODE (cplx) == CONCAT)
    4067                 :             :     {
    4068                 :      428965 :       emit_move_insn (XEXP (cplx, imag_p), val);
    4069                 :      428965 :       return;
    4070                 :             :     }
    4071                 :             : 
    4072                 :       55430 :   cmode = GET_MODE (cplx);
    4073                 :       55430 :   imode = GET_MODE_INNER (cmode);
    4074                 :       55430 :   ibitsize = GET_MODE_BITSIZE (imode);
    4075                 :             : 
    4076                 :             :   /* For MEMs simplify_gen_subreg may generate an invalid new address
    4077                 :             :      because, e.g., the original address is considered mode-dependent
    4078                 :             :      by the target, which restricts simplify_subreg from invoking
    4079                 :             :      adjust_address_nv.  Instead of preparing fallback support for an
    4080                 :             :      invalid address, we call adjust_address_nv directly.  */
    4081                 :       55430 :   if (MEM_P (cplx))
    4082                 :             :     {
    4083                 :       66348 :       emit_move_insn (adjust_address_nv (cplx, imode,
    4084                 :             :                                          imag_p ? GET_MODE_SIZE (imode) : 0),
    4085                 :             :                       val);
    4086                 :       44232 :       return;
    4087                 :             :     }
    4088                 :             : 
    4089                 :             :   /* If the sub-object is at least word sized, then we know that subregging
    4090                 :             :      will work.  This special case is important, since store_bit_field
    4091                 :             :      wants to operate on integer modes, and there's rarely an OImode to
    4092                 :             :      correspond to TCmode.  */
    4093                 :       11198 :   if (ibitsize >= BITS_PER_WORD
    4094                 :             :       /* For hard regs we have exact predicates.  Assume we can split
    4095                 :             :          the original object if it spans an even number of hard regs.
    4096                 :             :          This special case is important for SCmode on 64-bit platforms
    4097                 :             :          where the natural size of floating-point regs is 32-bit.  */
    4098                 :       11198 :       || (REG_P (cplx)
    4099                 :        7304 :           && REGNO (cplx) < FIRST_PSEUDO_REGISTER
    4100                 :        7120 :           && REG_NREGS (cplx) % 2 == 0))
    4101                 :             :     {
    4102                 :        3910 :       rtx part = simplify_gen_subreg (imode, cplx, cmode,
    4103                 :        5865 :                                       imag_p ? GET_MODE_SIZE (imode) : 0);
    4104                 :        3910 :       if (part)
    4105                 :             :         {
    4106                 :        3910 :           emit_move_insn (part, val);
    4107                 :        3910 :           return;
    4108                 :             :         }
    4109                 :             :       else
    4110                 :             :         /* simplify_gen_subreg may fail for sub-word MEMs.  */
    4111                 :           0 :         gcc_assert (MEM_P (cplx) && ibitsize < BITS_PER_WORD);
    4112                 :             :     }
    4113                 :             : 
    4114                 :       10932 :   store_bit_field (cplx, ibitsize, imag_p ? ibitsize : 0, 0, 0, imode, val,
    4115                 :             :                    false, undefined_p);
    4116                 :             : }
    4117                 :             : 
    4118                 :             : /* Extract one of the components of the complex value CPLX.  Extract the
    4119                 :             :    real part if IMAG_P is false, and the imaginary part if it's true.  */
    4120                 :             : 
    4121                 :             : rtx
    4122                 :      490712 : read_complex_part (rtx cplx, bool imag_p)
    4123                 :             : {
    4124                 :      490712 :   machine_mode cmode;
    4125                 :      490712 :   scalar_mode imode;
    4126                 :      490712 :   unsigned ibitsize;
    4127                 :             : 
    4128                 :      490712 :   if (GET_CODE (cplx) == CONCAT)
    4129                 :      315070 :     return XEXP (cplx, imag_p);
    4130                 :             : 
    4131                 :      175642 :   cmode = GET_MODE (cplx);
    4132                 :      175642 :   imode = GET_MODE_INNER (cmode);
    4133                 :      175642 :   ibitsize = GET_MODE_BITSIZE (imode);
    4134                 :             : 
    4135                 :             :   /* Special case reads from complex constants that got spilled to memory.  */
    4136                 :      175642 :   if (MEM_P (cplx) && GET_CODE (XEXP (cplx, 0)) == SYMBOL_REF)
    4137                 :             :     {
    4138                 :       37829 :       tree decl = SYMBOL_REF_DECL (XEXP (cplx, 0));
    4139                 :       37829 :       if (decl && TREE_CODE (decl) == COMPLEX_CST)
    4140                 :             :         {
    4141                 :           0 :           tree part = imag_p ? TREE_IMAGPART (decl) : TREE_REALPART (decl);
    4142                 :           0 :           if (CONSTANT_CLASS_P (part))
    4143                 :           0 :             return expand_expr (part, NULL_RTX, imode, EXPAND_NORMAL);
    4144                 :             :         }
    4145                 :             :     }
    4146                 :             : 
    4147                 :             :   /* For MEMs simplify_gen_subreg may generate an invalid new address
    4148                 :             :      because, e.g., the original address is considered mode-dependent
    4149                 :             :      by the target, which restricts simplify_subreg from invoking
    4150                 :             :      adjust_address_nv.  Instead of preparing fallback support for an
    4151                 :             :      invalid address, we call adjust_address_nv directly.  */
    4152                 :      175642 :   if (MEM_P (cplx))
    4153                 :      235599 :     return adjust_address_nv (cplx, imode,
    4154                 :             :                               imag_p ? GET_MODE_SIZE (imode) : 0);
    4155                 :             : 
    4156                 :             :   /* If the sub-object is at least word sized, then we know that subregging
    4157                 :             :      will work.  This special case is important, since extract_bit_field
    4158                 :             :      wants to operate on integer modes, and there's rarely an OImode to
    4159                 :             :      correspond to TCmode.  */
    4160                 :       18425 :   if (ibitsize >= BITS_PER_WORD
    4161                 :             :       /* For hard regs we have exact predicates.  Assume we can split
    4162                 :             :          the original object if it spans an even number of hard regs.
    4163                 :             :          This special case is important for SCmode on 64-bit platforms
    4164                 :             :          where the natural size of floating-point regs is 32-bit.  */
    4165                 :       18425 :       || (REG_P (cplx)
    4166                 :         338 :           && REGNO (cplx) < FIRST_PSEUDO_REGISTER
    4167                 :         292 :           && REG_NREGS (cplx) % 2 == 0))
    4168                 :             :     {
    4169                 :        9173 :       rtx ret = simplify_gen_subreg (imode, cplx, cmode,
    4170                 :       13759 :                                      imag_p ? GET_MODE_SIZE (imode) : 0);
    4171                 :        9173 :       if (ret)
    4172                 :             :         return ret;
    4173                 :             :       else
    4174                 :             :         /* simplify_gen_subreg may fail for sub-word MEMs.  */
    4175                 :           0 :         gcc_assert (MEM_P (cplx) && ibitsize < BITS_PER_WORD);
    4176                 :             :     }
    4177                 :             : 
    4178                 :       13878 :   return extract_bit_field (cplx, ibitsize, imag_p ? ibitsize : 0,
    4179                 :             :                             true, NULL_RTX, imode, imode, false, NULL);
    4180                 :             : }
    4181                 :             : 
    4182                 :             : /* A subroutine of emit_move_insn_1.  Yet another lowpart generator.
    4183                 :             :    NEW_MODE and OLD_MODE are the same size.  Return NULL if X cannot be
    4184                 :             :    represented in NEW_MODE.  If FORCE is true, this will never happen, as
    4185                 :             :    we'll force-create a SUBREG if needed.  */
    4186                 :             : 
    4187                 :             : static rtx
    4188                 :      243040 : emit_move_change_mode (machine_mode new_mode,
    4189                 :             :                        machine_mode old_mode, rtx x, bool force)
    4190                 :             : {
    4191                 :      243040 :   rtx ret;
    4192                 :             : 
    4193                 :      243040 :   if (push_operand (x, GET_MODE (x)))
    4194                 :             :     {
    4195                 :        1318 :       ret = gen_rtx_MEM (new_mode, XEXP (x, 0));
    4196                 :        1318 :       MEM_COPY_ATTRIBUTES (ret, x);
    4197                 :             :     }
    4198                 :      241722 :   else if (MEM_P (x))
    4199                 :             :     {
    4200                 :             :       /* We don't have to worry about changing the address since the
    4201                 :             :          size in bytes is supposed to be the same.  */
    4202                 :       52949 :       if (reload_in_progress)
    4203                 :             :         {
    4204                 :             :           /* Copy the MEM to change the mode and move any
    4205                 :             :              substitutions from the old MEM to the new one.  */
    4206                 :           0 :           ret = adjust_address_nv (x, new_mode, 0);
    4207                 :           0 :           copy_replacements (x, ret);
    4208                 :             :         }
    4209                 :             :       else
    4210                 :       52949 :         ret = adjust_address (x, new_mode, 0);
    4211                 :             :     }
    4212                 :             :   else
    4213                 :             :     {
    4214                 :             :       /* Note that we do want simplify_subreg's behavior of validating
    4215                 :             :          that the new mode is ok for a hard register.  If we were to use
    4216                 :             :          simplify_gen_subreg, we would create the subreg, but would
    4217                 :             :          probably run into the target not being able to implement it.  */
    4218                 :             :       /* Except, of course, when FORCE is true, when this is exactly what
    4219                 :             :          we want.  Which is needed for CCmodes on some targets.  */
    4220                 :      188773 :       if (force)
    4221                 :      188773 :         ret = simplify_gen_subreg (new_mode, x, old_mode, 0);
    4222                 :             :       else
    4223                 :           0 :         ret = simplify_subreg (new_mode, x, old_mode, 0);
    4224                 :             :     }
    4225                 :             : 
    4226                 :      243040 :   return ret;
    4227                 :             : }
    4228                 :             : 
    4229                 :             : /* A subroutine of emit_move_insn_1.  Generate a move from Y into X using
    4230                 :             :    an integer mode of the same size as MODE.  Returns the instruction
    4231                 :             :    emitted, or NULL if such a move could not be generated.  */
    4232                 :             : 
    4233                 :             : static rtx_insn *
    4234                 :      121520 : emit_move_via_integer (machine_mode mode, rtx x, rtx y, bool force)
    4235                 :             : {
    4236                 :      121520 :   scalar_int_mode imode;
    4237                 :      121520 :   enum insn_code code;
    4238                 :             : 
    4239                 :             :   /* There must exist a mode of the exact size we require.  */
    4240                 :      121520 :   if (!int_mode_for_mode (mode).exists (&imode))
    4241                 :           0 :     return NULL;
    4242                 :             : 
    4243                 :             :   /* The target must support moves in this mode.  */
    4244                 :      121520 :   code = optab_handler (mov_optab, imode);
    4245                 :      121520 :   if (code == CODE_FOR_nothing)
    4246                 :             :     return NULL;
    4247                 :             : 
    4248                 :      121520 :   x = emit_move_change_mode (imode, mode, x, force);
    4249                 :      121520 :   if (x == NULL_RTX)
    4250                 :             :     return NULL;
    4251                 :      121520 :   y = emit_move_change_mode (imode, mode, y, force);
    4252                 :      121520 :   if (y == NULL_RTX)
    4253                 :             :     return NULL;
    4254                 :      121520 :   return emit_insn (GEN_FCN (code) (x, y));
    4255                 :             : }
    4256                 :             : 
    4257                 :             : /* A subroutine of emit_move_insn_1.  X is a push_operand in MODE.
    4258                 :             :    Return an equivalent MEM that does not use an auto-increment.  */
    4259                 :             : 
    4260                 :             : rtx
    4261                 :        3593 : emit_move_resolve_push (machine_mode mode, rtx x)
    4262                 :             : {
    4263                 :        3593 :   enum rtx_code code = GET_CODE (XEXP (x, 0));
    4264                 :        3593 :   rtx temp;
    4265                 :             : 
    4266                 :        7186 :   poly_int64 adjust = GET_MODE_SIZE (mode);
    4267                 :             : #ifdef PUSH_ROUNDING
    4268                 :        3593 :   adjust = PUSH_ROUNDING (adjust);
    4269                 :             : #endif
    4270                 :        3593 :   if (code == PRE_DEC || code == POST_DEC)
    4271                 :        3197 :     adjust = -adjust;
    4272                 :         396 :   else if (code == PRE_MODIFY || code == POST_MODIFY)
    4273                 :             :     {
    4274                 :         396 :       rtx expr = XEXP (XEXP (x, 0), 1);
    4275                 :             : 
    4276                 :         396 :       gcc_assert (GET_CODE (expr) == PLUS || GET_CODE (expr) == MINUS);
    4277                 :         396 :       poly_int64 val = rtx_to_poly_int64 (XEXP (expr, 1));
    4278                 :         396 :       if (GET_CODE (expr) == MINUS)
    4279                 :           0 :         val = -val;
    4280                 :         396 :       gcc_assert (known_eq (adjust, val) || known_eq (adjust, -val));
    4281                 :             :       adjust = val;
    4282                 :             :     }
    4283                 :             : 
    4284                 :             :   /* Do not use anti_adjust_stack, since we don't want to update
    4285                 :             :      stack_pointer_delta.  */
    4286                 :        3593 :   temp = expand_simple_binop (Pmode, PLUS, stack_pointer_rtx,
    4287                 :        3593 :                               gen_int_mode (adjust, Pmode), stack_pointer_rtx,
    4288                 :             :                               0, OPTAB_LIB_WIDEN);
    4289                 :        3593 :   if (temp != stack_pointer_rtx)
    4290                 :           0 :     emit_move_insn (stack_pointer_rtx, temp);
    4291                 :             : 
    4292                 :        3593 :   switch (code)
    4293                 :             :     {
    4294                 :        3593 :     case PRE_INC:
    4295                 :        3593 :     case PRE_DEC:
    4296                 :        3593 :     case PRE_MODIFY:
    4297                 :        3593 :       temp = stack_pointer_rtx;
    4298                 :        3593 :       break;
    4299                 :             :     case POST_INC:
    4300                 :             :     case POST_DEC:
    4301                 :             :     case POST_MODIFY:
    4302                 :           0 :       temp = plus_constant (Pmode, stack_pointer_rtx, -adjust);
    4303                 :           0 :       break;
    4304                 :           0 :     default:
    4305                 :           0 :       gcc_unreachable ();
    4306                 :             :     }
    4307                 :             : 
    4308                 :        3593 :   return replace_equiv_address (x, temp);
    4309                 :             : }
    4310                 :             : 
    4311                 :             : /* A subroutine of emit_move_complex.  Generate a move from Y into X.
    4312                 :             :    X is known to satisfy push_operand, and MODE is known to be complex.
    4313                 :             :    Returns the last instruction emitted.  */
    4314                 :             : 
    4315                 :             : rtx_insn *
    4316                 :        5238 : emit_move_complex_push (machine_mode mode, rtx x, rtx y)
    4317                 :             : {
    4318                 :        5238 :   scalar_mode submode = GET_MODE_INNER (mode);
    4319                 :        5238 :   bool imag_first;
    4320                 :             : 
    4321                 :             : #ifdef PUSH_ROUNDING
    4322                 :       10476 :   poly_int64 submodesize = GET_MODE_SIZE (submode);
    4323                 :             : 
    4324                 :             :   /* In case we output to the stack, but the size is smaller than the
    4325                 :             :      machine can push exactly, we need to use move instructions.  */
    4326                 :        5238 :   if (maybe_ne (PUSH_ROUNDING (submodesize), submodesize))
    4327                 :             :     {
    4328                 :         718 :       x = emit_move_resolve_push (mode, x);
    4329                 :         718 :       return emit_move_insn (x, y);
    4330                 :             :     }
    4331                 :             : #endif
    4332                 :             : 
    4333                 :             :   /* Note that the real part always precedes the imag part in memory
    4334                 :             :      regardless of machine's endianness.  */
    4335                 :        4520 :   switch (GET_CODE (XEXP (x, 0)))
    4336                 :             :     {
    4337                 :             :     case PRE_DEC:
    4338                 :             :     case POST_DEC:
    4339                 :             :       imag_first = true;
    4340                 :             :       break;
    4341                 :           0 :     case PRE_INC:
    4342                 :           0 :     case POST_INC:
    4343                 :           0 :       imag_first = false;
    4344                 :           0 :       break;
    4345                 :           0 :     default:
    4346                 :           0 :       gcc_unreachable ();
    4347                 :             :     }
    4348                 :             : 
    4349                 :        4520 :   emit_move_insn (gen_rtx_MEM (submode, XEXP (x, 0)),
    4350                 :             :                   read_complex_part (y, imag_first));
    4351                 :        4520 :   return emit_move_insn (gen_rtx_MEM (submode, XEXP (x, 0)),
    4352                 :        9040 :                          read_complex_part (y, !imag_first));
    4353                 :             : }
    4354                 :             : 
    4355                 :             : /* A subroutine of emit_move_complex.  Perform the move from Y to X
    4356                 :             :    via two moves of the parts.  Returns the last instruction emitted.  */
    4357                 :             : 
    4358                 :             : rtx_insn *
    4359                 :       76433 : emit_move_complex_parts (rtx x, rtx y)
    4360                 :             : {
    4361                 :             :   /* Show the output dies here.  This is necessary for SUBREGs
    4362                 :             :      of pseudos since we cannot track their lifetimes correctly;
    4363                 :             :      hard regs shouldn't appear here except as return values.  */
    4364                 :       76433 :   if (!reload_completed && !reload_in_progress
    4365                 :      152866 :       && REG_P (x) && !reg_overlap_mentioned_p (x, y))
    4366                 :        5592 :     emit_clobber (x);
    4367                 :             : 
    4368                 :       76433 :   write_complex_part (x, read_complex_part (y, false), false, true);
    4369                 :       76433 :   write_complex_part (x, read_complex_part (y, true), true, false);
    4370                 :             : 
    4371                 :       76433 :   return get_last_insn ();
    4372                 :             : }
    4373                 :             : 
    4374                 :             : /* A subroutine of emit_move_insn_1.  Generate a move from Y into X.
    4375                 :             :    MODE is known to be complex.  Returns the last instruction emitted.  */
    4376                 :             : 
    4377                 :             : static rtx_insn *
    4378                 :       80668 : emit_move_complex (machine_mode mode, rtx x, rtx y)
    4379                 :             : {
    4380                 :       80668 :   bool try_int;
    4381                 :             : 
    4382                 :             :   /* Need to take special care for pushes, to maintain proper ordering
    4383                 :             :      of the data, and possibly extra padding.  */
    4384                 :       80668 :   if (push_operand (x, mode))
    4385                 :        4630 :     return emit_move_complex_push (mode, x, y);
    4386                 :             : 
    4387                 :             :   /* See if we can coerce the target into moving both values at once, except
    4388                 :             :      for floating point where we favor moving as parts if this is easy.  */
    4389                 :       76038 :   if (GET_MODE_CLASS (mode) == MODE_COMPLEX_FLOAT
    4390                 :       67837 :       && optab_handler (mov_optab, GET_MODE_INNER (mode)) != CODE_FOR_nothing
    4391                 :       67837 :       && !(REG_P (x)
    4392                 :        1687 :            && HARD_REGISTER_P (x)
    4393                 :         300 :            && REG_NREGS (x) == 1)
    4394                 :      143875 :       && !(REG_P (y)
    4395                 :        2778 :            && HARD_REGISTER_P (y)
    4396                 :        1389 :            && REG_NREGS (y) == 1))
    4397                 :             :     try_int = false;
    4398                 :             :   /* Not possible if the values are inherently not adjacent.  */
    4399                 :        8201 :   else if (GET_CODE (x) == CONCAT || GET_CODE (y) == CONCAT)
    4400                 :             :     try_int = false;
    4401                 :             :   /* Is possible if both are registers (or subregs of registers).  */
    4402                 :         754 :   else if (register_operand (x, mode) && register_operand (y, mode))
    4403                 :             :     try_int = true;
    4404                 :             :   /* If one of the operands is a memory, and alignment constraints
    4405                 :             :      are friendly enough, we may be able to do combined memory operations.
    4406                 :             :      We do not attempt this if Y is a constant because that combination is
    4407                 :             :      usually better with the by-parts thing below.  */
    4408                 :         633 :   else if ((MEM_P (x) ? !CONSTANT_P (y) : MEM_P (y))
    4409                 :             :            && (!STRICT_ALIGNMENT
    4410                 :             :                || get_mode_alignment (mode) == BIGGEST_ALIGNMENT))
    4411                 :             :     try_int = true;
    4412                 :             :   else
    4413                 :             :     try_int = false;
    4414                 :             : 
    4415                 :             :   if (try_int)
    4416                 :             :     {
    4417                 :         754 :       rtx_insn *ret;
    4418                 :             : 
    4419                 :             :       /* For memory to memory moves, optimal behavior can be had with the
    4420                 :             :          existing block move logic.  But use normal expansion if optimizing
    4421                 :             :          for size.  */
    4422                 :         754 :       if (MEM_P (x) && MEM_P (y))
    4423                 :             :         {
    4424                 :         724 :           emit_block_move (x, y, gen_int_mode (GET_MODE_SIZE (mode), Pmode),
    4425                 :         359 :                            (optimize_insn_for_speed_p()
    4426                 :             :                             ? BLOCK_OP_NO_LIBCALL : BLOCK_OP_NORMAL));
    4427                 :         359 :           return get_last_insn ();
    4428                 :             :         }
    4429                 :             : 
    4430                 :         395 :       ret = emit_move_via_integer (mode, x, y, true);
    4431                 :         395 :       if (ret)
    4432                 :             :         return ret;
    4433                 :             :     }
    4434                 :             : 
    4435                 :       75284 :   return emit_move_complex_parts (x, y);
    4436                 :             : }
    4437                 :             : 
    4438                 :             : /* A subroutine of emit_move_insn_1.  Generate a move from Y into X.
    4439                 :             :    MODE is known to be MODE_CC.  Returns the last instruction emitted.  */
    4440                 :             : 
    4441                 :             : static rtx_insn *
    4442                 :           0 : emit_move_ccmode (machine_mode mode, rtx x, rtx y)
    4443                 :             : {
    4444                 :           0 :   rtx_insn *ret;
    4445                 :             : 
    4446                 :             :   /* Assume all MODE_CC modes are equivalent; if we have movcc, use it.  */
    4447                 :           0 :   if (mode != CCmode)
    4448                 :             :     {
    4449                 :           0 :       enum insn_code code = optab_handler (mov_optab, CCmode);
    4450                 :           0 :       if (code != CODE_FOR_nothing)
    4451                 :             :         {
    4452                 :           0 :           x = emit_move_change_mode (CCmode, mode, x, true);
    4453                 :           0 :           y = emit_move_change_mode (CCmode, mode, y, true);
    4454                 :           0 :           return emit_insn (GEN_FCN (code) (x, y));
    4455                 :             :         }
    4456                 :             :     }
    4457                 :             : 
    4458                 :             :   /* Otherwise, find the MODE_INT mode of the same width.  */
    4459                 :           0 :   ret = emit_move_via_integer (mode, x, y, false);
    4460                 :           0 :   gcc_assert (ret != NULL);
    4461                 :             :   return ret;
    4462                 :             : }
    4463                 :             : 
    4464                 :             : /* Return true if word I of OP lies entirely in the
    4465                 :             :    undefined bits of a paradoxical subreg.  */
    4466                 :             : 
    4467                 :             : static bool
    4468                 :           0 : undefined_operand_subword_p (const_rtx op, int i)
    4469                 :             : {
    4470                 :           0 :   if (GET_CODE (op) != SUBREG)
    4471                 :             :     return false;
    4472                 :           0 :   machine_mode innermostmode = GET_MODE (SUBREG_REG (op));
    4473                 :           0 :   poly_int64 offset = i * UNITS_PER_WORD + subreg_memory_offset (op);
    4474                 :           0 :   return (known_ge (offset, GET_MODE_SIZE (innermostmode))
    4475                 :           0 :           || known_le (offset, -UNITS_PER_WORD));
    4476                 :             : }
    4477                 :             : 
    4478                 :             : /* A subroutine of emit_move_insn_1.  Generate a move from Y into X.
    4479                 :             :    MODE is any multi-word or full-word mode that lacks a move_insn
    4480                 :             :    pattern.  Note that you will get better code if you define such
    4481                 :             :    patterns, even if they must turn into multiple assembler instructions.  */
    4482                 :             : 
    4483                 :             : static rtx_insn *
    4484                 :           0 : emit_move_multi_word (machine_mode mode, rtx x, rtx y)
    4485                 :             : {
    4486                 :           0 :   rtx_insn *last_insn = 0;
    4487                 :           0 :   rtx_insn *seq;
    4488                 :           0 :   rtx inner;
    4489                 :           0 :   bool need_clobber;
    4490                 :           0 :   int i, mode_size;
    4491                 :             : 
    4492                 :             :   /* This function can only handle cases where the number of words is
    4493                 :             :      known at compile time.  */
    4494                 :           0 :   mode_size = GET_MODE_SIZE (mode).to_constant ();
    4495                 :           0 :   gcc_assert (mode_size >= UNITS_PER_WORD);
    4496                 :             : 
    4497                 :             :   /* If X is a push on the stack, do the push now and replace
    4498                 :             :      X with a reference to the stack pointer.  */
    4499                 :           0 :   if (push_operand (x, mode))
    4500                 :           0 :     x = emit_move_resolve_push (mode, x);
    4501                 :             : 
    4502                 :             :   /* If we are in reload, see if either operand is a MEM whose address
    4503                 :             :      is scheduled for replacement.  */
    4504                 :           0 :   if (reload_in_progress && MEM_P (x)
    4505                 :           0 :       && (inner = find_replacement (&XEXP (x, 0))) != XEXP (x, 0))
    4506                 :           0 :     x = replace_equiv_address_nv (x, inner);
    4507                 :           0 :   if (reload_in_progress && MEM_P (y)
    4508                 :           0 :       && (inner = find_replacement (&XEXP (y, 0))) != XEXP (y, 0))
    4509                 :           0 :     y = replace_equiv_address_nv (y, inner);
    4510                 :             : 
    4511                 :           0 :   start_sequence ();
    4512                 :             : 
    4513                 :           0 :   need_clobber = false;
    4514                 :           0 :   for (i = 0; i < CEIL (mode_size, UNITS_PER_WORD); i++)
    4515                 :             :     {
    4516                 :             :       /* Do not generate code for a move if it would go entirely
    4517                 :             :          to the non-existing bits of a paradoxical subreg.  */
    4518                 :           0 :       if (undefined_operand_subword_p (x, i))
    4519                 :           0 :         continue;
    4520                 :             : 
    4521                 :           0 :       rtx xpart = operand_subword (x, i, 1, mode);
    4522                 :           0 :       rtx ypart;
    4523                 :             : 
    4524                 :             :       /* Do not generate code for a move if it would come entirely
    4525                 :             :          from the undefined bits of a paradoxical subreg.  */
    4526                 :           0 :       if (undefined_operand_subword_p (y, i))
    4527                 :           0 :         continue;
    4528                 :             : 
    4529                 :           0 :       ypart = operand_subword (y, i, 1, mode);
    4530                 :             : 
    4531                 :             :       /* If we can't get a part of Y, put Y into memory if it is a
    4532                 :             :          constant.  Otherwise, force it into a register.  Then we must
    4533                 :             :          be able to get a part of Y.  */
    4534                 :           0 :       if (ypart == 0 && CONSTANT_P (y))
    4535                 :             :         {
    4536                 :           0 :           y = use_anchored_address (force_const_mem (mode, y));
    4537                 :           0 :           ypart = operand_subword (y, i, 1, mode);
    4538                 :             :         }
    4539                 :           0 :       else if (ypart == 0)
    4540                 :           0 :         ypart = operand_subword_force (y, i, mode);
    4541                 :             : 
    4542                 :           0 :       gcc_assert (xpart && ypart);
    4543                 :             : 
    4544                 :           0 :       need_clobber |= (GET_CODE (xpart) == SUBREG);
    4545                 :             : 
    4546                 :           0 :       last_insn = emit_move_insn (xpart, ypart);
    4547                 :             :     }
    4548                 :             : 
    4549                 :           0 :   seq = get_insns ();
    4550                 :           0 :   end_sequence ();
    4551                 :             : 
    4552                 :             :   /* Show the output dies here.  This is necessary for SUBREGs
    4553                 :             :      of pseudos since we cannot track their lifetimes correctly;
    4554                 :             :      hard regs shouldn't appear here except as return values.
    4555                 :             :      We never want to emit such a clobber after reload.  */
    4556                 :           0 :   if (x != y
    4557                 :           0 :       && ! (reload_in_progress || reload_completed)
    4558                 :           0 :       && need_clobber != 0)
    4559                 :           0 :     emit_clobber (x);
    4560                 :             : 
    4561                 :           0 :   emit_insn (seq);
    4562                 :             : 
    4563                 :           0 :   return last_insn;
    4564                 :             : }
    4565                 :             : 
    4566                 :             : /* Low level part of emit_move_insn.
    4567                 :             :    Called just like emit_move_insn, but assumes X and Y
    4568                 :             :    are basically valid.  */
    4569                 :             : 
    4570                 :             : rtx_insn *
    4571                 :    73844097 : emit_move_insn_1 (rtx x, rtx y)
    4572                 :             : {
    4573                 :    73844097 :   machine_mode mode = GET_MODE (x);
    4574                 :    73844097 :   enum insn_code code;
    4575                 :             : 
    4576                 :    73844097 :   gcc_assert ((unsigned int) mode < (unsigned int) MAX_MACHINE_MODE);
    4577                 :             : 
    4578                 :    73844097 :   code = optab_handler (mov_optab, mode);
    4579                 :    73844097 :   if (code != CODE_FOR_nothing)
    4580                 :    73642304 :     return emit_insn (GEN_FCN (code) (x, y));
    4581                 :             : 
    4582                 :             :   /* Expand complex moves by moving real part and imag part.  */
    4583                 :      201793 :   if (COMPLEX_MODE_P (mode))
    4584                 :       80668 :     return emit_move_complex (mode, x, y);
    4585                 :             : 
    4586                 :             :   if (GET_MODE_CLASS (mode) == MODE_DECIMAL_FLOAT
    4587                 :             :       || ALL_FIXED_POINT_MODE_P (mode))
    4588                 :             :     {
    4589                 :      121125 :       rtx_insn *result = emit_move_via_integer (mode, x, y, true);
    4590                 :             : 
    4591                 :             :       /* If we can't find an integer mode, use multi words.  */
    4592                 :      121125 :       if (result)
    4593                 :             :         return result;
    4594                 :             :       else
    4595                 :           0 :         return emit_move_multi_word (mode, x, y);
    4596                 :             :     }
    4597                 :             : 
    4598                 :             :   if (GET_MODE_CLASS (mode) == MODE_CC)
    4599                 :           0 :     return emit_move_ccmode (mode, x, y);
    4600                 :             : 
    4601                 :             :   /* Try using a move pattern for the corresponding integer mode.  This is
    4602                 :             :      only safe when simplify_subreg can convert MODE constants into integer
    4603                 :             :      constants.  At present, it can only do this reliably if the value
    4604                 :             :      fits within a HOST_WIDE_INT.  */
    4605                 :           0 :   if (!CONSTANT_P (y)
    4606                 :           0 :       || known_le (GET_MODE_BITSIZE (mode), HOST_BITS_PER_WIDE_INT))
    4607                 :             :     {
    4608                 :           0 :       rtx_insn *ret = emit_move_via_integer (mode, x, y, lra_in_progress);
    4609                 :             : 
    4610                 :           0 :       if (ret)
    4611                 :             :         {
    4612                 :           0 :           if (! lra_in_progress || recog (PATTERN (ret), ret, 0) >= 0)
    4613                 :           0 :             return ret;
    4614                 :             :         }
    4615                 :             :     }
    4616                 :             : 
    4617                 :           0 :   return emit_move_multi_word (mode, x, y);
    4618                 :             : }
    4619                 :             : 
    4620                 :             : /* Generate code to copy Y into X.
    4621                 :             :    Both Y and X must have the same mode, except that
    4622                 :             :    Y can be a constant with VOIDmode.
    4623                 :             :    This mode cannot be BLKmode; use emit_block_move for that.
    4624                 :             : 
    4625                 :             :    Return the last instruction emitted.  */
    4626                 :             : 
    4627                 :             : rtx_insn *
    4628                 :    66592298 : emit_move_insn (rtx x, rtx y)
    4629                 :             : {
    4630                 :    66592298 :   machine_mode mode = GET_MODE (x);
    4631                 :    66592298 :   rtx y_cst = NULL_RTX;
    4632                 :    66592298 :   rtx_insn *last_insn;
    4633                 :    66592298 :   rtx set;
    4634                 :             : 
    4635                 :    66592298 :   gcc_assert (mode != BLKmode
    4636                 :             :               && (GET_MODE (y) == mode || GET_MODE (y) == VOIDmode));
    4637                 :             : 
    4638                 :             :   /* If we have a copy that looks like one of the following patterns:
    4639                 :             :        (set (subreg:M1 (reg:M2 ...)) (subreg:M1 (reg:M2 ...)))
    4640                 :             :        (set (subreg:M1 (reg:M2 ...)) (mem:M1 ADDR))
    4641                 :             :        (set (mem:M1 ADDR) (subreg:M1 (reg:M2 ...)))
    4642                 :             :        (set (subreg:M1 (reg:M2 ...)) (constant C))
    4643                 :             :      where mode M1 is equal in size to M2, try to detect whether the
    4644                 :             :      mode change involves an implicit round trip through memory.
    4645                 :             :      If so, see if we can avoid that by removing the subregs and
    4646                 :             :      doing the move in mode M2 instead.  */
    4647                 :             : 
    4648                 :    66592298 :   rtx x_inner = NULL_RTX;
    4649                 :    66592298 :   rtx y_inner = NULL_RTX;
    4650                 :             : 
    4651                 :    69334440 :   auto candidate_subreg_p = [&](rtx subreg) {
    4652                 :     2742142 :     return (REG_P (SUBREG_REG (subreg))
    4653                 :     8224713 :             && known_eq (GET_MODE_SIZE (GET_MODE (SUBREG_REG (subreg))),
    4654                 :             :                          GET_MODE_SIZE (GET_MODE (subreg)))
    4655                 :     3048759 :             && optab_handler (mov_optab, GET_MODE (SUBREG_REG (subreg)))
    4656                 :     2742142 :                != CODE_FOR_nothing);
    4657                 :             :   };
    4658                 :             : 
    4659                 :    66598156 :   auto candidate_mem_p = [&](machine_mode innermode, rtx mem) {
    4660                 :        5858 :     return (!targetm.can_change_mode_class (innermode, GET_MODE (mem), ALL_REGS)
    4661                 :        5858 :             && !push_operand (mem, GET_MODE (mem))
    4662                 :             :             /* Not a candiate if innermode requires too much alignment.  */
    4663                 :       11656 :             && (MEM_ALIGN (mem) >= GET_MODE_ALIGNMENT (innermode)
    4664                 :         246 :                 || targetm.slow_unaligned_access (GET_MODE (mem),
    4665                 :         123 :                                                   MEM_ALIGN (mem))
    4666                 :         246 :                 || !targetm.slow_unaligned_access (innermode,
    4667                 :         123 :                                                    MEM_ALIGN (mem))));
    4668                 :             :   };
    4669                 :             : 
    4670                 :    66592298 :   if (SUBREG_P (x) && candidate_subreg_p (x))
    4671                 :        9337 :     x_inner = SUBREG_REG (x);
    4672                 :             : 
    4673                 :    66592298 :   if (SUBREG_P (y) && candidate_subreg_p (y))
    4674                 :      296160 :     y_inner = SUBREG_REG (y);
    4675                 :             : 
    4676                 :    66592298 :   if (x_inner != NULL_RTX
    4677                 :    66592298 :       && y_inner != NULL_RTX
    4678                 :        1088 :       && GET_MODE (x_inner) == GET_MODE (y_inner)
    4679                 :    66592981 :       && !targetm.can_change_mode_class (GET_MODE (x_inner), mode, ALL_REGS))
    4680                 :             :     {
    4681                 :         683 :       x = x_inner;
    4682                 :         683 :       y = y_inner;
    4683                 :         683 :       mode = GET_MODE (x_inner);
    4684                 :             :     }
    4685                 :    66591615 :   else if (x_inner != NULL_RTX
    4686                 :        8654 :            && MEM_P (y)
    4687                 :    66591949 :            && candidate_mem_p (GET_MODE (x_inner), y))
    4688                 :             :     {
    4689                 :         334 :       x = x_inner;
    4690                 :         334 :       y = adjust_address (y, GET_MODE (x_inner), 0);
    4691                 :         334 :       mode = GET_MODE (x_inner);
    4692                 :             :     }
    4693                 :    66591281 :   else if (y_inner != NULL_RTX
    4694                 :      295477 :            && MEM_P (x)
    4695                 :    66596805 :            && candidate_mem_p (GET_MODE (y_inner), x))
    4696                 :             :     {
    4697                 :        5464 :       x = adjust_address (x, GET_MODE (y_inner), 0);
    4698                 :        5464 :       y = y_inner;
    4699                 :        5464 :       mode = GET_MODE (y_inner);
    4700                 :             :     }
    4701                 :    66585817 :   else if (x_inner != NULL_RTX
    4702                 :        8320 :            && CONSTANT_P (y)
    4703                 :         433 :            && !targetm.can_change_mode_class (GET_MODE (x_inner),
    4704                 :             :                                               mode, ALL_REGS)
    4705                 :    66586250 :            && (y_inner = simplify_subreg (GET_MODE (x_inner), y, mode, 0)))
    4706                 :             :     {
    4707                 :         433 :       x = x_inner;
    4708                 :         433 :       y = y_inner;
    4709                 :         433 :       mode = GET_MODE (x_inner);
    4710                 :             :     }
    4711                 :             : 
    4712                 :    66592298 :   if (CONSTANT_P (y))
    4713                 :             :     {
    4714                 :    15589266 :       if (optimize
    4715                 :    12221396 :           && SCALAR_FLOAT_MODE_P (GET_MODE (x))
    4716                 :    16348667 :           && (last_insn = compress_float_constant (x, y)))
    4717                 :             :         return last_insn;
    4718                 :             : 
    4719                 :    15520504 :       y_cst = y;
    4720                 :             : 
    4721                 :    15520504 :       if (!targetm.legitimate_constant_p (mode, y))
    4722                 :             :         {
    4723                 :      479343 :           y = force_const_mem (mode, y);
    4724                 :             : 
    4725                 :             :           /* If the target's cannot_force_const_mem prevented the spill,
    4726                 :             :              assume that the target's move expanders will also take care
    4727                 :             :              of the non-legitimate constant.  */
    4728                 :      479343 :           if (!y)
    4729                 :             :             y = y_cst;
    4730                 :             :           else
    4731                 :      459817 :             y = use_anchored_address (y);
    4732                 :             :         }
    4733                 :             :     }
    4734                 :             : 
    4735                 :             :   /* If X or Y are memory references, verify that their addresses are valid
    4736                 :             :      for the machine.  */
    4737                 :    66523536 :   if (MEM_P (x)
    4738                 :    81640674 :       && (! memory_address_addr_space_p (GET_MODE (x), XEXP (x, 0),
    4739                 :    12896683 :                                          MEM_ADDR_SPACE (x))
    4740                 :     2220622 :           && ! push_operand (x, GET_MODE (x))))
    4741                 :         167 :     x = validize_mem (x);
    4742                 :             : 
    4743                 :    66523536 :   if (MEM_P (y)
    4744                 :    83062244 :       && ! memory_address_addr_space_p (GET_MODE (y), XEXP (y, 0),
    4745                 :    16538708 :                                         MEM_ADDR_SPACE (y)))
    4746                 :        9212 :     y = validize_mem (y);
    4747                 :             : 
    4748                 :    66523536 :   gcc_assert (mode != BLKmode);
    4749                 :             : 
    4750                 :    66523536 :   last_insn = emit_move_insn_1 (x, y);
    4751                 :             : 
    4752                 :    15520504 :   if (y_cst && REG_P (x)
    4753                 :    11506793 :       && (set = single_set (last_insn)) != NULL_RTX
    4754                 :    11506793 :       && SET_DEST (set) == x
    4755                 :    78015972 :       && ! rtx_equal_p (y_cst, SET_SRC (set)))
    4756                 :     1199498 :     set_unique_reg_note (last_insn, REG_EQUAL, copy_rtx (y_cst));
    4757                 :             : 
    4758                 :             :   return last_insn;
    4759                 :             : }
    4760                 :             : 
    4761                 :             : /* Generate the body of an instruction to copy Y into X.
    4762                 :             :    It may be a list of insns, if one insn isn't enough.  */
    4763                 :             : 
    4764                 :             : rtx_insn *
    4765                 :     7320481 : gen_move_insn (rtx x, rtx y)
    4766                 :             : {
    4767                 :     7320481 :   rtx_insn *seq;
    4768                 :             : 
    4769                 :     7320481 :   start_sequence ();
    4770                 :     7320481 :   emit_move_insn_1 (x, y);
    4771                 :     7320481 :   seq = get_insns ();
    4772                 :     7320481 :   end_sequence ();
    4773                 :     7320481 :   return seq;
    4774                 :             : }
    4775                 :             : 
    4776                 :             : /* If Y is representable exactly in a narrower mode, and the target can
    4777                 :             :    perform the extension directly from constant or memory, then emit the
    4778                 :             :    move as an extension.  */
    4779                 :             : 
    4780                 :             : static rtx_insn *
    4781                 :      759401 : compress_float_constant (rtx x, rtx y)
    4782                 :             : {
    4783                 :      759401 :   machine_mode dstmode = GET_MODE (x);
    4784                 :      759401 :   machine_mode orig_srcmode = GET_MODE (y);
    4785                 :      759401 :   machine_mode srcmode;
    4786                 :      759401 :   const REAL_VALUE_TYPE *r;
    4787                 :      759401 :   int oldcost, newcost;
    4788                 :      759401 :   bool speed = optimize_insn_for_speed_p ();
    4789                 :             : 
    4790                 :      759401 :   r = CONST_DOUBLE_REAL_VALUE (y);
    4791                 :             : 
    4792                 :      759401 :   if (targetm.legitimate_constant_p (dstmode, y))
    4793                 :      758068 :     oldcost = set_src_cost (y, orig_srcmode, speed);
    4794                 :             :   else
    4795                 :        1333 :     oldcost = set_src_cost (force_const_mem (dstmode, y), dstmode, speed);
    4796                 :             : 
    4797                 :     2680728 :   FOR_EACH_MODE_UNTIL (srcmode, orig_srcmode)
    4798                 :             :     {
    4799                 :     1990089 :       enum insn_code ic;
    4800                 :     1990089 :       rtx trunc_y;
    4801                 :     1990089 :       rtx_insn *last_insn;
    4802                 :             : 
    4803                 :             :       /* Skip if the target can't extend this way.  */
    4804                 :     1990089 :       ic = can_extend_p (dstmode, srcmode, 0);
    4805                 :     1990089 :       if (ic == CODE_FOR_nothing)
    4806                 :     1584388 :         continue;
    4807                 :             : 
    4808                 :             :       /* Skip if the narrowed value isn't exact.  */
    4809                 :      405701 :       if (! exact_real_truncate (srcmode, r))
    4810                 :       50876 :         continue;
    4811                 :             : 
    4812                 :      354825 :       trunc_y = const_double_from_real_value (*r, srcmode);
    4813                 :             : 
    4814                 :      354825 :       if (targetm.legitimate_constant_p (srcmode, trunc_y))
    4815                 :             :         {
    4816                 :             :           /* Skip if the target needs extra instructions to perform
    4817                 :             :              the extension.  */
    4818                 :      351064 :           if (!insn_operand_matches (ic, 1, trunc_y))
    4819                 :        3441 :             continue;
    4820                 :             :           /* This is valid, but may not be cheaper than the original. */
    4821                 :      347623 :           newcost = set_src_cost (gen_rtx_FLOAT_EXTEND (dstmode, trunc_y),
    4822                 :             :                                   dstmode, speed);
    4823                 :      347623 :           if (oldcost < newcost)
    4824                 :      278861 :             continue;
    4825                 :             :         }
    4826                 :        3761 :       else if (float_extend_from_mem[dstmode][srcmode])
    4827                 :             :         {
    4828                 :           0 :           trunc_y = force_const_mem (srcmode, trunc_y);
    4829                 :             :           /* This is valid, but may not be cheaper than the original. */
    4830                 :           0 :           newcost = set_src_cost (gen_rtx_FLOAT_EXTEND (dstmode, trunc_y),
    4831                 :             :                                   dstmode, speed);
    4832                 :           0 :           if (oldcost < newcost)
    4833                 :           0 :             continue;
    4834                 :           0 :           trunc_y = validize_mem (trunc_y);
    4835                 :             :         }
    4836                 :             :       else
    4837                 :        3761 :         continue;
    4838                 :             : 
    4839                 :             :       /* For CSE's benefit, force the compressed constant pool entry
    4840                 :             :          into a new pseudo.  This constant may be used in different modes,
    4841                 :             :          and if not, combine will put things back together for us.  */
    4842                 :       68762 :       trunc_y = force_reg (srcmode, trunc_y);
    4843                 :             : 
    4844                 :             :       /* If x is a hard register, perform the extension into a pseudo,
    4845                 :             :          so that e.g. stack realignment code is aware of it.  */
    4846                 :       68762 :       rtx target = x;
    4847                 :       68762 :       if (REG_P (x) && HARD_REGISTER_P (x))
    4848                 :           1 :         target = gen_reg_rtx (dstmode);
    4849                 :             : 
    4850                 :       68762 :       emit_unop_insn (ic, target, trunc_y, UNKNOWN);
    4851                 :       68762 :       last_insn = get_last_insn ();
    4852                 :             : 
    4853                 :       68762 :       if (REG_P (target))
    4854                 :       58146 :         set_unique_reg_note (last_insn, REG_EQUAL, y);
    4855                 :             : 
    4856                 :       68762 :       if (target != x)
    4857                 :           1 :         return emit_move_insn (x, target);
    4858                 :             :       return last_insn;
    4859                 :             :     }
    4860                 :             : 
    4861                 :             :   return NULL;
    4862                 :             : }
    4863                 :             : 
    4864                 :             : /* Pushing data onto the stack.  */
    4865                 :             : 
    4866                 :             : /* Push a block of length SIZE (perhaps variable)
    4867                 :             :    and return an rtx to address the beginning of the block.
    4868                 :             :    The value may be virtual_outgoing_args_rtx.
    4869                 :             : 
    4870                 :             :    EXTRA is the number of bytes of padding to push in addition to SIZE.
    4871                 :             :    BELOW nonzero means this padding comes at low addresses;
    4872                 :             :    otherwise, the padding comes at high addresses.  */
    4873                 :             : 
    4874                 :             : rtx
    4875                 :      266062 : push_block (rtx size, poly_int64 extra, int below)
    4876                 :             : {
    4877                 :      266062 :   rtx temp;
    4878                 :             : 
    4879                 :      266062 :   size = convert_modes (Pmode, ptr_mode, size, 1);
    4880                 :      266062 :   if (CONSTANT_P (size))
    4881                 :      266062 :     anti_adjust_stack (plus_constant (Pmode, size, extra));
    4882                 :           0 :   else if (REG_P (size) && known_eq (extra, 0))
    4883                 :           0 :     anti_adjust_stack (size);
    4884                 :             :   else
    4885                 :             :     {
    4886                 :           0 :       temp = copy_to_mode_reg (Pmode, size);
    4887                 :           0 :       if (maybe_ne (extra, 0))
    4888                 :           0 :         temp = expand_binop (Pmode, add_optab, temp,
    4889                 :           0 :                              gen_int_mode (extra, Pmode),
    4890                 :             :                              temp, 0, OPTAB_LIB_WIDEN);
    4891                 :           0 :       anti_adjust_stack (temp);
    4892                 :             :     }
    4893                 :             : 
    4894                 :      266062 :   if (STACK_GROWS_DOWNWARD)
    4895                 :             :     {
    4896                 :      266062 :       temp = virtual_outgoing_args_rtx;
    4897                 :      266062 :       if (maybe_ne (extra, 0) && below)
    4898                 :           0 :         temp = plus_constant (Pmode, temp, extra);
    4899                 :             :     }
    4900                 :             :   else
    4901                 :             :     {
    4902                 :             :       poly_int64 csize;
    4903                 :             :       if (poly_int_rtx_p (size, &csize))
    4904                 :             :         temp = plus_constant (Pmode, virtual_outgoing_args_rtx,
    4905                 :             :                               -csize - (below ? 0 : extra));
    4906                 :             :       else if (maybe_ne (extra, 0) && !below)
    4907                 :             :         temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
    4908                 :             :                              negate_rtx (Pmode, plus_constant (Pmode, size,
    4909                 :             :                                                                extra)));
    4910                 :             :       else
    4911                 :             :         temp = gen_rtx_PLUS (Pmode, virtual_outgoing_args_rtx,
    4912                 :             :                              negate_rtx (Pmode, size));
    4913                 :             :     }
    4914                 :             : 
    4915                 :      266062 :   return memory_address (NARROWEST_INT_MODE, temp);
    4916                 :             : }
    4917                 :             : 
    4918                 :             : /* A utility routine that returns the base of an auto-inc memory, or NULL.  */
    4919                 :             : 
    4920                 :             : static rtx
    4921                 :     2560172 : mem_autoinc_base (rtx mem)
    4922                 :             : {
    4923                 :           0 :   if (MEM_P (mem))
    4924                 :             :     {
    4925                 :     1555460 :       rtx addr = XEXP (mem, 0);
    4926                 :     1555460 :       if (GET_RTX_CLASS (GET_CODE (addr)) == RTX_AUTOINC)
    4927                 :     1022375 :         return XEXP (addr, 0);
    4928                 :             :     }
    4929                 :             :   return NULL;
    4930                 :             : }
    4931                 :             : 
    4932                 :             : /* A utility routine used here, in reload, and in try_split.  The insns
    4933                 :             :    after PREV up to and including LAST are known to adjust the stack,
    4934                 :             :    with a final value of END_ARGS_SIZE.  Iterate backward from LAST
    4935                 :             :    placing notes as appropriate.  PREV may be NULL, indicating the
    4936                 :             :    entire insn sequence prior to LAST should be scanned.
    4937                 :             : 
    4938                 :             :    The set of allowed stack pointer modifications is small:
    4939                 :             :      (1) One or more auto-inc style memory references (aka pushes),
    4940                 :             :      (2) One or more addition/subtraction with the SP as destination,
    4941                 :             :      (3) A single move insn with the SP as destination,
    4942                 :             :      (4) A call_pop insn,
    4943                 :             :      (5) Noreturn call insns if !ACCUMULATE_OUTGOING_ARGS.
    4944                 :             : 
    4945                 :             :    Insns in the sequence that do not modify the SP are ignored,
    4946                 :             :    except for noreturn calls.
    4947                 :             : 
    4948                 :             :    The return value is the amount of adjustment that can be trivially
    4949                 :             :    verified, via immediate operand or auto-inc.  If the adjustment
    4950                 :             :    cannot be trivially extracted, the return value is HOST_WIDE_INT_MIN.  */
    4951                 :             : 
    4952                 :             : poly_int64
    4953                 :     4295888 : find_args_size_adjust (rtx_insn *insn)
    4954                 :             : {
    4955                 :     4295888 :   rtx dest, set, pat;
    4956                 :     4295888 :   int i;
    4957                 :             : 
    4958                 :     4295888 :   pat = PATTERN (insn);
    4959                 :     4295888 :   set = NULL;
    4960                 :             : 
    4961                 :             :   /* Look for a call_pop pattern.  */
    4962                 :     4295888 :   if (CALL_P (insn))
    4963                 :             :     {
    4964                 :             :       /* We have to allow non-call_pop patterns for the case
    4965                 :             :          of emit_single_push_insn of a TLS address.  */
    4966                 :     2672258 :       if (GET_CODE (pat) != PARALLEL)
    4967                 :     2658761 :         return 0;
    4968                 :             : 
    4969                 :             :       /* All call_pop have a stack pointer adjust in the parallel.
    4970                 :             :          The call itself is always first, and the stack adjust is
    4971                 :             :          usually last, so search from the end.  */
    4972                 :       13497 :       for (i = XVECLEN (pat, 0) - 1; i > 0; --i)
    4973                 :             :         {
    4974                 :       13497 :           set = XVECEXP (pat, 0, i);
    4975                 :       13497 :           if (GET_CODE (set) != SET)
    4976                 :           0 :             continue;
    4977                 :       13497 :           dest = SET_DEST (set);
    4978                 :       13497 :           if (dest == stack_pointer_rtx)
    4979                 :             :             break;
    4980                 :             :         }
    4981                 :             :       /* We'd better have found the stack pointer adjust.  */
    4982                 :       13497 :       if (i == 0)
    4983                 :           0 :         return 0;
    4984                 :             :       /* Fall through to process the extracted SET and DEST
    4985                 :             :          as if it was a standalone insn.  */
    4986                 :             :     }
    4987                 :     1623630 :   else if (GET_CODE (pat) == SET)
    4988                 :             :     set = pat;
    4989                 :      242321 :   else if ((set = single_set (insn)) != NULL)
    4990                 :             :     ;
    4991                 :       47177 :   else if (GET_CODE (pat) == PARALLEL)
    4992                 :             :     {
    4993                 :             :       /* ??? Some older ports use a parallel with a stack adjust
    4994                 :             :          and a store for a PUSH_ROUNDING pattern, rather than a
    4995                 :             :          PRE/POST_MODIFY rtx.  Don't force them to update yet...  */
    4996                 :             :       /* ??? See h8300 and m68k, pushqi1.  */
    4997                 :           0 :       for (i = XVECLEN (pat, 0) - 1; i >= 0; --i)
    4998                 :             :         {
    4999                 :           0 :           set = XVECEXP (pat, 0, i);
    5000                 :           0 :           if (GET_CODE (set) != SET)
    5001                 :           0 :             continue;
    5002                 :           0 :           dest = SET_DEST (set);
    5003                 :           0 :           if (dest == stack_pointer_rtx)
    5004                 :             :             break;
    5005                 :             : 
    5006                 :             :           /* We do not expect an auto-inc of the sp in the parallel.  */
    5007                 :           0 :           gcc_checking_assert (mem_autoinc_base (dest) != stack_pointer_rtx);
    5008                 :           0 :           gcc_checking_assert (mem_autoinc_base (SET_SRC (set))
    5009                 :             :                                != stack_pointer_rtx);
    5010                 :             :         }
    5011                 :           0 :       if (i < 0)
    5012                 :           0 :         return 0;
    5013                 :             :     }
    5014                 :             :   else
    5015                 :       47177 :     return 0;
    5016                 :             : 
    5017                 :     1589950 :   dest = SET_DEST (set);
    5018                 :             : 
    5019                 :             :   /* Look for direct modifications of the stack pointer.  */
    5020                 :     1589950 :   if (REG_P (dest) && REGNO (dest) == STACK_POINTER_REGNUM)
    5021                 :             :     {
    5022                 :             :       /* Look for a trivial adjustment, otherwise assume nothing.  */
    5023                 :             :       /* Note that the SPU restore_stack_block pattern refers to
    5024                 :             :          the stack pointer in V4SImode.  Consider that non-trivial.  */
    5025                 :      309864 :       poly_int64 offset;
    5026                 :      309864 :       if (SCALAR_INT_MODE_P (GET_MODE (dest))
    5027                 :      309864 :           && strip_offset (SET_SRC (set), &offset) == stack_pointer_rtx)
    5028                 :      307578 :         return offset;
    5029                 :             :       /* ??? Reload can generate no-op moves, which will be cleaned
    5030                 :             :          up later.  Recognize it and continue searching.  */
    5031                 :        2286 :       else if (rtx_equal_p (dest, SET_SRC (set)))
    5032                 :           0 :         return 0;
    5033                 :             :       else
    5034                 :        2286 :         return HOST_WIDE_INT_MIN;
    5035                 :             :     }
    5036                 :             :   else
    5037                 :             :     {
    5038                 :     1280086 :       rtx mem, addr;
    5039                 :             : 
    5040                 :             :       /* Otherwise only think about autoinc patterns.  */
    5041                 :     2316768 :       if (mem_autoinc_base (dest) == stack_pointer_rtx)
    5042                 :             :         {
    5043                 :      915822 :           mem = dest;
    5044                 :     1260108 :           gcc_checking_assert (mem_autoinc_base (SET_SRC (set))
    5045                 :             :                                != stack_pointer_rtx);
    5046                 :             :         }
    5047                 :      538756 :       else if (mem_autoinc_base (SET_SRC (set)) == stack_pointer_rtx)
    5048                 :             :         mem = SET_SRC (set);
    5049                 :             :       else
    5050                 :      257711 :         return 0;
    5051                 :             : 
    5052                 :     1022375 :       addr = XEXP (mem, 0);
    5053                 :     1022375 :       switch (GET_CODE (addr))
    5054                 :             :         {
    5055                 :      106553 :         case PRE_INC:
    5056                 :      106553 :         case POST_INC:
    5057                 :      213106 :           return GET_MODE_SIZE (GET_MODE (mem));
    5058                 :      896492 :         case PRE_DEC:
    5059                 :      896492 :         case POST_DEC:
    5060                 :     1792984 :           return -GET_MODE_SIZE (GET_MODE (mem));
    5061                 :       19330 :         case PRE_MODIFY:
    5062                 :       19330 :         case POST_MODIFY:
    5063                 :       19330 :           addr = XEXP (addr, 1);
    5064                 :       19330 :           gcc_assert (GET_CODE (addr) == PLUS);
    5065                 :       19330 :           gcc_assert (XEXP (addr, 0) == stack_pointer_rtx);
    5066                 :       19330 :           return rtx_to_poly_int64 (XEXP (addr, 1));
    5067                 :           0 :         default:
    5068                 :           0 :           gcc_unreachable ();
    5069                 :             :         }
    5070                 :             :     }
    5071                 :             : }
    5072                 :             : 
    5073                 :             : poly_int64
    5074                 :      660736 : fixup_args_size_notes (rtx_insn *prev, rtx_insn *last,
    5075                 :             :                        poly_int64 end_args_size)
    5076                 :             : {
    5077                 :      660736 :   poly_int64 args_size = end_args_size;
    5078                 :      660736 :   bool saw_unknown = false;
    5079                 :      660736 :   rtx_insn *insn;
    5080                 :             : 
    5081                 :     1888952 :   for (insn = last; insn != prev; insn = PREV_INSN (insn))
    5082                 :             :     {
    5083                 :     1228216 :       if (!NONDEBUG_INSN_P (insn))
    5084                 :           0 :         continue;
    5085                 :             : 
    5086                 :             :       /* We might have existing REG_ARGS_SIZE notes, e.g. when pushing
    5087                 :             :          a call argument containing a TLS address that itself requires
    5088                 :             :          a call to __tls_get_addr.  The handling of stack_pointer_delta
    5089                 :             :          in emit_single_push_insn is supposed to ensure that any such
    5090                 :             :          notes are already correct.  */
    5091                 :     1228216 :       rtx note = find_reg_note (insn, REG_ARGS_SIZE, NULL_RTX);
    5092                 :     1228216 :       gcc_assert (!note || known_eq (args_size, get_args_size (note)));
    5093                 :             : 
    5094                 :     1228216 :       poly_int64 this_delta = find_args_size_adjust (insn);
    5095                 :     1228216 :       if (known_eq (this_delta, 0))
    5096                 :             :         {
    5097                 :      606699 :           if (!CALL_P (insn)
    5098                 :           5 :               || ACCUMULATE_OUTGOING_ARGS
    5099                 :      303357 :               || find_reg_note (insn, REG_NORETURN, NULL_RTX) == NULL_RTX)
    5100                 :      303347 :             continue;
    5101                 :             :         }
    5102                 :             : 
    5103                 :      924869 :       gcc_assert (!saw_unknown);
    5104                 :      924869 :       if (known_eq (this_delta, HOST_WIDE_INT_MIN))
    5105                 :        2264 :         saw_unknown = true;
    5106                 :             : 
    5107                 :      924869 :       if (!note)
    5108                 :      924869 :         add_args_size_note (insn, args_size);
    5109                 :             :       if (STACK_GROWS_DOWNWARD)
    5110                 :      924869 :         this_delta = -poly_uint64 (this_delta);
    5111                 :             : 
    5112                 :      924869 :       if (saw_unknown)
    5113                 :             :         args_size = HOST_WIDE_INT_MIN;
    5114                 :             :       else
    5115                 :     1228216 :         args_size -= this_delta;
    5116                 :             :     }
    5117                 :             : 
    5118                 :      660736 :   return args_size;
    5119                 :             : }
    5120                 :             : 
    5121                 :             : #ifdef PUSH_ROUNDING
    5122                 :             : /* Emit single push insn.  */
    5123                 :             : 
    5124                 :             : static void
    5125                 :     1806847 : emit_single_push_insn_1 (machine_mode mode, rtx x, tree type)
    5126                 :             : {
    5127                 :     1806847 :   rtx dest_addr;
    5128                 :     3613694 :   poly_int64 rounded_size = PUSH_ROUNDING (GET_MODE_SIZE (mode));
    5129                 :     1806847 :   rtx dest;
    5130                 :     1806847 :   enum insn_code icode;
    5131                 :             : 
    5132                 :             :   /* If there is push pattern, use it.  Otherwise try old way of throwing
    5133                 :             :      MEM representing push operation to move expander.  */
    5134                 :     1806847 :   icode = optab_handler (push_optab, mode);
    5135                 :     1806847 :   if (icode != CODE_FOR_nothing)
    5136                 :             :     {
    5137                 :           0 :       class expand_operand ops[1];
    5138                 :             : 
    5139                 :           0 :       create_input_operand (&ops[0], x, mode);
    5140                 :           0 :       if (maybe_expand_insn (icode, 1, ops))
    5141                 :           0 :         return;
    5142                 :             :     }
    5143                 :     3613694 :   if (known_eq (GET_MODE_SIZE (mode), rounded_size))
    5144                 :     1692636 :     dest_addr = gen_rtx_fmt_e (STACK_PUSH_CODE, Pmode, stack_pointer_rtx);
    5145                 :             :   /* If we are to pad downward, adjust the stack pointer first and
    5146                 :             :      then store X into the stack location using an offset.  This is
    5147                 :             :      because emit_move_insn does not know how to pad; it does not have
    5148                 :             :      access to type.  */
    5149                 :      114211 :   else if (targetm.calls.function_arg_padding (mode, type) == PAD_DOWNWARD)
    5150                 :             :     {
    5151                 :           0 :       emit_move_insn (stack_pointer_rtx,
    5152                 :           0 :                       expand_binop (Pmode,
    5153                 :             :                                     STACK_GROWS_DOWNWARD ? sub_optab
    5154                 :             :                                     : add_optab,
    5155                 :             :                                     stack_pointer_rtx,
    5156                 :           0 :                                     gen_int_mode (rounded_size, Pmode),
    5157                 :             :                                     NULL_RTX, 0, OPTAB_LIB_WIDEN));
    5158                 :             : 
    5159                 :           0 :       poly_int64 offset = rounded_size - GET_MODE_SIZE (mode);
    5160                 :           0 :       if (STACK_GROWS_DOWNWARD && STACK_PUSH_CODE == POST_DEC)
    5161                 :             :         /* We have already decremented the stack pointer, so get the
    5162                 :             :            previous value.  */
    5163                 :             :         offset += rounded_size;
    5164                 :             : 
    5165                 :           0 :       if (!STACK_GROWS_DOWNWARD && STACK_PUSH_CODE == POST_INC)
    5166                 :             :         /* We have already incremented the stack pointer, so get the
    5167                 :             :            previous value.  */
    5168                 :             :         offset -= rounded_size;
    5169                 :             : 
    5170                 :           0 :       dest_addr = plus_constant (Pmode, stack_pointer_rtx, offset);
    5171                 :             :     }
    5172                 :             :   else
    5173                 :             :     {
    5174                 :             :       if (STACK_GROWS_DOWNWARD)
    5175                 :             :         /* ??? This seems wrong if STACK_PUSH_CODE == POST_DEC.  */
    5176                 :      114211 :         dest_addr = plus_constant (Pmode, stack_pointer_rtx, -rounded_size);
    5177                 :             :       else
    5178                 :             :         /* ??? This seems wrong if STACK_PUSH_CODE == POST_INC.  */
    5179                 :             :         dest_addr = plus_constant (Pmode, stack_pointer_rtx, rounded_size);
    5180                 :             : 
    5181                 :      114211 :       dest_addr = gen_rtx_PRE_MODIFY (Pmode, stack_pointer_rtx, dest_addr);
    5182                 :             :     }
    5183                 :             : 
    5184                 :     1806847 :   dest = gen_rtx_MEM (mode, dest_addr);
    5185                 :             : 
    5186                 :     1806847 :   if (type != 0)
    5187                 :             :     {
    5188                 :     1806800 :       set_mem_attributes (dest, type, 1);
    5189                 :             : 
    5190                 :     1806800 :       if (cfun->tail_call_marked)
    5191                 :             :         /* Function incoming arguments may overlap with sibling call
    5192                 :             :            outgoing arguments and we cannot allow reordering of reads
    5193                 :             :            from function arguments with stores to outgoing arguments
    5194                 :             :            of sibling calls.  */
    5195                 :      137298 :         set_mem_alias_set (dest, 0);
    5196                 :             :     }
    5197                 :     1806847 :   emit_move_insn (dest, x);
    5198                 :             : }
    5199                 :             : 
    5200                 :             : /* Emit and annotate a single push insn.  */
    5201                 :             : 
    5202                 :             : static void
    5203                 :     1806847 : emit_single_push_insn (machine_mode mode, rtx x, tree type)
    5204                 :             : {
    5205                 :     1806847 :   poly_int64 delta, old_delta = stack_pointer_delta;
    5206                 :     1806847 :   rtx_insn *prev = get_last_insn ();
    5207                 :     1806847 :   rtx_insn *last;
    5208                 :             : 
    5209                 :     1806847 :   emit_single_push_insn_1 (mode, x, type);
    5210                 :             : 
    5211                 :             :   /* Adjust stack_pointer_delta to describe the situation after the push
    5212                 :             :      we just performed.  Note that we must do this after the push rather
    5213                 :             :      than before the push in case calculating X needs pushes and pops of
    5214                 :             :      its own (e.g. if calling __tls_get_addr).  The REG_ARGS_SIZE notes
    5215                 :             :      for such pushes and pops must not include the effect of the future
    5216                 :             :      push of X.  */
    5217                 :     3613694 :   stack_pointer_delta += PUSH_ROUNDING (GET_MODE_SIZE (mode));
    5218                 :             : 
    5219                 :     1806847 :   last = get_last_insn ();
    5220                 :             : 
    5221                 :             :   /* Notice the common case where we emitted exactly one insn.  */
    5222                 :     1806847 :   if (PREV_INSN (last) == prev)
    5223                 :             :     {
    5224                 :     1698395 :       add_args_size_note (last, stack_pointer_delta);
    5225                 :     1698395 :       return;
    5226                 :             :     }
    5227                 :             : 
    5228                 :      108452 :   delta = fixup_args_size_notes (prev, last, stack_pointer_delta);
    5229                 :      108452 :   gcc_assert (known_eq (delta, HOST_WIDE_INT_MIN)
    5230                 :             :               || known_eq (delta, old_delta));
    5231                 :             : }
    5232                 :             : #endif
    5233                 :             : 
    5234                 :             : /* If reading SIZE bytes from X will end up reading from
    5235                 :             :    Y return the number of bytes that overlap.  Return -1
    5236                 :             :    if there is no overlap or -2 if we can't determine
    5237                 :             :    (for example when X and Y have different base registers).  */
    5238                 :             : 
    5239                 :             : static int
    5240                 :           0 : memory_load_overlap (rtx x, rtx y, HOST_WIDE_INT size)
    5241                 :             : {
    5242                 :           0 :   rtx tmp = plus_constant (Pmode, x, size);
    5243                 :           0 :   rtx sub = simplify_gen_binary (MINUS, Pmode, tmp, y);
    5244                 :             : 
    5245                 :           0 :   if (!CONST_INT_P (sub))
    5246                 :             :     return -2;
    5247                 :             : 
    5248                 :           0 :   HOST_WIDE_INT val = INTVAL (sub);
    5249                 :             : 
    5250                 :           0 :   return IN_RANGE (val, 1, size) ? val : -1;
    5251                 :             : }
    5252                 :             : 
    5253                 :             : /* Generate code to push X onto the stack, assuming it has mode MODE and
    5254                 :             :    type TYPE.
    5255                 :             :    MODE is redundant except when X is a CONST_INT (since they don't
    5256                 :             :    carry mode info).
    5257                 :             :    SIZE is an rtx for the size of data to be copied (in bytes),
    5258                 :             :    needed only if X is BLKmode.
    5259                 :             :    Return true if successful.  May return false if asked to push a
    5260                 :             :    partial argument during a sibcall optimization (as specified by
    5261                 :             :    SIBCALL_P) and the incoming and outgoing pointers cannot be shown
    5262                 :             :    to not overlap.
    5263                 :             : 
    5264                 :             :    ALIGN (in bits) is maximum alignment we can assume.
    5265                 :             : 
    5266                 :             :    If PARTIAL and REG are both nonzero, then copy that many of the first
    5267                 :             :    bytes of X into registers starting with REG, and push the rest of X.
    5268                 :             :    The amount of space pushed is decreased by PARTIAL bytes.
    5269                 :             :    REG must be a hard register in this case.
    5270                 :             :    If REG is zero but PARTIAL is not, take any all others actions for an
    5271                 :             :    argument partially in registers, but do not actually load any
    5272                 :             :    registers.
    5273                 :             : 
    5274                 :             :    EXTRA is the amount in bytes of extra space to leave next to this arg.
    5275                 :             :    This is ignored if an argument block has already been allocated.
    5276                 :             : 
    5277                 :             :    On a machine that lacks real push insns, ARGS_ADDR is the address of
    5278                 :             :    the bottom of the argument block for this call.  We use indexing off there
    5279                 :             :    to store the arg.  On machines with push insns, ARGS_ADDR is 0 when a
    5280                 :             :    argument block has not been preallocated.
    5281                 :             : 
    5282                 :             :    ARGS_SO_FAR is the size of args previously pushed for this call.
    5283                 :             : 
    5284                 :             :    REG_PARM_STACK_SPACE is nonzero if functions require stack space
    5285                 :             :    for arguments passed in registers.  If nonzero, it will be the number
    5286                 :             :    of bytes required.  */
    5287                 :             : 
    5288                 :             : bool
    5289                 :     2127584 : emit_push_insn (rtx x, machine_mode mode, tree type, rtx size,
    5290                 :             :                 unsigned int align, int partial, rtx reg, poly_int64 extra,
    5291                 :             :                 rtx args_addr, rtx args_so_far, int reg_parm_stack_space,
    5292                 :             :                 rtx alignment_pad, bool sibcall_p)
    5293                 :             : {
    5294                 :     2127584 :   rtx xinner;
    5295                 :     2127584 :   pad_direction stack_direction
    5296                 :             :     = STACK_GROWS_DOWNWARD ? PAD_DOWNWARD : PAD_UPWARD;
    5297                 :             : 
    5298                 :             :   /* Decide where to pad the argument: PAD_DOWNWARD for below,
    5299                 :             :      PAD_UPWARD for above, or PAD_NONE for don't pad it.
    5300                 :             :      Default is below for small data on big-endian machines; else above.  */
    5301                 :     2127584 :   pad_direction where_pad = targetm.calls.function_arg_padding (mode, type);
    5302                 :             : 
    5303                 :             :   /* Invert direction if stack is post-decrement.
    5304                 :             :      FIXME: why?  */
    5305                 :     2127584 :   if (STACK_PUSH_CODE == POST_DEC)
    5306                 :             :     if (where_pad != PAD_NONE)
    5307                 :             :       where_pad = (where_pad == PAD_DOWNWARD ? PAD_UPWARD : PAD_DOWNWARD);
    5308                 :             : 
    5309                 :     2127584 :   xinner = x;
    5310                 :             : 
    5311                 :     2127584 :   int nregs = partial / UNITS_PER_WORD;
    5312                 :     2127584 :   rtx *tmp_regs = NULL;
    5313                 :     2127584 :   int overlapping = 0;
    5314                 :             : 
    5315                 :     2127584 :   if (mode == BLKmode
    5316                 :             :       || (STRICT_ALIGNMENT && align < GET_MODE_ALIGNMENT (mode)))
    5317                 :             :     {
    5318                 :             :       /* Copy a block into the stack, entirely or partially.  */
    5319                 :             : 
    5320                 :      266152 :       rtx temp;
    5321                 :      266152 :       int used;
    5322                 :      266152 :       int offset;
    5323                 :      266152 :       int skip;
    5324                 :             : 
    5325                 :      266152 :       offset = partial % (PARM_BOUNDARY / BITS_PER_UNIT);
    5326                 :      266152 :       used = partial - offset;
    5327                 :             : 
    5328                 :      266152 :       if (mode != BLKmode)
    5329                 :             :         {
    5330                 :             :           /* A value is to be stored in an insufficiently aligned
    5331                 :             :              stack slot; copy via a suitably aligned slot if
    5332                 :             :              necessary.  */
    5333                 :             :           size = gen_int_mode (GET_MODE_SIZE (mode), Pmode);
    5334                 :             :           if (!MEM_P (xinner))
    5335                 :             :             {
    5336                 :             :               temp = assign_temp (type, 1, 1);
    5337                 :             :               emit_move_insn (temp, xinner);
    5338                 :             :               xinner = temp;
    5339                 :             :             }
    5340                 :             :         }
    5341                 :             : 
    5342                 :      266152 :       gcc_assert (size);
    5343                 :             : 
    5344                 :             :       /* USED is now the # of bytes we need not copy to the stack
    5345                 :             :          because registers will take care of them.  */
    5346                 :             : 
    5347                 :      266152 :       if (partial != 0)
    5348                 :           0 :         xinner = adjust_address (xinner, BLKmode, used);
    5349                 :             : 
    5350                 :             :       /* If the partial register-part of the arg counts in its stack size,
    5351                 :             :          skip the part of stack space corresponding to the registers.
    5352                 :             :          Otherwise, start copying to the beginning of the stack space,
    5353                 :             :          by setting SKIP to 0.  */
    5354                 :      266152 :       skip = (reg_parm_stack_space == 0) ? 0 : used;
    5355                 :             : 
    5356                 :             : #ifdef PUSH_ROUNDING
    5357                 :             :       /* NB: Let the backend known the number of bytes to push and
    5358                 :             :          decide if push insns should be generated.  */
    5359                 :      266152 :       unsigned int push_size;
    5360                 :      266152 :       if (CONST_INT_P (size))
    5361                 :      266152 :         push_size = INTVAL (size);
    5362                 :             :       else
    5363                 :             :         push_size = 0;
    5364                 :             : 
    5365                 :             :       /* Do it with several push insns if that doesn't take lots of insns
    5366                 :             :          and if there is no difficulty with push insns that skip bytes
    5367                 :             :          on the stack for alignment purposes.  */
    5368                 :      266152 :       if (args_addr == 0
    5369                 :      266106 :           && targetm.calls.push_argument (push_size)
    5370                 :        3790 :           && CONST_INT_P (size)
    5371                 :        3790 :           && skip == 0
    5372                 :        3790 :           && MEM_ALIGN (xinner) >= align
    5373                 :        2886 :           && can_move_by_pieces ((unsigned) INTVAL (size) - used, align)
    5374                 :             :           /* Here we avoid the case of a structure whose weak alignment
    5375                 :             :              forces many pushes of a small amount of data,
    5376                 :             :              and such small pushes do rounding that causes trouble.  */
    5377                 :        2886 :           && ((!targetm.slow_unaligned_access (word_mode, align))
    5378                 :           0 :               || align >= BIGGEST_ALIGNMENT
    5379                 :           0 :               || known_eq (PUSH_ROUNDING (align / BITS_PER_UNIT),
    5380                 :             :                            align / BITS_PER_UNIT))
    5381                 :      269038 :           && known_eq (PUSH_ROUNDING (INTVAL (size)), INTVAL (size)))
    5382                 :             :         {
    5383                 :             :           /* Push padding now if padding above and stack grows down,
    5384                 :             :              or if padding below and stack grows up.
    5385                 :             :              But if space already allocated, this has already been done.  */
    5386                 :          45 :           if (maybe_ne (extra, 0)
    5387                 :             :               && args_addr == 0
    5388                 :           0 :               && where_pad != PAD_NONE
    5389                 :          45 :               && where_pad != stack_direction)
    5390                 :           0 :             anti_adjust_stack (gen_int_mode (extra, Pmode));
    5391                 :             : 
    5392                 :          45 :           move_by_pieces (NULL, xinner, INTVAL (size) - used, align,
    5393                 :             :                           RETURN_BEGIN);
    5394                 :             :         }
    5395                 :             :       else
    5396                 :             : #endif /* PUSH_ROUNDING  */
    5397                 :             :         {
    5398                 :      266107 :           rtx target;
    5399                 :             : 
    5400                 :             :           /* Otherwise make space on the stack and copy the data
    5401                 :             :              to the address of that space.  */
    5402                 :             : 
    5403                 :             :           /* Deduct words put into registers from the size we must copy.  */
    5404                 :      266107 :           if (partial != 0)
    5405                 :             :             {
    5406                 :           0 :               if (CONST_INT_P (size))
    5407                 :           0 :                 size = GEN_INT (INTVAL (size) - used);
    5408                 :             :               else
    5409                 :           0 :                 size = expand_binop (GET_MODE (size), sub_optab, size,
    5410                 :           0 :                                      gen_int_mode (used, GET_MODE (size)),
    5411                 :             :                                      NULL_RTX, 0, OPTAB_LIB_WIDEN);
    5412                 :             :             }
    5413                 :             : 
    5414                 :             :           /* Get the address of the stack space.
    5415                 :             :              In this case, we do not deal with EXTRA separately.
    5416                 :             :              A single stack adjust will do.  */
    5417                 :      266107 :           poly_int64 const_args_so_far;
    5418                 :      266107 :           if (! args_addr)
    5419                 :             :             {
    5420                 :      266061 :               temp = push_block (size, extra, where_pad == PAD_DOWNWARD);
    5421                 :      266061 :               extra = 0;
    5422                 :             :             }
    5423                 :          46 :           else if (poly_int_rtx_p (args_so_far, &const_args_so_far))
    5424                 :          46 :             temp = memory_address (BLKmode,
    5425                 :             :                                    plus_constant (Pmode, args_addr,
    5426                 :             :                                                   skip + const_args_so_far));
    5427                 :             :           else
    5428                 :           0 :             temp = memory_address (BLKmode,
    5429                 :             :                                    plus_constant (Pmode,
    5430                 :             :                                                   gen_rtx_PLUS (Pmode,
    5431                 :             :                                                                 args_addr,
    5432                 :             :                                                                 args_so_far),
    5433                 :             :                                                   skip));
    5434                 :             : 
    5435                 :      266107 :           if (!ACCUMULATE_OUTGOING_ARGS)
    5436                 :             :             {
    5437                 :             :               /* If the source is referenced relative to the stack pointer,
    5438                 :             :                  copy it to another register to stabilize it.  We do not need
    5439                 :             :                  to do this if we know that we won't be changing sp.  */
    5440                 :             : 
    5441                 :      266107 :               if (reg_mentioned_p (virtual_stack_dynamic_rtx, temp)
    5442                 :      266107 :                   || reg_mentioned_p (virtual_outgoing_args_rtx, temp))
    5443                 :      266061 :                 temp = copy_to_reg (temp);
    5444                 :             :             }
    5445                 :             : 
    5446                 :      266107 :           target = gen_rtx_MEM (BLKmode, temp);
    5447                 :             : 
    5448                 :             :           /* We do *not* set_mem_attributes here, because incoming arguments
    5449                 :             :              may overlap with sibling call outgoing arguments and we cannot
    5450                 :             :              allow reordering of reads from function arguments with stores
    5451                 :             :              to outgoing arguments of sibling calls.  We do, however, want
    5452                 :             :              to record the alignment of the stack slot.  */
    5453                 :             :           /* ALIGN may well be better aligned than TYPE, e.g. due to
    5454                 :             :              PARM_BOUNDARY.  Assume the caller isn't lying.  */
    5455                 :      266107 :           set_mem_align (target, align);
    5456                 :             : 
    5457                 :             :           /* If part should go in registers and pushing to that part would
    5458                 :             :              overwrite some of the values that need to go into regs, load the
    5459                 :             :              overlapping values into temporary pseudos to be moved into the hard
    5460                 :             :              regs at the end after the stack pushing has completed.
    5461                 :             :              We cannot load them directly into the hard regs here because
    5462                 :             :              they can be clobbered by the block move expansions.
    5463                 :             :              See PR 65358.  */
    5464                 :             : 
    5465                 :      266107 :           if (partial > 0 && reg != 0 && mode == BLKmode
    5466                 :           0 :               && GET_CODE (reg) != PARALLEL)
    5467                 :             :             {
    5468                 :           0 :               overlapping = memory_load_overlap (XEXP (x, 0), temp, partial);
    5469                 :           0 :               if (overlapping > 0)
    5470                 :             :                 {
    5471                 :           0 :                   gcc_assert (overlapping % UNITS_PER_WORD == 0);
    5472                 :           0 :                   overlapping /= UNITS_PER_WORD;
    5473                 :             : 
    5474                 :           0 :                   tmp_regs = XALLOCAVEC (rtx, overlapping);
    5475                 :             : 
    5476                 :           0 :                   for (int i = 0; i < overlapping; i++)
    5477                 :           0 :                     tmp_regs[i] = gen_reg_rtx (word_mode);
    5478                 :             : 
    5479                 :           0 :                   for (int i = 0; i < overlapping; i++)
    5480                 :           0 :                     emit_move_insn (tmp_regs[i],
    5481                 :           0 :                                     operand_subword_force (target, i, mode));
    5482                 :             :                 }
    5483                 :           0 :               else if (overlapping == -1)
    5484                 :             :                 overlapping = 0;
    5485                 :             :               /* Could not determine whether there is overlap.
    5486                 :             :                  Fail the sibcall.  */
    5487                 :             :               else
    5488                 :             :                 {
    5489                 :           0 :                   overlapping = 0;
    5490                 :           0 :                   if (sibcall_p)
    5491                 :           0 :                     return false;
    5492                 :             :                 }
    5493                 :             :             }
    5494                 :             : 
    5495                 :             :           /* If source is a constant VAR_DECL with a simple constructor,
    5496                 :             :              store the constructor to the stack instead of moving it.  */
    5497                 :      266107 :           const_tree decl;
    5498                 :      266107 :           HOST_WIDE_INT sz;
    5499                 :      266107 :           if (partial == 0
    5500                 :      266107 :               && MEM_P (xinner)
    5501                 :      266107 :               && SYMBOL_REF_P (XEXP (xinner, 0))
    5502                 :       81584 :               && (decl = SYMBOL_REF_DECL (XEXP (xinner, 0))) != NULL_TREE
    5503                 :       81584 :               && VAR_P (decl)
    5504                 :       81584 :               && TREE_READONLY (decl)
    5505                 :        4339 :               && !TREE_SIDE_EFFECTS (decl)
    5506                 :        4339 :               && immediate_const_ctor_p (DECL_INITIAL (decl), 2)
    5507                 :           6 :               && (sz = int_expr_size (DECL_INITIAL (decl))) > 0
    5508                 :           6 :               && CONST_INT_P (size)
    5509                 :      266113 :               && INTVAL (size) == sz)
    5510                 :           0 :             store_constructor (DECL_INITIAL (decl), target, 0, sz, false);
    5511                 :             :           else
    5512                 :      266107 :             emit_block_move (target, xinner, size, BLOCK_OP_CALL_PARM);
    5513                 :             :         }
    5514                 :             :     }
    5515                 :     1861432 :   else if (partial > 0)
    5516                 :             :     {
    5517                 :             :       /* Scalar partly in registers.  This case is only supported
    5518                 :             :          for fixed-wdth modes.  */
    5519                 :           0 :       int num_words = GET_MODE_SIZE (mode).to_constant ();
    5520                 :           0 :       num_words /= UNITS_PER_WORD;
    5521                 :           0 :       int i;
    5522                 :           0 :       int not_stack;
    5523                 :             :       /* # bytes of start of argument
    5524                 :             :          that we must make space for but need not store.  */
    5525                 :           0 :       int offset = partial % (PARM_BOUNDARY / BITS_PER_UNIT);
    5526                 :           0 :       int args_offset = INTVAL (args_so_far);
    5527                 :           0 :       int skip;
    5528                 :             : 
    5529                 :             :       /* Push padding now if padding above and stack grows down,
    5530                 :             :          or if padding below and stack grows up.
    5531                 :             :          But if space already allocated, this has already been done.  */
    5532                 :           0 :       if (maybe_ne (extra, 0)
    5533                 :           0 :           && args_addr == 0
    5534                 :           0 :           && where_pad != PAD_NONE
    5535                 :           0 :           && where_pad != stack_direction)
    5536                 :           0 :         anti_adjust_stack (gen_int_mode (extra, Pmode));
    5537                 :             : 
    5538                 :             :       /* If we make space by pushing it, we might as well push
    5539                 :             :          the real data.  Otherwise, we can leave OFFSET nonzero
    5540                 :             :          and leave the space uninitialized.  */
    5541                 :           0 :       if (args_addr == 0)
    5542                 :           0 :         offset = 0;
    5543                 :             : 
    5544                 :             :       /* Now NOT_STACK gets the number of words that we don't need to
    5545                 :             :          allocate on the stack.  Convert OFFSET to words too.  */
    5546                 :           0 :       not_stack = (partial - offset) / UNITS_PER_WORD;
    5547                 :           0 :       offset /= UNITS_PER_WORD;
    5548                 :             : 
    5549                 :             :       /* If the partial register-part of the arg counts in its stack size,
    5550                 :             :          skip the part of stack space corresponding to the registers.
    5551                 :             :          Otherwise, start copying to the beginning of the stack space,
    5552                 :             :          by setting SKIP to 0.  */
    5553                 :           0 :       skip = (reg_parm_stack_space == 0) ? 0 : not_stack;
    5554                 :             : 
    5555                 :           0 :       if (CONSTANT_P (x) && !targetm.legitimate_constant_p (mode, x))
    5556                 :           0 :         x = validize_mem (force_const_mem (mode, x));
    5557                 :             : 
    5558                 :             :       /* If X is a hard register in a non-integer mode, copy it into a pseudo;
    5559                 :             :          SUBREGs of such registers are not allowed.  */
    5560                 :           0 :       if ((REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER
    5561                 :           0 :            && GET_MODE_CLASS (GET_MODE (x)) != MODE_INT))
    5562                 :           0 :         x = copy_to_reg (x);
    5563                 :             : 
    5564                 :             :       /* Loop over all the words allocated on the stack for this arg.  */
    5565                 :             :       /* We can do it by words, because any scalar bigger than a word
    5566                 :             :          has a size a multiple of a word.  */
    5567                 :           0 :       tree word_mode_type = lang_hooks.types.type_for_mode (word_mode, 1);
    5568                 :           0 :       for (i = num_words - 1; i >= not_stack; i--)
    5569                 :           0 :         if (i >= not_stack + offset)
    5570                 :           0 :           if (!emit_push_insn (operand_subword_force (x, i, mode),
    5571                 :             :                           word_mode, word_mode_type, NULL_RTX, align, 0,
    5572                 :           0 :                           NULL_RTX, 0, args_addr,
    5573                 :           0 :                           GEN_INT (args_offset + ((i - not_stack + skip)
    5574                 :             :                                                   * UNITS_PER_WORD)),
    5575                 :             :                           reg_parm_stack_space, alignment_pad, sibcall_p))
    5576                 :           0 :             return false;
    5577                 :             :     }
    5578                 :             :   else
    5579                 :             :     {
    5580                 :     1861432 :       rtx addr;
    5581                 :     1861432 :       rtx dest;
    5582                 :             : 
    5583                 :             :       /* Push padding now if padding above and stack grows down,
    5584                 :             :          or if padding below and stack grows up.
    5585                 :             :          But if space already allocated, this has already been done.  */
    5586                 :     1861432 :       if (maybe_ne (extra, 0)
    5587                 :           0 :           && args_addr == 0
    5588                 :           0 :           && where_pad != PAD_NONE
    5589                 :     1861432 :           && where_pad != stack_direction)
    5590                 :           0 :         anti_adjust_stack (gen_int_mode (extra, Pmode));
    5591                 :             : 
    5592                 :             : #ifdef PUSH_ROUNDING
    5593                 :     1861432 :       if (args_addr == 0 && targetm.calls.push_argument (0))
    5594                 :     1806800 :         emit_single_push_insn (mode, x, type);
    5595                 :             :       else
    5596                 :             : #endif
    5597                 :             :         {
    5598                 :       54632 :           addr = simplify_gen_binary (PLUS, Pmode, args_addr, args_so_far);
    5599                 :       54632 :           dest = gen_rtx_MEM (mode, memory_address (mode, addr));
    5600                 :             : 
    5601                 :             :           /* We do *not* set_mem_attributes here, because incoming arguments
    5602                 :             :              may overlap with sibling call outgoing arguments and we cannot
    5603                 :             :              allow reordering of reads from function arguments with stores
    5604                 :             :              to outgoing arguments of sibling calls.  We do, however, want
    5605                 :             :              to record the alignment of the stack slot.  */
    5606                 :             :           /* ALIGN may well be better aligned than TYPE, e.g. due to
    5607                 :             :              PARM_BOUNDARY.  Assume the caller isn't lying.  */
    5608                 :       54632 :           set_mem_align (dest, align);
    5609                 :             : 
    5610                 :       54632 :           emit_move_insn (dest, x);
    5611                 :             :         }
    5612                 :             :     }
    5613                 :             : 
    5614                 :             :   /* Move the partial arguments into the registers and any overlapping
    5615                 :             :      values that we moved into the pseudos in tmp_regs.  */
    5616                 :     2127584 :   if (partial > 0 && reg != 0)
    5617                 :             :     {
    5618                 :             :       /* Handle calls that pass values in multiple non-contiguous locations.
    5619                 :             :          The Irix 6 ABI has examples of this.  */
    5620                 :           0 :       if (GET_CODE (reg) == PARALLEL)
    5621                 :           0 :         emit_group_load (reg, x, type, -1);
    5622                 :             :       else
    5623                 :             :         {
    5624                 :           0 :           gcc_assert (partial % UNITS_PER_WORD == 0);
    5625                 :           0 :           move_block_to_reg (REGNO (reg), x, nregs - overlapping, mode);
    5626                 :             : 
    5627                 :           0 :           for (int i = 0; i < overlapping; i++)
    5628                 :           0 :             emit_move_insn (gen_rtx_REG (word_mode, REGNO (reg)
    5629                 :           0 :                                                     + nregs - overlapping + i),
    5630                 :           0 :                             tmp_regs[i]);
    5631                 :             : 
    5632                 :             :         }
    5633                 :             :     }
    5634                 :             : 
    5635                 :     2127584 :   if (maybe_ne (extra, 0) && args_addr == 0 && where_pad == stack_direction)
    5636                 :           0 :     anti_adjust_stack (gen_int_mode (extra, Pmode));
    5637                 :             : 
    5638                 :     2127584 :   if (alignment_pad && args_addr == 0)
    5639                 :     2072906 :     anti_adjust_stack (alignment_pad);
    5640                 :             : 
    5641                 :             :   return true;
    5642                 :             : }
    5643                 :             : 
    5644                 :             : /* Return X if X can be used as a subtarget in a sequence of arithmetic
    5645                 :             :    operations.  */
    5646                 :             : 
    5647                 :             : static rtx
    5648                 :   187748429 : get_subtarget (rtx x)
    5649                 :             : {
    5650                 :   187748429 :   return (optimize
    5651                 :    49767987 :           || x == 0
    5652                 :             :            /* Only registers can be subtargets.  */
    5653                 :    16669854 :            || !REG_P (x)
    5654                 :             :            /* Don't use hard regs to avoid extending their life.  */
    5655                 :    11386288 :            || REGNO (x) < FIRST_PSEUDO_REGISTER
    5656                 :   187748429 :           ? 0 : x);
    5657                 :             : }
    5658                 :             : 
    5659                 :             : /* A subroutine of expand_assignment.  Optimize FIELD op= VAL, where
    5660                 :             :    FIELD is a bitfield.  Returns true if the optimization was successful,
    5661                 :             :    and there's nothing else to do.  */
    5662                 :             : 
    5663                 :             : static bool
    5664                 :     4533260 : optimize_bitfield_assignment_op (poly_uint64 pbitsize,
    5665                 :             :                                  poly_uint64 pbitpos,
    5666                 :             :                                  poly_uint64 pbitregion_start,
    5667                 :             :                                  poly_uint64 pbitregion_end,
    5668                 :             :                                  machine_mode mode1, rtx str_rtx,
    5669                 :             :                                  tree to, tree src, bool reverse)
    5670                 :             : {
    5671                 :             :   /* str_mode is not guaranteed to be a scalar type.  */
    5672                 :     4533260 :   machine_mode str_mode = GET_MODE (str_rtx);
    5673                 :     4533260 :   unsigned int str_bitsize;
    5674                 :     4533260 :   tree op0, op1;
    5675                 :     4533260 :   rtx value, result;
    5676                 :     4533260 :   optab binop;
    5677                 :     4533260 :   gimple *srcstmt;
    5678                 :     4533260 :   enum tree_code code;
    5679                 :             : 
    5680                 :     4533260 :   unsigned HOST_WIDE_INT bitsize, bitpos, bitregion_start, bitregion_end;
    5681                 :     4533260 :   if (mode1 != VOIDmode
    5682                 :       69344 :       || !pbitsize.is_constant (&bitsize)
    5683                 :       69344 :       || !pbitpos.is_constant (&bitpos)
    5684                 :       69344 :       || !pbitregion_start.is_constant (&bitregion_start)
    5685                 :       69344 :       || !pbitregion_end.is_constant (&bitregion_end)
    5686                 :       69910 :       || bitsize >= BITS_PER_WORD
    5687                 :       69075 :       || !GET_MODE_BITSIZE (str_mode).is_constant (&str_bitsize)
    5688                 :       69641 :       || str_bitsize > BITS_PER_WORD
    5689                 :       63462 :       || TREE_SIDE_EFFECTS (to)
    5690                 :     4596610 :       || TREE_THIS_VOLATILE (to))
    5691                 :             :     return false;
    5692                 :             : 
    5693                 :       63350 :   STRIP_NOPS (src);
    5694                 :       63350 :   if (TREE_CODE (src) != SSA_NAME)
    5695                 :             :     return false;
    5696                 :       21793 :   if (TREE_CODE (TREE_TYPE (src)) != INTEGER_TYPE)
    5697                 :             :     return false;
    5698                 :             : 
    5699                 :       20668 :   srcstmt = get_gimple_for_ssa_name (src);
    5700                 :       20668 :   if (!srcstmt
    5701                 :        4203 :       || !is_gimple_assign (srcstmt)
    5702                 :       24871 :       || TREE_CODE_CLASS (gimple_assign_rhs_code (srcstmt)) != tcc_binary)
    5703                 :             :     return false;
    5704                 :             : 
    5705                 :         419 :   code = gimple_assign_rhs_code (srcstmt);
    5706                 :             : 
    5707                 :         419 :   op0 = gimple_assign_rhs1 (srcstmt);
    5708                 :             : 
    5709                 :             :   /* If OP0 is an SSA_NAME, then we want to walk the use-def chain
    5710                 :             :      to find its initialization.  Hopefully the initialization will
    5711                 :             :      be from a bitfield load.  */
    5712                 :         419 :   if (TREE_CODE (op0) == SSA_NAME)
    5713                 :             :     {
    5714                 :         419 :       gimple *op0stmt = get_gimple_for_ssa_name (op0);
    5715                 :             : 
    5716                 :             :       /* We want to eventually have OP0 be the same as TO, which
    5717                 :             :          should be a bitfield.  */
    5718                 :         419 :       if (!op0stmt
    5719                 :         389 :           || !is_gimple_assign (op0stmt)
    5720                 :         808 :           || gimple_assign_rhs_code (op0stmt) != TREE_CODE (to))
    5721                 :             :         return false;
    5722                 :         299 :       op0 = gimple_assign_rhs1 (op0stmt);
    5723                 :             :     }
    5724                 :             : 
    5725                 :         299 :   op1 = gimple_assign_rhs2 (srcstmt);
    5726                 :             : 
    5727                 :         299 :   if (!operand_equal_p (to, op0, 0))
    5728                 :             :     return false;
    5729                 :             : 
    5730                 :         229 :   if (MEM_P (str_rtx))
    5731                 :             :     {
    5732                 :         224 :       unsigned HOST_WIDE_INT offset1;
    5733                 :             : 
    5734                 :         224 :       if (str_bitsize == 0 || str_bitsize > BITS_PER_WORD)
    5735                 :           4 :         str_bitsize = BITS_PER_WORD;
    5736                 :             : 
    5737                 :         224 :       scalar_int_mode best_mode;
    5738                 :         224 :       if (!get_best_mode (bitsize, bitpos, bitregion_start, bitregion_end,
    5739                 :         224 :                           MEM_ALIGN (str_rtx), str_bitsize, false, &best_mode))
    5740                 :           0 :         return false;
    5741                 :         224 :       str_mode = best_mode;
    5742                 :         224 :       str_bitsize = GET_MODE_BITSIZE (best_mode);
    5743                 :             : 
    5744                 :         224 :       offset1 = bitpos;
    5745                 :         224 :       bitpos %= str_bitsize;
    5746                 :         224 :       offset1 = (offset1 - bitpos) / BITS_PER_UNIT;
    5747                 :         224 :       str_rtx = adjust_address (str_rtx, str_mode, offset1);
    5748                 :             :     }
    5749                 :           5 :   else if (!REG_P (str_rtx) && GET_CODE (str_rtx) != SUBREG)
    5750                 :             :     return false;
    5751                 :             : 
    5752                 :             :   /* If the bit field covers the whole REG/MEM, store_field
    5753                 :             :      will likely generate better code.  */
    5754                 :         229 :   if (bitsize >= str_bitsize)
    5755                 :             :     return false;
    5756                 :             : 
    5757                 :             :   /* We can't handle fields split across multiple entities.  */
    5758                 :         229 :   if (bitpos + bitsize > str_bitsize)
    5759                 :             :     return false;
    5760                 :             : 
    5761                 :         229 :   if (reverse ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
    5762                 :           0 :     bitpos = str_bitsize - bitpos - bitsize;
    5763                 :             : 
    5764                 :         229 :   switch (code)
    5765                 :             :     {
    5766                 :         141 :     case PLUS_EXPR:
    5767                 :         141 :     case MINUS_EXPR:
    5768                 :             :       /* For now, just optimize the case of the topmost bitfield
    5769                 :             :          where we don't need to do any masking and also
    5770                 :             :          1 bit bitfields where xor can be used.
    5771                 :             :          We might win by one instruction for the other bitfields
    5772                 :             :          too if insv/extv instructions aren't used, so that
    5773                 :             :          can be added later.  */
    5774                 :         141 :       if ((reverse || bitpos + bitsize != str_bitsize)
    5775                 :          97 :           && (bitsize != 1 || TREE_CODE (op1) != INTEGER_CST))
    5776                 :             :         break;
    5777                 :             : 
    5778                 :          70 :       value = expand_expr (op1, NULL_RTX, str_mode, EXPAND_NORMAL);
    5779                 :          70 :       value = convert_modes (str_mode,
    5780                 :          70 :                              TYPE_MODE (TREE_TYPE (op1)), value,
    5781                 :          70 :                              TYPE_UNSIGNED (TREE_TYPE (op1)));
    5782                 :             : 
    5783                 :             :       /* We may be accessing data outside the field, which means
    5784                 :             :          we can alias adjacent data.  */
    5785                 :          70 :       if (MEM_P (str_rtx))
    5786                 :             :         {
    5787                 :          70 :           str_rtx = shallow_copy_rtx (str_rtx);
    5788                 :          70 :           set_mem_alias_set (str_rtx, 0);
    5789                 :          70 :           set_mem_expr (str_rtx, 0);
    5790                 :             :         }
    5791                 :             : 
    5792                 :          70 :       if (bitsize == 1 && (reverse || bitpos + bitsize != str_bitsize))
    5793                 :             :         {
    5794                 :          26 :           value = expand_and (str_mode, value, const1_rtx, NULL);
    5795                 :          26 :           binop = xor_optab;
    5796                 :             :         }
    5797                 :             :       else
    5798                 :          44 :         binop = code == PLUS_EXPR ? add_optab : sub_optab;
    5799                 :             : 
    5800                 :          70 :       value = expand_shift (LSHIFT_EXPR, str_mode, value, bitpos, NULL_RTX, 1);
    5801                 :          70 :       if (reverse)
    5802                 :           0 :         value = flip_storage_order (str_mode, value);
    5803                 :          70 :       result = expand_binop (str_mode, binop, str_rtx,
    5804                 :             :                              value, str_rtx, 1, OPTAB_WIDEN);
    5805                 :          70 :       if (result != str_rtx)
    5806                 :           0 :         emit_move_insn (str_rtx, result);
    5807                 :             :       return true;
    5808                 :             : 
    5809                 :          58 :     case BIT_IOR_EXPR:
    5810                 :          58 :     case BIT_XOR_EXPR:
    5811                 :          58 :       if (TREE_CODE (op1) != INTEGER_CST)
    5812                 :             :         break;
    5813                 :          55 :       value = expand_expr (op1, NULL_RTX, str_mode, EXPAND_NORMAL);
    5814                 :          55 :       value = convert_modes (str_mode,
    5815                 :          55 :                              TYPE_MODE (TREE_TYPE (op1)), value,
    5816                 :          55 :                              TYPE_UNSIGNED (TREE_TYPE (op1)));
    5817                 :             : 
    5818                 :             :       /* We may be accessing data outside the field, which means
    5819                 :             :          we can alias adjacent data.  */
    5820                 :          55 :       if (MEM_P (str_rtx))
    5821                 :             :         {
    5822                 :          55 :           str_rtx = shallow_copy_rtx (str_rtx);
    5823                 :          55 :           set_mem_alias_set (str_rtx, 0);
    5824                 :          55 :           set_mem_expr (str_rtx, 0);
    5825                 :             :         }
    5826                 :             : 
    5827                 :          55 :       binop = code == BIT_IOR_EXPR ? ior_optab : xor_optab;
    5828                 :          55 :       if (bitpos + bitsize != str_bitsize)
    5829                 :             :         {
    5830                 :          31 :           rtx mask = gen_int_mode ((HOST_WIDE_INT_1U << bitsize) - 1,
    5831                 :             :                                    str_mode);
    5832                 :          31 :           value = expand_and (str_mode, value, mask, NULL_RTX);
    5833                 :             :         }
    5834                 :          55 :       value = expand_shift (LSHIFT_EXPR, str_mode, value, bitpos, NULL_RTX, 1);
    5835                 :          55 :       if (reverse)
    5836                 :           0 :         value = flip_storage_order (str_mode, value);
    5837                 :          55 :       result = expand_binop (str_mode, binop, str_rtx,
    5838                 :             :                              value, str_rtx, 1, OPTAB_WIDEN);
    5839                 :          55 :       if (result != str_rtx)
    5840                 :           0 :         emit_move_insn (str_rtx, result);
    5841                 :             :       return true;
    5842                 :             : 
    5843                 :             :     default:
    5844                 :             :       break;
    5845                 :             :     }
    5846                 :             : 
    5847                 :             :   return false;
    5848                 :             : }
    5849                 :             : 
    5850                 :             : /* In the C++ memory model, consecutive bit fields in a structure are
    5851                 :             :    considered one memory location.
    5852                 :             : 
    5853                 :             :    Given a COMPONENT_REF EXP at position (BITPOS, OFFSET), this function
    5854                 :             :    returns the bit range of consecutive bits in which this COMPONENT_REF
    5855                 :             :    belongs.  The values are returned in *BITSTART and *BITEND.  *BITPOS
    5856                 :             :    and *OFFSET may be adjusted in the process.
    5857                 :             : 
    5858                 :             :    If the access does not need to be restricted, 0 is returned in both
    5859                 :             :    *BITSTART and *BITEND.  */
    5860                 :             : 
    5861                 :             : void
    5862                 :      758228 : get_bit_range (poly_uint64 *bitstart, poly_uint64 *bitend, tree exp,
    5863                 :             :                poly_int64 *bitpos, tree *offset)
    5864                 :             : {
    5865                 :      758228 :   poly_int64 bitoffset;
    5866                 :      758228 :   tree field, repr;
    5867                 :             : 
    5868                 :      758228 :   gcc_assert (TREE_CODE (exp) == COMPONENT_REF);
    5869                 :             : 
    5870                 :      758228 :   field = TREE_OPERAND (exp, 1);
    5871                 :      758228 :   repr = DECL_BIT_FIELD_REPRESENTATIVE (field);
    5872                 :             :   /* If we do not have a DECL_BIT_FIELD_REPRESENTATIVE there is no
    5873                 :             :      need to limit the range we can access.  */
    5874                 :      758228 :   if (!repr)
    5875                 :             :     {
    5876                 :       11617 :       *bitstart = *bitend = 0;
    5877                 :       11617 :       return;
    5878                 :             :     }
    5879                 :             : 
    5880                 :             :   /* If we have a DECL_BIT_FIELD_REPRESENTATIVE but the enclosing record is
    5881                 :             :      part of a larger bit field, then the representative does not serve any
    5882                 :             :      useful purpose.  This can occur in Ada.  */
    5883                 :      746611 :   if (handled_component_p (TREE_OPERAND (exp, 0)))
    5884                 :             :     {
    5885                 :      553098 :       machine_mode rmode;
    5886                 :      553098 :       poly_int64 rbitsize, rbitpos;
    5887                 :      553098 :       tree roffset;
    5888                 :      553098 :       int unsignedp, reversep, volatilep = 0;
    5889                 :      553098 :       get_inner_reference (TREE_OPERAND (exp, 0), &rbitsize, &rbitpos,
    5890                 :             :                            &roffset, &rmode, &unsignedp, &reversep,
    5891                 :             :                            &volatilep);
    5892                 :     1106196 :       if (!multiple_p (rbitpos, BITS_PER_UNIT))
    5893                 :             :         {
    5894                 :           0 :           *bitstart = *bitend = 0;
    5895                 :           0 :           return;
    5896                 :             :         }
    5897                 :             :     }
    5898                 :             : 
    5899                 :             :   /* Compute the adjustment to bitpos from the offset of the field
    5900                 :             :      relative to the representative.  DECL_FIELD_OFFSET of field and
    5901                 :             :      repr are the same by construction if they are not constants,
    5902                 :             :      see finish_bitfield_layout.  */
    5903                 :      746611 :   poly_uint64 field_offset, repr_offset;
    5904                 :      746611 :   if (poly_int_tree_p (DECL_FIELD_OFFSET (field), &field_offset)
    5905                 :     1493217 :       && poly_int_tree_p (DECL_FIELD_OFFSET (repr), &repr_offset))
    5906                 :      746606 :     bitoffset = (field_offset - repr_offset) * BITS_PER_UNIT;
    5907                 :             :   else
    5908                 :             :     bitoffset = 0;
    5909                 :      746611 :   bitoffset += (tree_to_uhwi (DECL_FIELD_BIT_OFFSET (field))
    5910                 :      746611 :                 - tree_to_uhwi (DECL_FIELD_BIT_OFFSET (repr)));
    5911                 :             : 
    5912                 :             :   /* If the adjustment is larger than bitpos, we would have a negative bit
    5913                 :             :      position for the lower bound and this may wreak havoc later.  Adjust
    5914                 :             :      offset and bitpos to make the lower bound non-negative in that case.  */
    5915                 :      746611 :   if (maybe_gt (bitoffset, *bitpos))
    5916                 :             :     {
    5917                 :          11 :       poly_int64 adjust_bits = upper_bound (bitoffset, *bitpos) - *bitpos;
    5918                 :          11 :       poly_int64 adjust_bytes = exact_div (adjust_bits, BITS_PER_UNIT);
    5919                 :             : 
    5920                 :          11 :       *bitpos += adjust_bits;
    5921                 :          11 :       if (*offset == NULL_TREE)
    5922                 :           5 :         *offset = size_int (-adjust_bytes);
    5923                 :             :       else
    5924                 :           6 :         *offset = size_binop (MINUS_EXPR, *offset, size_int (adjust_bytes));
    5925                 :          11 :       *bitstart = 0;
    5926                 :             :     }
    5927                 :             :   else
    5928                 :      746600 :     *bitstart = *bitpos - bitoffset;
    5929                 :             : 
    5930                 :      746611 :   *bitend = *bitstart + tree_to_poly_uint64 (DECL_SIZE (repr)) - 1;
    5931                 :             : }
    5932                 :             : 
    5933                 :             : /* Returns true if BASE is a DECL that does not reside in memory and
    5934                 :             :    has non-BLKmode.  DECL_RTL must not be a MEM; if
    5935                 :             :    DECL_RTL was not set yet, return false.  */
    5936                 :             : 
    5937                 :             : bool
    5938                 :     4504420 : non_mem_decl_p (tree base)
    5939                 :             : {
    5940                 :     4504420 :   if (!DECL_P (base)
    5941                 :     4504119 :       || TREE_ADDRESSABLE (base)
    5942                 :     6715890 :       || DECL_MODE (base) == BLKmode)
    5943                 :             :     return false;
    5944                 :             : 
    5945                 :     1461640 :   if (!DECL_RTL_SET_P (base))
    5946                 :             :     return false;
    5947                 :             : 
    5948                 :     1346245 :   return (!MEM_P (DECL_RTL (base)));
    5949                 :             : }
    5950                 :             : 
    5951                 :             : /* Returns true if REF refers to an object that does not
    5952                 :             :    reside in memory and has non-BLKmode.  */
    5953                 :             : 
    5954                 :             : bool
    5955                 :    10269163 : mem_ref_refers_to_non_mem_p (tree ref)
    5956                 :             : {
    5957                 :    10269163 :   tree base;
    5958                 :             : 
    5959                 :    10269163 :   if (TREE_CODE (ref) == MEM_REF
    5960                 :    10269163 :       || TREE_CODE (ref) == TARGET_MEM_REF)
    5961                 :             :     {
    5962                 :     8739657 :       tree addr = TREE_OPERAND (ref, 0);
    5963                 :             : 
    5964                 :     8739657 :       if (TREE_CODE (addr) != ADDR_EXPR)
    5965                 :             :         return false;
    5966                 :             : 
    5967                 :     2974730 :       base = TREE_OPERAND (addr, 0);
    5968                 :             :     }
    5969                 :             :   else
    5970                 :             :     base = ref;
    5971                 :             : 
    5972                 :     4504236 :   return non_mem_decl_p (base);
    5973                 :             : }
    5974                 :             : 
    5975                 :             : /* Expand an assignment that stores the value of FROM into TO.  If NONTEMPORAL
    5976                 :             :    is true, try generating a nontemporal store.  */
    5977                 :             : 
    5978                 :             : void
    5979                 :    17355165 : expand_assignment (tree to, tree from, bool nontemporal)
    5980                 :             : {
    5981                 :    17355165 :   rtx to_rtx = 0;
    5982                 :    17355165 :   rtx result;
    5983                 :    17355165 :   machine_mode mode;
    5984                 :    17355165 :   unsigned int align;
    5985                 :    17355165 :   enum insn_code icode;
    5986                 :             : 
    5987                 :             :   /* Don't crash if the lhs of the assignment was erroneous.  */
    5988                 :    17355165 :   if (TREE_CODE (to) == ERROR_MARK)
    5989                 :             :     {
    5990                 :           0 :       expand_normal (from);
    5991                 :           0 :       return;
    5992                 :             :     }
    5993                 :             : 
    5994                 :             :   /* Optimize away no-op moves without side-effects.  */
    5995                 :    17355165 :   if (operand_equal_p (to, from, 0))
    5996                 :             :     return;
    5997                 :             : 
    5998                 :             :   /* Handle misaligned stores.  */
    5999                 :    17355092 :   mode = TYPE_MODE (TREE_TYPE (to));
    6000                 :    17355092 :   if ((TREE_CODE (to) == MEM_REF
    6001                 :    17355092 :        || TREE_CODE (to) == TARGET_MEM_REF
    6002                 :    15573138 :        || DECL_P (to))
    6003                 :     3657406 :       && mode != BLKmode
    6004                 :     3199479 :       && !mem_ref_refers_to_non_mem_p (to)
    6005                 :     5624790 :       && ((align = get_object_alignment (to))
    6006                 :     2812395 :           < GET_MODE_ALIGNMENT (mode))
    6007                 :    17776355 :       && (((icode = optab_handler (movmisalign_optab, mode))
    6008                 :             :            != CODE_FOR_nothing)
    6009                 :       95898 :           || targetm.slow_unaligned_access (mode, align)))
    6010                 :             :     {
    6011                 :      325365 :       rtx reg, mem;
    6012                 :             : 
    6013                 :      325365 :       reg = expand_expr (from, NULL_RTX, VOIDmode, EXPAND_NORMAL);
    6014                 :             :       /* Handle PARALLEL.  */
    6015                 :      325365 :       reg = maybe_emit_group_store (reg, TREE_TYPE (from));
    6016                 :      325365 :       reg = force_not_mem (reg);
    6017                 :      325365 :       mem = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_WRITE);
    6018                 :      325365 :       if (TREE_CODE (to) == MEM_REF && REF_REVERSE_STORAGE_ORDER (to))
    6019                 :           0 :         reg = flip_storage_order (mode, reg);
    6020                 :             : 
    6021                 :      325365 :       if (icode != CODE_FOR_nothing)
    6022                 :             :         {
    6023                 :      325365 :           class expand_operand ops[2];
    6024                 :             : 
    6025                 :      325365 :           create_fixed_operand (&ops[0], mem);
    6026                 :      325365 :           create_input_operand (&ops[1], reg, mode);
    6027                 :             :           /* The movmisalign<mode> pattern cannot fail, else the assignment
    6028                 :             :              would silently be omitted.  */
    6029                 :      325365 :           expand_insn (icode, 2, ops);
    6030                 :             :         }
    6031                 :             :       else
    6032                 :           0 :         store_bit_field (mem, GET_MODE_BITSIZE (mode), 0, 0, 0, mode, reg,
    6033                 :             :                          false, false);
    6034                 :      325365 :       return;
    6035                 :             :     }
    6036                 :             : 
    6037                 :             :   /* Assignment of a structure component needs special treatment
    6038                 :             :      if the structure component's rtx is not simply a MEM.
    6039                 :             :      Assignment of an array element at a constant index, and assignment of
    6040                 :             :      an array element in an unaligned packed structure field, has the same
    6041                 :             :      problem.  Same for (partially) storing into a non-memory object.  */
    6042                 :    17029727 :   if (handled_component_p (to)
    6043                 :    12668632 :       || (TREE_CODE (to) == MEM_REF
    6044                 :     1248969 :           && (REF_REVERSE_STORAGE_ORDER (to)
    6045                 :     1248969 :               || mem_ref_refers_to_non_mem_p (to)))
    6046                 :    12614942 :       || TREE_CODE (TREE_TYPE (to)) == ARRAY_TYPE)
    6047                 :             :     {
    6048                 :     4533399 :       machine_mode mode1;
    6049                 :     4533399 :       poly_int64 bitsize, bitpos;
    6050                 :     4533399 :       poly_uint64 bitregion_start = 0;
    6051                 :     4533399 :       poly_uint64 bitregion_end = 0;
    6052                 :     4533399 :       tree offset;
    6053                 :     4533399 :       int unsignedp, reversep, volatilep = 0;
    6054                 :     4533399 :       tree tem;
    6055                 :             : 
    6056                 :     4533399 :       push_temp_slots ();
    6057                 :     4533399 :       tem = get_inner_reference (to, &bitsize, &bitpos, &offset, &mode1,
    6058                 :             :                                  &unsignedp, &reversep, &volatilep);
    6059                 :             : 
    6060                 :             :       /* Make sure bitpos is not negative, it can wreak havoc later.  */
    6061                 :     4533399 :       if (maybe_lt (bitpos, 0))
    6062                 :             :         {
    6063                 :         266 :           gcc_assert (offset == NULL_TREE);
    6064                 :         266 :           offset = size_int (bits_to_bytes_round_down (bitpos));
    6065                 :         266 :           bitpos = num_trailing_bits (bitpos);
    6066                 :             :         }
    6067                 :             : 
    6068                 :     4533399 :       if (TREE_CODE (to) == COMPONENT_REF
    6069                 :     4533399 :           && DECL_BIT_FIELD_TYPE (TREE_OPERAND (to, 1)))
    6070                 :       86074 :         get_bit_range (&bitregion_start, &bitregion_end, to, &bitpos, &offset);
    6071                 :             :       /* The C++ memory model naturally applies to byte-aligned fields.
    6072                 :             :          However, if we do not have a DECL_BIT_FIELD_TYPE but BITPOS or
    6073                 :             :          BITSIZE are not byte-aligned, there is no need to limit the range
    6074                 :             :          we can access.  This can occur with packed structures in Ada.  */
    6075                 :     4447325 :       else if (maybe_gt (bitsize, 0)
    6076                 :     4447310 :                && multiple_p (bitsize, BITS_PER_UNIT)
    6077                 :     8894487 :                && multiple_p (bitpos, BITS_PER_UNIT))
    6078                 :             :         {
    6079                 :     4447162 :           bitregion_start = bitpos;
    6080                 :     4447162 :           bitregion_end = bitpos + bitsize - 1;
    6081                 :             :         }
    6082                 :             : 
    6083                 :     4533399 :       to_rtx = expand_expr (tem, NULL_RTX, VOIDmode, EXPAND_WRITE);
    6084                 :             : 
    6085                 :             :       /* If the field has a mode, we want to access it in the
    6086                 :             :          field's mode, not the computed mode.
    6087                 :             :          If a MEM has VOIDmode (external with incomplete type),
    6088                 :             :          use BLKmode for it instead.  */
    6089                 :     4533399 :       if (MEM_P (to_rtx))
    6090                 :             :         {
    6091                 :     3867412 :           if (mode1 != VOIDmode)
    6092                 :     3798776 :             to_rtx = adjust_address (to_rtx, mode1, 0);
    6093                 :       68636 :           else if (GET_MODE (to_rtx) == VOIDmode)
    6094                 :           0 :             to_rtx = adjust_address (to_rtx, BLKmode, 0);
    6095                 :             :         }
    6096                 :             : 
    6097                 :     4533399 :       rtx stemp = NULL_RTX, old_to_rtx = NULL_RTX;
    6098                 :     4533399 :       if (offset != 0)
    6099                 :             :         {
    6100                 :      173742 :           machine_mode address_mode;
    6101                 :      173742 :           rtx offset_rtx;
    6102                 :             : 
    6103                 :      173742 :           if (!MEM_P (to_rtx))
    6104                 :             :             {
    6105                 :             :               /* We can get constant negative offsets into arrays with broken
    6106                 :             :                  user code.  Translate this to a trap instead of ICEing.  */
    6107                 :           4 :               if (TREE_CODE (offset) == INTEGER_CST)
    6108                 :             :                 {
    6109                 :           1 :                   expand_builtin_trap ();
    6110                 :           1 :                   to_rtx = gen_rtx_MEM (BLKmode, const0_rtx);
    6111                 :             :                 }
    6112                 :             :               /* Else spill for variable offset to the destination.  We expect
    6113                 :             :                  to run into this only for hard registers.  */
    6114                 :             :               else
    6115                 :             :                 {
    6116                 :           3 :                   gcc_assert (VAR_P (tem) && DECL_HARD_REGISTER (tem));
    6117                 :           3 :                   stemp = assign_stack_temp (GET_MODE (to_rtx),
    6118                 :           6 :                                              GET_MODE_SIZE (GET_MODE (to_rtx)));
    6119                 :           3 :                   emit_move_insn (stemp, to_rtx);
    6120                 :           3 :                   old_to_rtx = to_rtx;
    6121                 :           3 :                   to_rtx = stemp;
    6122                 :             :                 }
    6123                 :             :             }
    6124                 :             : 
    6125                 :      173742 :           offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode, EXPAND_SUM);
    6126                 :      173742 :           address_mode = get_address_mode (to_rtx);
    6127                 :      173742 :           if (GET_MODE (offset_rtx) != address_mode)
    6128                 :             :             {
    6129                 :             :                 /* We cannot be sure that the RTL in offset_rtx is valid outside
    6130                 :             :                    of a memory address context, so force it into a register
    6131                 :             :                    before attempting to convert it to the desired mode.  */
    6132                 :         290 :               offset_rtx = force_operand (offset_rtx, NULL_RTX);
    6133                 :         290 :               offset_rtx = convert_to_mode (address_mode, offset_rtx, 0);
    6134                 :             :             }
    6135                 :             : 
    6136                 :             :           /* If we have an expression in OFFSET_RTX and a non-zero
    6137                 :             :              byte offset in BITPOS, adding the byte offset before the
    6138                 :             :              OFFSET_RTX results in better intermediate code, which makes
    6139                 :             :              later rtl optimization passes perform better.
    6140                 :             : 
    6141                 :             :              We prefer intermediate code like this:
    6142                 :             : 
    6143                 :             :              r124:DI=r123:DI+0x18
    6144                 :             :              [r124:DI]=r121:DI
    6145                 :             : 
    6146                 :             :              ... instead of ...
    6147                 :             : 
    6148                 :             :              r124:DI=r123:DI+0x10
    6149                 :             :              [r124:DI+0x8]=r121:DI
    6150                 :             : 
    6151                 :             :              This is only done for aligned data values, as these can
    6152                 :             :              be expected to result in single move instructions.  */
    6153                 :      173742 :           poly_int64 bytepos;
    6154                 :      173742 :           if (mode1 != VOIDmode
    6155                 :      173636 :               && maybe_ne (bitpos, 0)
    6156                 :       49067 :               && maybe_gt (bitsize, 0)
    6157                 :      222809 :               && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
    6158                 :      222749 :               && multiple_p (bitpos, bitsize)
    6159                 :       98014 :               && multiple_p (bitsize, GET_MODE_ALIGNMENT (mode1))
    6160                 :      222749 :               && MEM_ALIGN (to_rtx) >= GET_MODE_ALIGNMENT (mode1))
    6161                 :             :             {
    6162                 :       48992 :               to_rtx = adjust_address (to_rtx, mode1, bytepos);
    6163                 :       48992 :               bitregion_start = 0;
    6164                 :       48992 :               if (known_ge (bitregion_end, poly_uint64 (bitpos)))
    6165                 :       48992 :                 bitregion_end -= bitpos;
    6166                 :       48992 :               bitpos = 0;
    6167                 :             :             }
    6168                 :             : 
    6169                 :      173742 :           to_rtx = offset_address (to_rtx, offset_rtx,
    6170                 :             :                                    highest_pow2_factor_for_target (to,
    6171                 :             :                                                                    offset));
    6172                 :             :         }
    6173                 :             : 
    6174                 :             :       /* No action is needed if the target is not a memory and the field
    6175                 :             :          lies completely outside that target.  This can occur if the source
    6176                 :             :          code contains an out-of-bounds access to a small array.  */
    6177                 :     4533399 :       if (!MEM_P (to_rtx)
    6178                 :      665983 :           && GET_MODE (to_rtx) != BLKmode
    6179                 :     5199382 :           && known_ge (bitpos, GET_MODE_PRECISION (GET_MODE (to_rtx))))
    6180                 :             :         {
    6181                 :           3 :           expand_normal (from);
    6182                 :           3 :           result = NULL;
    6183                 :             :         }
    6184                 :             :       /* Handle expand_expr of a complex value returning a CONCAT.  */
    6185                 :     4533396 :       else if (GET_CODE (to_rtx) == CONCAT)
    6186                 :             :         {
    6187                 :         130 :           machine_mode to_mode = GET_MODE (to_rtx);
    6188                 :         130 :           gcc_checking_assert (COMPLEX_MODE_P (to_mode));
    6189                 :         260 :           poly_int64 mode_bitsize = GET_MODE_BITSIZE (to_mode);
    6190                 :         130 :           unsigned short inner_bitsize = GET_MODE_UNIT_BITSIZE (to_mode);
    6191                 :         130 :           if (TYPE_MODE (TREE_TYPE (from)) == to_mode
    6192                 :           6 :               && known_eq (bitpos, 0)
    6193                 :         136 :               && known_eq (bitsize, mode_bitsize))
    6194                 :           6 :             result = store_expr (from, to_rtx, false, nontemporal, reversep);
    6195                 :         124 :           else if (TYPE_MODE (TREE_TYPE (from)) == GET_MODE_INNER (to_mode)
    6196                 :          76 :                    && known_eq (bitsize, inner_bitsize)
    6197                 :         200 :                    && (known_eq (bitpos, 0)
    6198                 :          34 :                        || known_eq (bitpos, inner_bitsize)))
    6199                 :          76 :             result = store_expr (from, XEXP (to_rtx, maybe_ne (bitpos, 0)),
    6200                 :             :                                  false, nontemporal, reversep);
    6201                 :          48 :           else if (known_le (bitpos + bitsize, inner_bitsize))
    6202                 :           5 :             result = store_field (XEXP (to_rtx, 0), bitsize, bitpos,
    6203                 :             :                                   bitregion_start, bitregion_end,
    6204                 :             :                                   mode1, from, get_alias_set (to),
    6205                 :             :                                   nontemporal, reversep);
    6206                 :          43 :           else if (known_ge (bitpos, inner_bitsize))
    6207                 :           3 :             result = store_field (XEXP (to_rtx, 1), bitsize,
    6208                 :             :                                   bitpos - inner_bitsize,
    6209                 :             :                                   bitregion_start, bitregion_end,
    6210                 :             :                                   mode1, from, get_alias_set (to),
    6211                 :             :                                   nontemporal, reversep);
    6212                 :          40 :           else if (known_eq (bitpos, 0) && known_eq (bitsize, mode_bitsize))
    6213                 :             :             {
    6214                 :          33 :               result = expand_normal (from);
    6215                 :          33 :               if (GET_CODE (result) == CONCAT)
    6216                 :             :                 {
    6217                 :           0 :                   to_mode = GET_MODE_INNER (to_mode);
    6218                 :           0 :                   machine_mode from_mode = GET_MODE_INNER (GET_MODE (result));
    6219                 :           0 :                   rtx from_real
    6220                 :           0 :                     = force_subreg (to_mode, XEXP (result, 0), from_mode, 0);
    6221                 :           0 :                   rtx from_imag
    6222                 :           0 :                     = force_subreg (to_mode, XEXP (result, 1), from_mode, 0);
    6223                 :           0 :                   if (!from_real || !from_imag)
    6224                 :           0 :                     goto concat_store_slow;
    6225                 :           0 :                   emit_move_insn (XEXP (to_rtx, 0), from_real);
    6226                 :           0 :                   emit_move_insn (XEXP (to_rtx, 1), from_imag);
    6227                 :             :                 }
    6228                 :             :               else
    6229                 :             :                 {
    6230                 :          33 :                   machine_mode from_mode
    6231                 :          33 :                     = GET_MODE (result) == VOIDmode
    6232                 :          33 :                       ? TYPE_MODE (TREE_TYPE (from))
    6233                 :          33 :                       : GET_MODE (result);
    6234                 :          33 :                   rtx from_rtx;
    6235                 :          33 :                   if (MEM_P (result))
    6236                 :           1 :                     from_rtx = change_address (result, to_mode, NULL_RTX);
    6237                 :             :                   else
    6238                 :          32 :                     from_rtx = force_subreg (to_mode, result, from_mode, 0);
    6239                 :          33 :                   if (from_rtx)
    6240                 :             :                     {
    6241                 :          33 :                       emit_move_insn (XEXP (to_rtx, 0),
    6242                 :             :                                       read_complex_part (from_rtx, false));
    6243                 :          33 :                       emit_move_insn (XEXP (to_rtx, 1),
    6244                 :             :                                       read_complex_part (from_rtx, true));
    6245                 :             :                     }
    6246                 :             :                   else
    6247                 :             :                     {
    6248                 :           0 :                       to_mode = GET_MODE_INNER (to_mode);
    6249                 :           0 :                       rtx from_real
    6250                 :           0 :                         = force_subreg (to_mode, result, from_mode, 0);
    6251                 :           0 :                       rtx from_imag
    6252                 :           0 :                         = force_subreg (to_mode, result, from_mode,
    6253                 :           0 :                                         GET_MODE_SIZE (to_mode));
    6254                 :           0 :                       if (!from_real || !from_imag)
    6255                 :           0 :                         goto concat_store_slow;
    6256                 :           0 :                       emit_move_insn (XEXP (to_rtx, 0), from_real);
    6257                 :           0 :                       emit_move_insn (XEXP (to_rtx, 1), from_imag);
    6258                 :             :                     }
    6259                 :             :                 }
    6260                 :             :             }
    6261                 :             :           else
    6262                 :             :             {
    6263                 :           7 :             concat_store_slow:;
    6264                 :           7 :               rtx temp = assign_stack_temp (GET_MODE (to_rtx),
    6265                 :          14 :                                             GET_MODE_SIZE (GET_MODE (to_rtx)));
    6266                 :           7 :               write_complex_part (temp, XEXP (to_rtx, 0), false, true);
    6267                 :           7 :               write_complex_part (temp, XEXP (to_rtx, 1), true, false);
    6268                 :           7 :               result = store_field (temp, bitsize, bitpos,
    6269                 :             :                                     bitregion_start, bitregion_end,
    6270                 :             :                                     mode1, from, get_alias_set (to),
    6271                 :             :                                     nontemporal, reversep);
    6272                 :           7 :               emit_move_insn (XEXP (to_rtx, 0), read_complex_part (temp, false));
    6273                 :           7 :               emit_move_insn (XEXP (to_rtx, 1), read_complex_part (temp, true));
    6274                 :             :             }
    6275                 :             :         }
    6276                 :             :       /* For calls to functions returning variable length structures, if TO_RTX
    6277                 :             :          is not a MEM, go through a MEM because we must not create temporaries
    6278                 :             :          of the VLA type.  */
    6279                 :     4533266 :       else if (!MEM_P (to_rtx)
    6280                 :      665850 :                && TREE_CODE (from) == CALL_EXPR
    6281                 :         736 :                && COMPLETE_TYPE_P (TREE_TYPE (from))
    6282                 :     4534002 :                && TREE_CODE (TYPE_SIZE (TREE_TYPE (from))) != INTEGER_CST)
    6283                 :             :         {
    6284                 :           6 :           rtx temp = assign_stack_temp (GET_MODE (to_rtx),
    6285                 :          12 :                                         GET_MODE_SIZE (GET_MODE (to_rtx)));
    6286                 :           6 :           result = store_field (temp, bitsize, bitpos, bitregion_start,
    6287                 :             :                                 bitregion_end, mode1, from, get_alias_set (to),
    6288                 :             :                                 nontemporal, reversep);
    6289                 :           6 :           emit_move_insn (to_rtx, temp);
    6290                 :             :         }
    6291                 :             :       else
    6292                 :             :         {
    6293                 :     4533260 :           if (MEM_P (to_rtx))
    6294                 :             :             {
    6295                 :             :               /* If the field is at offset zero, we could have been given the
    6296                 :             :                  DECL_RTX of the parent struct.  Don't munge it.  */
    6297                 :     3867416 :               to_rtx = shallow_copy_rtx (to_rtx);
    6298                 :     3867416 :               set_mem_attributes_minus_bitpos (to_rtx, to, 0, bitpos);
    6299                 :     3867416 :               if (volatilep)
    6300                 :        6754 :                 MEM_VOLATILE_P (to_rtx) = 1;
    6301                 :             :             }
    6302                 :             : 
    6303                 :     4533260 :           gcc_checking_assert (known_ge (bitpos, 0));
    6304                 :     4533260 :           if (optimize_bitfield_assignment_op (bitsize, bitpos,
    6305                 :             :                                                bitregion_start, bitregion_end,
    6306                 :             :                                                mode1, to_rtx, to, from,
    6307                 :             :                                                reversep))
    6308                 :             :             result = NULL;
    6309                 :     4533135 :           else if (SUBREG_P (to_rtx)
    6310                 :     4533135 :                    && SUBREG_PROMOTED_VAR_P (to_rtx))
    6311                 :             :             {
    6312                 :             :               /* If to_rtx is a promoted subreg, we need to zero or sign
    6313                 :             :                  extend the value afterwards.  */
    6314                 :           0 :               if (TREE_CODE (to) == MEM_REF
    6315                 :           0 :                   && TYPE_MODE (TREE_TYPE (from)) != BLKmode
    6316                 :           0 :                   && !REF_REVERSE_STORAGE_ORDER (to)
    6317                 :           0 :                   && known_eq (bitpos, 0)
    6318                 :           0 :                   && known_eq (bitsize, GET_MODE_BITSIZE (GET_MODE (to_rtx))))
    6319                 :           0 :                 result = store_expr (from, to_rtx, 0, nontemporal, false);
    6320                 :             :               /* Check if the field overlaps the MSB, requiring extension.  */
    6321                 :           0 :               else if (maybe_eq (bitpos + bitsize,
    6322                 :           0 :                                  GET_MODE_BITSIZE (GET_MODE (to_rtx))))
    6323                 :             :                 {
    6324                 :           0 :                   scalar_int_mode imode = subreg_unpromoted_mode (to_rtx);
    6325                 :           0 :                   scalar_int_mode omode = subreg_promoted_mode (to_rtx);
    6326                 :           0 :                   rtx to_rtx1 = lowpart_subreg (imode, SUBREG_REG (to_rtx),
    6327                 :             :                                                 omode);
    6328                 :           0 :                   result = store_field (to_rtx1, bitsize, bitpos,
    6329                 :             :                                         bitregion_start, bitregion_end,
    6330                 :             :                                         mode1, from, get_alias_set (to),
    6331                 :             :                                         nontemporal, reversep);
    6332                 :             :                   /* If the target usually keeps IMODE appropriately
    6333                 :             :                      extended in OMODE it's unsafe to refer to it using
    6334                 :             :                      a SUBREG whilst this invariant doesn't hold.  */
    6335                 :           0 :                   if (targetm.mode_rep_extended (imode, omode) != UNKNOWN)
    6336                 :           0 :                     to_rtx1 = simplify_gen_unary (TRUNCATE, imode,
    6337                 :             :                                                   SUBREG_REG (to_rtx), omode);
    6338                 :           0 :                   convert_move (SUBREG_REG (to_rtx), to_rtx1,
    6339                 :           0 :                                 SUBREG_PROMOTED_SIGN (to_rtx));
    6340                 :             :                 }
    6341                 :             :               else
    6342                 :           0 :                 result = store_field (to_rtx, bitsize, bitpos,
    6343                 :             :                                       bitregion_start, bitregion_end,
    6344                 :             :                                       mode1, from, get_alias_set (to),
    6345                 :             :                                       nontemporal, reversep);
    6346                 :             :             }
    6347                 :             :           else
    6348                 :     4533135 :             result = store_field (to_rtx, bitsize, bitpos,
    6349                 :             :                                   bitregion_start, bitregion_end,
    6350                 :             :                                   mode1, from, get_alias_set (to),
    6351                 :             :                                   nontemporal, reversep);
    6352                 :             :           /* Move the temporary storage back to the non-MEM_P.  */
    6353                 :     4533260 :           if (stemp)
    6354                 :           3 :             emit_move_insn (old_to_rtx, stemp);
    6355                 :             :         }
    6356                 :             : 
    6357                 :     4533399 :       if (result)
    6358                 :      807468 :         preserve_temp_slots (result);
    6359                 :     4533399 :       pop_temp_slots ();
    6360                 :     4533399 :       return;
    6361                 :             :     }
    6362                 :             : 
    6363                 :             :   /* If the rhs is a function call and its value is not an aggregate,
    6364                 :             :      call the function before we start to compute the lhs.
    6365                 :             :      This is needed for correct code for cases such as
    6366                 :             :      val = setjmp (buf) on machines where reference to val
    6367                 :             :      requires loading up part of an address in a separate insn.
    6368                 :             : 
    6369                 :             :      Don't do this if TO is a VAR_DECL or PARM_DECL whose DECL_RTL is REG
    6370                 :             :      since it might be a promoted variable where the zero- or sign- extension
    6371                 :             :      needs to be done.  Handling this in the normal way is safe because no
    6372                 :             :      computation is done before the call.  The same is true for SSA names.  */
    6373                 :     2201142 :   if (TREE_CODE (from) == CALL_EXPR && ! aggregate_value_p (from, from)
    6374                 :     2004871 :       && COMPLETE_TYPE_P (TREE_TYPE (from))
    6375                 :     2004871 :       && TREE_CODE (TYPE_SIZE (TREE_TYPE (from))) == INTEGER_CST
    6376                 :    14501199 :       && ! (((VAR_P (to)
    6377                 :             :               || TREE_CODE (to) == PARM_DECL
    6378                 :             :               || TREE_CODE (to) == RESULT_DECL)
    6379                 :      122312 :              && REG_P (DECL_RTL (to)))
    6380                 :     1889409 :             || TREE_CODE (to) == SSA_NAME))
    6381                 :             :     {
    6382                 :        7066 :       rtx value;
    6383                 :             : 
    6384                 :        7066 :       push_temp_slots ();
    6385                 :        7066 :       value = expand_normal (from);
    6386                 :             : 
    6387                 :        7066 :       if (to_rtx == 0)
    6388                 :        7066 :         to_rtx = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_WRITE);
    6389                 :             : 
    6390                 :             :       /* Handle calls that return values in multiple non-contiguous locations.
    6391                 :             :          The Irix 6 ABI has examples of this.  */
    6392                 :        7066 :       if (GET_CODE (to_rtx) == PARALLEL)
    6393                 :             :         {
    6394                 :           0 :           if (GET_CODE (value) == PARALLEL)
    6395                 :           0 :             emit_group_move (to_rtx, value);
    6396                 :             :           else
    6397                 :           0 :             emit_group_load (to_rtx, value, TREE_TYPE (from),
    6398                 :           0 :                              int_size_in_bytes (TREE_TYPE (from)));
    6399                 :             :         }
    6400                 :        7066 :       else if (GET_CODE (value) == PARALLEL)
    6401                 :        1304 :         emit_group_store (to_rtx, value, TREE_TYPE (from),
    6402                 :        1304 :                           int_size_in_bytes (TREE_TYPE (from)));
    6403                 :        5762 :       else if (GET_MODE (to_rtx) == BLKmode)
    6404                 :             :         {
    6405                 :             :           /* Handle calls that return BLKmode values in registers.  */
    6406                 :         249 :           if (REG_P (value))
    6407                 :         249 :             copy_blkmode_from_reg (to_rtx, value, TREE_TYPE (from));
    6408                 :             :           else
    6409                 :           0 :             emit_block_move (to_rtx, value, expr_size (from), BLOCK_OP_NORMAL);
    6410                 :             :         }
    6411                 :             :       else
    6412                 :             :         {
    6413                 :        5513 :           if (POINTER_TYPE_P (TREE_TYPE (to)))
    6414                 :           0 :             value = convert_memory_address_addr_space
    6415                 :           0 :               (as_a <scalar_int_mode> (GET_MODE (to_rtx)), value,
    6416                 :           0 :                TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (to))));
    6417                 :             : 
    6418                 :        5513 :           emit_move_insn (to_rtx, value);
    6419                 :             :         }
    6420                 :             : 
    6421                 :        7066 :       preserve_temp_slots (to_rtx);
    6422                 :        7066 :       pop_temp_slots ();
    6423                 :        7066 :       return;
    6424                 :             :     }
    6425                 :             : 
    6426                 :             :   /* Ordinary treatment.  Expand TO to get a REG or MEM rtx.  */
    6427                 :    12489262 :   to_rtx = expand_expr (to, NULL_RTX, VOIDmode, EXPAND_WRITE);
    6428                 :             : 
    6429                 :             :   /* Don't move directly into a return register.  */
    6430                 :    12489262 :   if (TREE_CODE (to) == RESULT_DECL
    6431                 :       16016 :       && (REG_P (to_rtx) || GET_CODE (to_rtx) == PARALLEL))
    6432                 :             :     {
    6433                 :          43 :       rtx temp;
    6434                 :             : 
    6435                 :          43 :       push_temp_slots ();
    6436                 :             : 
    6437                 :             :       /* If the source is itself a return value, it still is in a pseudo at
    6438                 :             :          this point so we can move it back to the return register directly.  */
    6439                 :          43 :       if (REG_P (to_rtx)
    6440                 :          43 :           && TYPE_MODE (TREE_TYPE (from)) == BLKmode
    6441                 :          43 :           && TREE_CODE (from) != CALL_EXPR)
    6442                 :           0 :         temp = copy_blkmode_to_reg (GET_MODE (to_rtx), from);
    6443                 :             :       else
    6444                 :          43 :         temp = expand_expr (from, NULL_RTX, GET_MODE (to_rtx), EXPAND_NORMAL);
    6445                 :             : 
    6446                 :             :       /* Handle calls that return values in multiple non-contiguous locations.
    6447                 :             :          The Irix 6 ABI has examples of this.  */
    6448                 :          43 :       if (GET_CODE (to_rtx) == PARALLEL)
    6449                 :             :         {
    6450                 :           0 :           if (GET_CODE (temp) == PARALLEL)
    6451                 :           0 :             emit_group_move (to_rtx, temp);
    6452                 :             :           else
    6453                 :           0 :             emit_group_load (to_rtx, temp, TREE_TYPE (from),
    6454                 :           0 :                              int_size_in_bytes (TREE_TYPE (from)));
    6455                 :             :         }
    6456                 :          43 :       else if (temp)
    6457                 :          43 :         emit_move_insn (to_rtx, temp);
    6458                 :             : 
    6459                 :          43 :       preserve_temp_slots (to_rtx);
    6460                 :          43 :       pop_temp_slots ();
    6461                 :          43 :       return;
    6462                 :             :     }
    6463                 :             : 
    6464                 :             :   /* In case we are returning the contents of an object which overlaps
    6465                 :             :      the place the value is being stored, use a safe function when copying
    6466                 :             :      a value through a pointer into a structure value return block.  */
    6467                 :    12489219 :   if (TREE_CODE (to) == RESULT_DECL
    6468                 :       15973 :       && TREE_CODE (from) == INDIRECT_REF
    6469                 :           0 :       && ADDR_SPACE_GENERIC_P
    6470                 :             :            (TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (from, 0)))))
    6471                 :           0 :       && refs_may_alias_p (to, from)
    6472                 :           0 :       && cfun->returns_struct
    6473                 :    12489219 :       && !cfun->returns_pcc_struct)
    6474                 :             :     {
    6475                 :           0 :       rtx from_rtx, size;
    6476                 :             : 
    6477                 :           0 :       push_temp_slots ();
    6478                 :           0 :       size = expr_size (from);
    6479                 :           0 :       from_rtx = expand_normal (from);
    6480                 :             : 
    6481                 :           0 :       emit_block_move_via_libcall (XEXP (to_rtx, 0), XEXP (from_rtx, 0), size);
    6482                 :             : 
    6483                 :           0 :       preserve_temp_slots (to_rtx);
    6484                 :           0 :       pop_temp_slots ();
    6485                 :           0 :       return;
    6486                 :             :     }
    6487                 :             : 
    6488                 :             :   /* Compute FROM and store the value in the rtx we got.  */
    6489                 :             : 
    6490                 :    12489219 :   push_temp_slots ();
    6491                 :    12489219 :   result = store_expr (from, to_rtx, 0, nontemporal, false);
    6492                 :    12489219 :   preserve_temp_slots (result);
    6493                 :    12489219 :   pop_temp_slots ();
    6494                 :    12489219 :   return;
    6495                 :             : }
    6496                 :             : 
    6497                 :             : /* Emits nontemporal store insn that moves FROM to TO.  Returns true if this
    6498                 :             :    succeeded, false otherwise.  */
    6499                 :             : 
    6500                 :             : bool
    6501                 :          17 : emit_storent_insn (rtx to, rtx from)
    6502                 :             : {
    6503                 :          17 :   class expand_operand ops[2];
    6504                 :          17 :   machine_mode mode = GET_MODE (to);
    6505                 :          17 :   enum insn_code code = optab_handler (storent_optab, mode);
    6506                 :             : 
    6507                 :          17 :   if (code == CODE_FOR_nothing)
    6508                 :             :     return false;
    6509                 :             : 
    6510                 :          17 :   create_fixed_operand (&ops[0], to);
    6511                 :          17 :   create_input_operand (&ops[1], from, mode);
    6512                 :          17 :   return maybe_expand_insn (code, 2, ops);
    6513                 :             : }
    6514                 :             : 
    6515                 :             : /* Helper function for store_expr storing of STRING_CST.  */
    6516                 :             : 
    6517                 :             : static rtx
    6518                 :       84162 : string_cst_read_str (void *data, void *, HOST_WIDE_INT offset,
    6519                 :             :                      fixed_size_mode mode)
    6520                 :             : {
    6521                 :       84162 :   tree str = (tree) data;
    6522                 :             : 
    6523                 :       84162 :   gcc_assert (offset >= 0);
    6524                 :       84162 :   if (offset >= TREE_STRING_LENGTH (str))
    6525                 :        3492 :     return const0_rtx;
    6526                 :             : 
    6527                 :       80670 :   if ((unsigned HOST_WIDE_INT) offset + GET_MODE_SIZE (mode)
    6528                 :       80670 :       > (unsigned HOST_WIDE_INT) TREE_STRING_LENGTH (str))
    6529                 :             :     {
    6530                 :        2481 :       char *p = XALLOCAVEC (char, GET_MODE_SIZE (mode));
    6531                 :        2481 :       size_t l = TREE_STRING_LENGTH (str) - offset;
    6532                 :        2481 :       memcpy (p, TREE_STRING_POINTER (str) + offset, l);
    6533                 :        2481 :       memset (p + l, '\0', GET_MODE_SIZE (mode) - l);
    6534                 :        2481 :       return c_readstr (p, mode, false);
    6535                 :             :     }
    6536                 :             : 
    6537                 :       78189 :   return c_readstr (TREE_STRING_POINTER (str) + offset, mode, false);
    6538                 :             : }
    6539                 :             : 
    6540                 :             : /* Generate code for computing expression EXP,
    6541                 :             :    and storing the value into TARGET.
    6542                 :             : 
    6543                 :             :    If the mode is BLKmode then we may return TARGET itself.
    6544                 :             :    It turns out that in BLKmode it doesn't cause a problem.
    6545                 :             :    because C has no operators that could combine two different
    6546                 :             :    assignments into the same BLKmode object with different values
    6547                 :             :    with no sequence point.  Will other languages need this to
    6548                 :             :    be more thorough?
    6549                 :             : 
    6550                 :             :    If CALL_PARAM_P is nonzero, this is a store into a call param on the
    6551                 :             :    stack, and block moves may need to be treated specially.
    6552                 :             : 
    6553                 :             :    If NONTEMPORAL is true, try using a nontemporal store instruction.
    6554                 :             : 
    6555                 :             :    If REVERSE is true, the store is to be done in reverse order.  */
    6556                 :             : 
    6557                 :             : rtx
    6558                 :    16251801 : store_expr (tree exp, rtx target, int call_param_p,
    6559                 :             :             bool nontemporal, bool reverse)
    6560                 :             : {
    6561                 :    16251801 :   rtx temp;
    6562                 :    16251801 :   rtx alt_rtl = NULL_RTX;
    6563                 :    16251801 :   location_t loc = curr_insn_location ();
    6564                 :    16251801 :   bool shortened_string_cst = false;
    6565                 :             : 
    6566                 :    16251801 :   if (VOID_TYPE_P (TREE_TYPE (exp)))
    6567                 :             :     {
    6568                 :             :       /* C++ can generate ?: expressions with a throw expression in one
    6569                 :             :          branch and an rvalue in the other. Here, we resolve attempts to
    6570                 :             :          store the throw expression's nonexistent result.  */
    6571                 :           0 :       gcc_assert (!call_param_p);
    6572                 :           0 :       expand_expr (exp, const0_rtx, VOIDmode, EXPAND_NORMAL);
    6573                 :           0 :       return NULL_RTX;
    6574                 :             :     }
    6575                 :    16251801 :   if (TREE_CODE (exp) == COMPOUND_EXPR)
    6576                 :             :     {
    6577                 :             :       /* Perform first part of compound expression, then assign from second
    6578                 :             :          part.  */
    6579                 :           0 :       expand_expr (TREE_OPERAND (exp, 0), const0_rtx, VOIDmode,
    6580                 :             :                    call_param_p ? EXPAND_STACK_PARM : EXPAND_NORMAL);
    6581                 :           0 :       return store_expr (TREE_OPERAND (exp, 1), target,
    6582                 :           0 :                                      call_param_p, nontemporal, reverse);
    6583                 :             :     }
    6584                 :    16251801 :   else if (TREE_CODE (exp) == COND_EXPR && GET_MODE (target) == BLKmode)
    6585                 :             :     {
    6586                 :             :       /* For conditional expression, get safe form of the target.  Then
    6587                 :             :          test the condition, doing the appropriate assignment on either
    6588                 :             :          side.  This avoids the creation of unnecessary temporaries.
    6589                 :             :          For non-BLKmode, it is more efficient not to do this.  */
    6590                 :             : 
    6591                 :           0 :       rtx_code_label *lab1 = gen_label_rtx (), *lab2 = gen_label_rtx ();
    6592                 :             : 
    6593                 :           0 :       do_pending_stack_adjust ();
    6594                 :           0 :       NO_DEFER_POP;
    6595                 :           0 :       jumpifnot (TREE_OPERAND (exp, 0), lab1,
    6596                 :             :                  profile_probability::uninitialized ());
    6597                 :           0 :       store_expr (TREE_OPERAND (exp, 1), target, call_param_p,
    6598                 :             :                   nontemporal, reverse);
    6599                 :           0 :       emit_jump_insn (targetm.gen_jump (lab2));
    6600                 :           0 :       emit_barrier ();
    6601                 :           0 :       emit_label (lab1);
    6602                 :           0 :       store_expr (TREE_OPERAND (exp, 2), target, call_param_p,
    6603                 :             :                   nontemporal, reverse);
    6604                 :           0 :       emit_label (lab2);
    6605                 :           0 :       OK_DEFER_POP;
    6606                 :             : 
    6607                 :           0 :       return NULL_RTX;
    6608                 :             :     }
    6609                 :    16251801 :   else if (GET_CODE (target) == SUBREG && SUBREG_PROMOTED_VAR_P (target))
    6610                 :             :     /* If this is a scalar in a register that is stored in a wider mode
    6611                 :             :        than the declared mode, compute the result into its declared mode
    6612                 :             :        and then convert to the wider mode.  Our value is the computed
    6613                 :             :        expression.  */
    6614                 :             :     {
    6615                 :           7 :       rtx inner_target = 0;
    6616                 :           7 :       scalar_int_mode outer_mode = subreg_unpromoted_mode (target);
    6617                 :           7 :       scalar_int_mode inner_mode = subreg_promoted_mode (target);
    6618                 :             : 
    6619                 :             :       /* We can do the conversion inside EXP, which will often result
    6620                 :             :          in some optimizations.  Do the conversion in two steps: first
    6621                 :             :          change the signedness, if needed, then the extend.  But don't
    6622                 :             :          do this if the type of EXP is a subtype of something else
    6623                 :             :          since then the conversion might involve more than just
    6624                 :             :          converting modes.  */
    6625                 :          14 :       if (INTEGRAL_TYPE_P (TREE_TYPE (exp))
    6626                 :           0 :           && TREE_TYPE (TREE_TYPE (exp)) == 0
    6627                 :           7 :           && GET_MODE_PRECISION (outer_mode)
    6628                 :           0 :              == TYPE_PRECISION (TREE_TYPE (exp)))
    6629                 :             :         {
    6630                 :           0 :           if (!SUBREG_CHECK_PROMOTED_SIGN (target,
    6631                 :             :                                           TYPE_UNSIGNED (TREE_TYPE (exp))))
    6632                 :             :             {
    6633                 :             :               /* Some types, e.g. Fortran's logical*4, won't have a signed
    6634                 :             :                  version, so use the mode instead.  */
    6635                 :           0 :               tree ntype
    6636                 :             :                 = (signed_or_unsigned_type_for
    6637                 :           0 :                    (SUBREG_PROMOTED_SIGN (target), TREE_TYPE (exp)));
    6638                 :           0 :               if (ntype == NULL)
    6639                 :           0 :                 ntype = lang_hooks.types.type_for_mode
    6640                 :           0 :                   (TYPE_MODE (TREE_TYPE (exp)),
    6641                 :           0 :                    SUBREG_PROMOTED_SIGN (target));
    6642                 :             : 
    6643                 :           0 :               exp = fold_convert_loc (loc, ntype, exp);
    6644                 :             :             }
    6645                 :             : 
    6646                 :           0 :           exp = fold_convert_loc (loc, lang_hooks.types.type_for_mode
    6647                 :           0 :                                   (inner_mode, SUBREG_PROMOTED_SIGN (target)),
    6648                 :             :                                   exp);
    6649                 :             : 
    6650                 :           0 :           inner_target = SUBREG_REG (target);
    6651                 :             :         }
    6652                 :             : 
    6653                 :           7 :       temp = expand_expr (exp, inner_target, VOIDmode,
    6654                 :             :                           call_param_p ? EXPAND_STACK_PARM : EXPAND_NORMAL);
    6655                 :             : 
    6656                 :             : 
    6657                 :             :       /* If TEMP is a VOIDmode constant, use convert_modes to make
    6658                 :             :          sure that we properly convert it.  */
    6659                 :           7 :       if (CONSTANT_P (temp) && GET_MODE (temp) == VOIDmode)
    6660                 :             :         {
    6661                 :           0 :           temp = convert_modes (outer_mode, TYPE_MODE (TREE_TYPE (exp)),
    6662                 :           0 :                                 temp, SUBREG_PROMOTED_SIGN (target));
    6663                 :           0 :           temp = convert_modes (inner_mode, outer_mode, temp,
    6664                 :           0 :                                 SUBREG_PROMOTED_SIGN (target));
    6665                 :           0 :         }
    6666                 :           7 :       else if (!SCALAR_INT_MODE_P (GET_MODE (temp)))
    6667                 :           0 :         temp = convert_modes (outer_mode, TYPE_MODE (TREE_TYPE (exp)),
    6668                 :           0 :                               temp, SUBREG_PROMOTED_SIGN (target));
    6669                 :             : 
    6670                 :          21 :       convert_move (SUBREG_REG (target), temp,
    6671                 :           7 :                     SUBREG_PROMOTED_SIGN (target));
    6672                 :             : 
    6673                 :           7 :       return NULL_RTX;
    6674                 :             :     }
    6675                 :    16251794 :   else if ((TREE_CODE (exp) == STRING_CST
    6676                 :    16243033 :             || (TREE_CODE (exp) == MEM_REF
    6677                 :     1119815 :                 && TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
    6678                 :      323269 :                 && TREE_CODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
    6679                 :             :                    == STRING_CST
    6680                 :        4264 :                 && integer_zerop (TREE_OPERAND (exp, 1))))
    6681                 :       13025 :            && !nontemporal && !call_param_p
    6682                 :    16264819 :            && MEM_P (target))
    6683                 :             :     {
    6684                 :             :       /* Optimize initialization of an array with a STRING_CST.  */
    6685                 :       13019 :       HOST_WIDE_INT exp_len, str_copy_len;
    6686                 :       13019 :       rtx dest_mem;
    6687                 :       13019 :       tree str = TREE_CODE (exp) == STRING_CST
    6688                 :       13019 :                  ? exp : TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
    6689                 :             : 
    6690                 :       13019 :       exp_len = int_expr_size (exp);
    6691                 :       13019 :       if (exp_len <= 0)
    6692                 :           0 :         goto normal_expr;
    6693                 :             : 
    6694                 :       13019 :       if (TREE_STRING_LENGTH (str) <= 0)
    6695                 :           0 :         goto normal_expr;
    6696                 :             : 
    6697                 :       26038 :       if (can_store_by_pieces (exp_len, string_cst_read_str, (void *) str,
    6698                 :       13019 :                                MEM_ALIGN (target), false))
    6699                 :             :         {
    6700                 :       12845 :           store_by_pieces (target, exp_len, string_cst_read_str, (void *) str,
    6701                 :       12845 :                            MEM_ALIGN (target), false, RETURN_BEGIN);
    6702                 :       12845 :           return NULL_RTX;
    6703                 :             :         }
    6704                 :             : 
    6705                 :         174 :       str_copy_len = TREE_STRING_LENGTH (str);
    6706                 :             : 
    6707                 :             :       /* Trailing NUL bytes in EXP will be handled by the call to
    6708                 :             :          clear_storage, which is more efficient than copying them from
    6709                 :             :          the STRING_CST, so trim those from STR_COPY_LEN.  */
    6710                 :         296 :       while (str_copy_len)
    6711                 :             :         {
    6712                 :         253 :           if (TREE_STRING_POINTER (str)[str_copy_len - 1])
    6713                 :             :             break;
    6714                 :         122 :           str_copy_len--;
    6715                 :             :         }
    6716                 :             : 
    6717                 :         174 :       if ((STORE_MAX_PIECES & (STORE_MAX_PIECES - 1)) == 0)
    6718                 :             :         {
    6719                 :         174 :           str_copy_len += STORE_MAX_PIECES - 1;
    6720                 :         174 :           str_copy_len &= ~(STORE_MAX_PIECES - 1);
    6721                 :             :         }
    6722                 :         174 :       if (str_copy_len >= exp_len)
    6723                 :         123 :         goto normal_expr;
    6724                 :             : 
    6725                 :         102 :       if (!can_store_by_pieces (str_copy_len, string_cst_read_str,
    6726                 :          51 :                                 (void *) str, MEM_ALIGN (target), false))
    6727                 :           2 :         goto normal_expr;
    6728                 :             : 
    6729                 :          49 :       dest_mem = store_by_pieces (target, str_copy_len, string_cst_read_str,
    6730                 :          49 :                                   (void *) str, MEM_ALIGN (target), false,
    6731                 :             :                                   RETURN_END);
    6732                 :          49 :       clear_storage (adjust_address_1 (dest_mem, BLKmode, 0, 1, 1, 0,
    6733                 :          49 :                                        exp_len - str_copy_len),
    6734                 :             :                      GEN_INT (exp_len - str_copy_len), BLOCK_OP_NORMAL);
    6735                 :          49 :       return NULL_RTX;
    6736                 :             :     }
    6737                 :             :   else
    6738                 :             :     {
    6739                 :    16238900 :       rtx tmp_target;
    6740                 :             : 
    6741                 :    16238900 :   normal_expr:
    6742                 :             :       /* If we want to use a nontemporal or a reverse order store, force the
    6743                 :             :          value into a register first.  */
    6744                 :    16238900 :       tmp_target = nontemporal || reverse ? NULL_RTX : target;
    6745                 :    16238900 :       tree rexp = exp;
    6746                 :    16238900 :       if (TREE_CODE (exp) == STRING_CST
    6747                 :          41 :           && tmp_target == target
    6748                 :          41 :           && GET_MODE (target) == BLKmode
    6749                 :    16238941 :           && TYPE_MODE (TREE_TYPE (exp)) == BLKmode)
    6750                 :             :         {
    6751                 :          41 :           rtx size = expr_size (exp);
    6752                 :          41 :           if (CONST_INT_P (size)
    6753                 :          41 :               && size != const0_rtx
    6754                 :          82 :               && (UINTVAL (size)
    6755                 :          41 :                   > ((unsigned HOST_WIDE_INT) TREE_STRING_LENGTH (exp) + 32)))
    6756                 :             :             {
    6757                 :             :               /* If the STRING_CST has much larger array type than
    6758                 :             :                  TREE_STRING_LENGTH, only emit the TREE_STRING_LENGTH part of
    6759                 :             :                  it into the rodata section as the code later on will use
    6760                 :             :                  memset zero for the remainder anyway.  See PR95052.  */
    6761                 :           2 :               tmp_target = NULL_RTX;
    6762                 :           2 :               rexp = copy_node (exp);
    6763                 :           2 :               tree index
    6764                 :           2 :                 = build_index_type (size_int (TREE_STRING_LENGTH (exp) - 1));
    6765                 :           2 :               TREE_TYPE (rexp) = build_array_type (TREE_TYPE (TREE_TYPE (exp)),
    6766                 :             :                                                    index);
    6767                 :           2 :               shortened_string_cst = true;
    6768                 :             :             }
    6769                 :             :         }
    6770                 :    32477800 :       temp = expand_expr_real (rexp, tmp_target, GET_MODE (target),
    6771                 :             :                                (call_param_p
    6772                 :             :                                 ? EXPAND_STACK_PARM : EXPAND_NORMAL),
    6773                 :             :                                &alt_rtl, false);
    6774                 :    16238900 :       if (shortened_string_cst)
    6775                 :             :         {
    6776                 :           2 :           gcc_assert (MEM_P (temp));
    6777                 :           2 :           temp = change_address (temp, BLKmode, NULL_RTX);
    6778                 :             :         }
    6779                 :             :     }
    6780                 :             : 
    6781                 :             :   /* If TEMP is a VOIDmode constant and the mode of the type of EXP is not
    6782                 :             :      the same as that of TARGET, adjust the constant.  This is needed, for
    6783                 :             :      example, in case it is a CONST_DOUBLE or CONST_WIDE_INT and we want
    6784                 :             :      only a word-sized value.  */
    6785                 :     3219236 :   if (CONSTANT_P (temp) && GET_MODE (temp) == VOIDmode
    6786                 :     2303979 :       && TREE_CODE (exp) != ERROR_MARK
    6787                 :    18542879 :       && GET_MODE (target) != TYPE_MODE (TREE_TYPE (exp)))
    6788                 :             :     {
    6789                 :           0 :       gcc_assert (!shortened_string_cst);
    6790                 :           0 :       if (GET_MODE_CLASS (GET_MODE (target))
    6791                 :           0 :           != GET_MODE_CLASS (TYPE_MODE (TREE_TYPE (exp)))
    6792                 :           0 :           && known_eq (GET_MODE_BITSIZE (GET_MODE (target)),
    6793                 :             :                        GET_MODE_BITSIZE (TYPE_MODE (TREE_TYPE (exp)))))
    6794                 :             :         {
    6795                 :           0 :           rtx t = simplify_gen_subreg (GET_MODE (target), temp,
    6796                 :           0 :                                        TYPE_MODE (TREE_TYPE (exp)), 0);
    6797                 :           0 :           if (t)
    6798                 :           0 :             temp = t;
    6799                 :             :         }
    6800                 :           0 :       if (GET_MODE (temp) == VOIDmode)
    6801                 :           0 :         temp = convert_modes (GET_MODE (target), TYPE_MODE (TREE_TYPE (exp)),
    6802                 :           0 :                               temp, TYPE_UNSIGNED (TREE_TYPE (exp)));
    6803                 :             :     }
    6804                 :             : 
    6805                 :             :   /* If value was not generated in the target, store it there.
    6806                 :             :      Convert the value to TARGET's type first if necessary and emit the
    6807                 :             :      pending incrementations that have been queued when expanding EXP.
    6808                 :             :      Note that we cannot emit the whole queue blindly because this will
    6809                 :             :      effectively disable the POST_INC optimization later.
    6810                 :             : 
    6811                 :             :      If TEMP and TARGET compare equal according to rtx_equal_p, but
    6812                 :             :      one or both of them are volatile memory refs, we have to distinguish
    6813                 :             :      two cases:
    6814                 :             :      - expand_expr has used TARGET.  In this case, we must not generate
    6815                 :             :        another copy.  This can be detected by TARGET being equal according
    6816                 :             :        to == .
    6817                 :             :      - expand_expr has not used TARGET - that means that the source just
    6818                 :             :        happens to have the same RTX form.  Since temp will have been created
    6819                 :             :        by expand_expr, it will compare unequal according to == .
    6820                 :             :        We must generate a copy in this case, to reach the correct number
    6821                 :             :        of volatile memory references.  */
    6822                 :             : 
    6823                 :    16238900 :   if ((! rtx_equal_p (temp, target)
    6824                 :     2846524 :        || (temp != target && (side_effects_p (temp)
    6825                 :       42061 :                               || side_effects_p (target)
    6826                 :       42061 :                               || (MEM_P (temp)
    6827                 :       41846 :                                   && !mems_same_for_tbaa_p (temp, target)))))
    6828                 :    13392380 :       && TREE_CODE (exp) != ERROR_MARK
    6829                 :             :       /* If store_expr stores a DECL whose DECL_RTL(exp) == TARGET,
    6830                 :             :          but TARGET is not valid memory reference, TEMP will differ
    6831                 :             :          from TARGET although it is really the same location.  */
    6832                 :    13392380 :       && !(alt_rtl
    6833                 :     1972631 :            && rtx_equal_p (alt_rtl, target)
    6834                 :           1 :            && !side_effects_p (alt_rtl)
    6835                 :           0 :            && !side_effects_p (target))
    6836                 :             :       /* If there's nothing to copy, don't bother.  Don't call
    6837                 :             :          expr_size unless necessary, because some front-ends (C++)
    6838                 :             :          expr_size-hook must not be given objects that are not
    6839                 :             :          supposed to be bit-copied or bit-initialized.  */
    6840                 :    29631280 :       && expr_size (exp) != const0_rtx)
    6841                 :             :     {
    6842                 :    13392380 :       if (GET_MODE (temp) != GET_MODE (target) && GET_MODE (temp) != VOIDmode)
    6843                 :             :         {
    6844                 :        1575 :           gcc_assert (!shortened_string_cst);
    6845                 :        1575 :           if (GET_MODE (target) == BLKmode)
    6846                 :             :             {
    6847                 :             :               /* Handle calls that return BLKmode values in registers.  */
    6848                 :           2 :               if (REG_P (temp) && TREE_CODE (exp) == CALL_EXPR)
    6849                 :           2 :                 copy_blkmode_from_reg (target, temp, TREE_TYPE (exp));
    6850                 :             :               else
    6851                 :           0 :                 store_bit_field (target,
    6852                 :           0 :                                  rtx_to_poly_int64 (expr_size (exp))
    6853                 :           0 :                                  * BITS_PER_UNIT,
    6854                 :           0 :                                  0, 0, 0, GET_MODE (temp), temp, reverse,
    6855                 :             :                                  false);
    6856                 :             :             }
    6857                 :             :           else
    6858                 :        1573 :             convert_move (target, temp, TYPE_UNSIGNED (TREE_TYPE (exp)));
    6859                 :             :         }
    6860                 :             : 
    6861                 :    13390805 :       else if (GET_MODE (temp) == BLKmode && TREE_CODE (exp) == STRING_CST)
    6862                 :             :         {
    6863                 :             :           /* Handle copying a string constant into an array.  The string
    6864                 :             :              constant may be shorter than the array.  So copy just the string's
    6865                 :             :              actual length, and clear the rest.  First get the size of the data
    6866                 :             :              type of the string, which is actually the size of the target.  */
    6867                 :          41 :           rtx size = expr_size (exp);
    6868                 :             : 
    6869                 :          41 :           if (CONST_INT_P (size)
    6870                 :          41 :               && INTVAL (size) < TREE_STRING_LENGTH (exp))
    6871                 :           0 :             emit_block_move (target, temp, size,
    6872                 :             :                              (call_param_p
    6873                 :             :                               ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
    6874                 :             :           else
    6875                 :             :             {
    6876                 :          41 :               machine_mode pointer_mode
    6877                 :          41 :                 = targetm.addr_space.pointer_mode (MEM_ADDR_SPACE (target));
    6878                 :          41 :               machine_mode address_mode = get_address_mode (target);
    6879                 :             : 
    6880                 :             :               /* Compute the size of the data to copy from the string.  */
    6881                 :          41 :               tree copy_size
    6882                 :          41 :                 = size_binop_loc (loc, MIN_EXPR,
    6883                 :             :                                   make_tree (sizetype, size),
    6884                 :          41 :                                   size_int (TREE_STRING_LENGTH (exp)));
    6885                 :          41 :               rtx copy_size_rtx
    6886                 :          41 :                 = expand_expr (copy_size, NULL_RTX, VOIDmode,
    6887                 :             :                                (call_param_p
    6888                 :             :                                 ? EXPAND_STACK_PARM : EXPAND_NORMAL));
    6889                 :          41 :               rtx_code_label *label = 0;
    6890                 :             : 
    6891                 :             :               /* Copy that much.  */
    6892                 :         123 :               copy_size_rtx = convert_to_mode (pointer_mode, copy_size_rtx,
    6893                 :          41 :                                                TYPE_UNSIGNED (sizetype));
    6894                 :          82 :               emit_block_move (target, temp, copy_size_rtx,
    6895                 :             :                                (call_param_p
    6896                 :             :                                 ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
    6897                 :             : 
    6898                 :             :               /* Figure out how much is left in TARGET that we have to clear.
    6899                 :             :                  Do all calculations in pointer_mode.  */
    6900                 :          41 :               poly_int64 const_copy_size;
    6901                 :          41 :               if (poly_int_rtx_p (copy_size_rtx, &const_copy_size))
    6902                 :             :                 {
    6903                 :          41 :                   size = plus_constant (address_mode, size, -const_copy_size);
    6904                 :          41 :                   target = adjust_address (target, BLKmode, const_copy_size);
    6905                 :             :                 }
    6906                 :             :               else
    6907                 :             :                 {
    6908                 :           0 :                   size = expand_binop (TYPE_MODE (sizetype), sub_optab, size,
    6909                 :             :                                        copy_size_rtx, NULL_RTX, 0,
    6910                 :             :                                        OPTAB_LIB_WIDEN);
    6911                 :             : 
    6912                 :           0 :                   if (GET_MODE (copy_size_rtx) != address_mode)
    6913                 :           0 :                     copy_size_rtx = convert_to_mode (address_mode,
    6914                 :             :                                                      copy_size_rtx,
    6915                 :           0 :                                                      TYPE_UNSIGNED (sizetype));
    6916                 :             : 
    6917                 :           0 :                   target = offset_address (target, copy_size_rtx,
    6918                 :             :                                            highest_pow2_factor (copy_size));
    6919                 :           0 :                   label = gen_label_rtx ();
    6920                 :           0 :                   emit_cmp_and_jump_insns (size, const0_rtx, LT, NULL_RTX,
    6921                 :           0 :                                            GET_MODE (size), 0, label);
    6922                 :             :                 }
    6923                 :             : 
    6924                 :          41 :               if (size != const0_rtx)
    6925                 :           2 :                 clear_storage (target, size, BLOCK_OP_NORMAL);
    6926                 :             : 
    6927                 :          41 :               if (label)
    6928                 :           0 :                 emit_label (label);
    6929                 :             :             }
    6930                 :             :         }
    6931                 :    13390764 :       else if (shortened_string_cst)
    6932                 :           0 :         gcc_unreachable ();
    6933                 :             :       /* Handle calls that return values in multiple non-contiguous locations.
    6934                 :             :          The Irix 6 ABI has examples of this.  */
    6935                 :    13390764 :       else if (GET_CODE (target) == PARALLEL)
    6936                 :             :         {
    6937                 :           0 :           if (GET_CODE (temp) == PARALLEL)
    6938                 :           0 :             emit_group_move (target, temp);
    6939                 :             :           else
    6940                 :           0 :             emit_group_load (target, temp, TREE_TYPE (exp),
    6941                 :           0 :                              int_size_in_bytes (TREE_TYPE (exp)));
    6942                 :             :         }
    6943                 :    13390764 :       else if (GET_CODE (temp) == PARALLEL)
    6944                 :           0 :         emit_group_store (target, temp, TREE_TYPE (exp),
    6945                 :           0 :                           int_size_in_bytes (TREE_TYPE (exp)));
    6946                 :    13390764 :       else if (GET_MODE (temp) == BLKmode)
    6947                 :      598018 :         emit_block_move (target, temp, expr_size (exp),
    6948                 :             :                          (call_param_p
    6949                 :             :                           ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
    6950                 :             :       /* If we emit a nontemporal store, there is nothing else to do.  */
    6951                 :    13091755 :       else if (nontemporal && emit_storent_insn (target, temp))
    6952                 :             :         ;
    6953                 :             :       else
    6954                 :             :         {
    6955                 :    13091738 :           if (reverse)
    6956                 :         712 :             temp = flip_storage_order (GET_MODE (target), temp);
    6957                 :    13091738 :           temp = force_operand (temp, target);
    6958                 :    13091738 :           if (temp != target)
    6959                 :    13090185 :             emit_move_insn (target, temp);
    6960                 :             :         }
    6961                 :             :     }
    6962                 :             :   else
    6963                 :     2846520 :     gcc_assert (!shortened_string_cst);
    6964                 :             : 
    6965                 :             :   return NULL_RTX;
    6966                 :             : }
    6967                 :             : 
    6968                 :             : /* Return true if field F of structure TYPE is a flexible array.  */
    6969                 :             : 
    6970                 :             : static bool
    6971                 :     3633543 : flexible_array_member_p (const_tree f, const_tree type)
    6972                 :             : {
    6973                 :     3633543 :   const_tree tf;
    6974                 :             : 
    6975                 :     3633543 :   tf = TREE_TYPE (f);
    6976                 :     3633543 :   return (DECL_CHAIN (f) == NULL
    6977                 :     1068570 :           && TREE_CODE (tf) == ARRAY_TYPE
    6978                 :        2490 :           && TYPE_DOMAIN (tf)
    6979                 :        2490 :           && TYPE_MIN_VALUE (TYPE_DOMAIN (tf))
    6980                 :        2490 :           && integer_zerop (TYPE_MIN_VALUE (TYPE_DOMAIN (tf)))
    6981                 :        2490 :           && !TYPE_MAX_VALUE (TYPE_DOMAIN (tf))
    6982                 :     3633586 :           && int_size_in_bytes (type) >= 0);
    6983                 :             : }
    6984                 :             : 
    6985                 :             : /* If FOR_CTOR_P, return the number of top-level elements that a constructor
    6986                 :             :    must have in order for it to completely initialize a value of type TYPE.
    6987                 :             :    Return -1 if the number isn't known.
    6988                 :             : 
    6989                 :             :    If !FOR_CTOR_P, return an estimate of the number of scalars in TYPE.  */
    6990                 :             : 
    6991                 :             : static HOST_WIDE_INT
    6992                 :     3354701 : count_type_elements (const_tree type, bool for_ctor_p)
    6993                 :             : {
    6994                 :     3354701 :   switch (TREE_CODE (type))
    6995                 :             :     {
    6996                 :      141405 :     case ARRAY_TYPE:
    6997                 :      141405 :       {
    6998                 :      141405 :         tree nelts_minus_one;
    6999                 :             : 
    7000                 :      141405 :         nelts_minus_one = array_type_nelts_minus_one (type);
    7001                 :      141405 :         if (nelts_minus_one && tree_fits_uhwi_p (nelts_minus_one))
    7002                 :             :           {
    7003                 :      141396 :             unsigned HOST_WIDE_INT n;
    7004                 :             : 
    7005                 :      141396 :             n = tree_to_uhwi (nelts_minus_one) + 1;
    7006                 :      141396 :             if (n == 0 || for_ctor_p)
    7007                 :      140631 :               return n;
    7008                 :             :             else
    7009                 :         765 :               return n * count_type_elements (TREE_TYPE (type), false);
    7010                 :             :           }
    7011                 :           9 :         return for_ctor_p ? -1 : 1;
    7012                 :             :       }
    7013                 :             : 
    7014                 :     1619877 :     case RECORD_TYPE:
    7015                 :     1619877 :       {
    7016                 :     1619877 :         unsigned HOST_WIDE_INT n;
    7017                 :     1619877 :         tree f;
    7018                 :             : 
    7019                 :     1619877 :         n = 0;
    7020                 :    11698925 :         for (f = TYPE_FIELDS (type); f ; f = DECL_CHAIN (f))
    7021                 :    10079048 :           if (TREE_CODE (f) == FIELD_DECL)
    7022                 :             :             {
    7023                 :     4080815 :               if (!for_ctor_p)
    7024                 :      447272 :                 n += count_type_elements (TREE_TYPE (f), false);
    7025                 :     3633543 :               else if (!flexible_array_member_p (f, type))
    7026                 :             :                 /* Don't count flexible arrays, which are not supposed
    7027                 :             :                    to be initialized.  */
    7028                 :     3633500 :                 n += 1;
    7029                 :             :             }
    7030                 :             : 
    7031                 :     1619877 :         return n;
    7032                 :             :       }
    7033                 :             : 
    7034                 :        1692 :     case UNION_TYPE:
    7035                 :        1692 :     case QUAL_UNION_TYPE:
    7036                 :        1692 :       {
    7037                 :        1692 :         tree f;
    7038                 :        1692 :         HOST_WIDE_INT n, m;
    7039                 :             : 
    7040                 :        1692 :         gcc_assert (!for_ctor_p);
    7041                 :             :         /* Estimate the number of scalars in each field and pick the
    7042                 :             :            maximum.  Other estimates would do instead; the idea is simply
    7043                 :             :            to make sure that the estimate is not sensitive to the ordering
    7044                 :             :            of the fields.  */
    7045                 :        1692 :         n = 1;
    7046                 :       31727 :         for (f = TYPE_FIELDS (type); f ; f = DECL_CHAIN (f))
    7047                 :       30035 :           if (TREE_CODE (f) == FIELD_DECL)
    7048                 :             :             {
    7049                 :       27211 :               m = count_type_elements (TREE_TYPE (f), false);
    7050                 :             :               /* If the field doesn't span the whole union, add an extra
    7051                 :             :                  scalar for the rest.  */
    7052                 :       27211 :               if (simple_cst_equal (TYPE_SIZE (TREE_TYPE (f)),
    7053                 :       27211 :                                     TYPE_SIZE (type)) != 1)
    7054                 :       17517 :                 m++;
    7055                 :       27211 :               if (n < m)
    7056                 :       30035 :                 n = m;
    7057                 :             :             }
    7058                 :             :         return n;
    7059                 :             :       }
    7060                 :             : 
    7061                 :             :     case COMPLEX_TYPE:
    7062                 :             :       return 2;
    7063                 :             : 
    7064                 :         300 :     case VECTOR_TYPE:
    7065                 :         300 :       {
    7066                 :         300 :         unsigned HOST_WIDE_INT nelts;
    7067                 :         300 :         if (TYPE_VECTOR_SUBPARTS (type).is_constant (&nelts))
    7068                 :         300 :           return nelts;
    7069                 :             :         else
    7070                 :             :           return -1;
    7071                 :             :       }
    7072                 :             : 
    7073                 :             :     case INTEGER_TYPE:
    7074                 :             :     case REAL_TYPE:
    7075                 :             :     case FIXED_POINT_TYPE:
    7076                 :             :     case ENUMERAL_TYPE:
    7077                 :             :     case BOOLEAN_TYPE:
    7078                 :             :     case POINTER_TYPE:
    7079                 :             :     case OFFSET_TYPE:
    7080                 :             :     case REFERENCE_TYPE:
    7081                 :             :     case NULLPTR_TYPE:
    7082                 :             :     case OPAQUE_TYPE:
    7083                 :             :     case BITINT_TYPE:
    7084                 :             :       return 1;
    7085                 :             : 
    7086                 :           0 :     case ERROR_MARK:
    7087                 :           0 :       return 0;
    7088                 :             : 
    7089                 :           0 :     case VOID_TYPE:
    7090                 :           0 :     case METHOD_TYPE:
    7091                 :           0 :     case FUNCTION_TYPE:
    7092                 :           0 :     case LANG_TYPE:
    7093                 :           0 :     default:
    7094                 :           0 :       gcc_unreachable ();
    7095                 :             :     }
    7096                 :             : }
    7097                 :             : 
    7098                 :             : /* Helper for categorize_ctor_elements.  Identical interface.  */
    7099                 :             : 
    7100                 :             : static bool
    7101                 :     1390793 : categorize_ctor_elements_1 (const_tree ctor, HOST_WIDE_INT *p_nz_elts,
    7102                 :             :                             HOST_WIDE_INT *p_unique_nz_elts,
    7103                 :             :                             HOST_WIDE_INT *p_init_elts, int *p_complete)
    7104                 :             : {
    7105                 :     1390793 :   unsigned HOST_WIDE_INT idx;
    7106                 :     1390793 :   HOST_WIDE_INT nz_elts, unique_nz_elts, init_elts, num_fields;
    7107                 :     1390793 :   tree value, purpose, elt_type;
    7108                 :             : 
    7109                 :             :   /* Whether CTOR is a valid constant initializer, in accordance with what
    7110                 :             :      initializer_constant_valid_p does.  If inferred from the constructor
    7111                 :             :      elements, true until proven otherwise.  */
    7112                 :     1390793 :   bool const_from_elts_p = constructor_static_from_elts_p (ctor);
    7113                 :     1390793 :   bool const_p = const_from_elts_p ? true : TREE_STATIC (ctor);
    7114                 :             : 
    7115                 :     1390793 :   nz_elts = 0;
    7116                 :     1390793 :   unique_nz_elts = 0;
    7117                 :     1390793 :   init_elts = 0;
    7118                 :     1390793 :   num_fields = 0;
    7119                 :     1390793 :   elt_type = NULL_TREE;
    7120                 :             : 
    7121                 :     5302436 :   FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (ctor), idx, purpose, value)
    7122                 :             :     {
    7123                 :     3911643 :       HOST_WIDE_INT mult = 1;
    7124                 :             : 
    7125                 :     3911643 :       if (purpose && TREE_CODE (purpose) == RANGE_EXPR)
    7126                 :             :         {
    7127                 :         584 :           tree lo_index = TREE_OPERAND (purpose, 0);
    7128                 :         584 :           tree hi_index = TREE_OPERAND (purpose, 1);
    7129                 :             : 
    7130                 :         584 :           if (tree_fits_uhwi_p (lo_index) && tree_fits_uhwi_p (hi_index))
    7131                 :         584 :             mult = (tree_to_uhwi (hi_index)
    7132                 :         584 :                     - tree_to_uhwi (lo_index) + 1);
    7133                 :             :         }
    7134                 :     3911643 :       num_fields += mult;
    7135                 :     3911643 :       elt_type = TREE_TYPE (value);
    7136                 :             : 
    7137                 :     3911643 :       switch (TREE_CODE (value))
    7138                 :             :         {
    7139                 :      462940 :         case CONSTRUCTOR:
    7140                 :      462940 :           {
    7141                 :      462940 :             HOST_WIDE_INT nz = 0, unz = 0, ic = 0;
    7142                 :             : 
    7143                 :      462940 :             bool const_elt_p = categorize_ctor_elements_1 (value, &nz, &unz,
    7144                 :             :                                                            &ic, p_complete);
    7145                 :             : 
    7146                 :      462940 :             nz_elts += mult * nz;
    7147                 :      462940 :             unique_nz_elts += unz;
    7148                 :      462940 :             init_elts += mult * ic;
    7149                 :             : 
    7150                 :      462940 :             if (const_from_elts_p && const_p)
    7151                 :      250834 :               const_p = const_elt_p;
    7152                 :             :           }
    7153                 :      462940 :           break;
    7154                 :             : 
    7155                 :     2098507 :         case INTEGER_CST:
    7156                 :     2098507 :         case REAL_CST:
    7157                 :     2098507 :         case FIXED_CST:
    7158                 :     2098507 :           if (!initializer_zerop (value))
    7159                 :             :             {
    7160                 :     1558137 :               nz_elts += mult;
    7161                 :     1558137 :               unique_nz_elts++;
    7162                 :             :             }
    7163                 :     2098507 :           init_elts += mult;
    7164                 :     2098507 :           break;
    7165                 :             : 
    7166                 :        6364 :         case STRING_CST:
    7167                 :        6364 :           nz_elts += mult * TREE_STRING_LENGTH (value);
    7168                 :        6364 :           unique_nz_elts += TREE_STRING_LENGTH (value);
    7169                 :        6364 :           init_elts += mult * TREE_STRING_LENGTH (value);
    7170                 :        6364 :           break;
    7171                 :             : 
    7172                 :          94 :         case RAW_DATA_CST:
    7173                 :          94 :           nz_elts += mult * RAW_DATA_LENGTH (value);
    7174                 :          94 :           unique_nz_elts += RAW_DATA_LENGTH (value);
    7175                 :          94 :           init_elts += mult * RAW_DATA_LENGTH (value);
    7176                 :          94 :           num_fields += mult * (RAW_DATA_LENGTH (value) - 1);
    7177                 :          94 :           break;
    7178                 :             : 
    7179                 :        2861 :         case COMPLEX_CST:
    7180                 :        2861 :           if (!initializer_zerop (TREE_REALPART (value)))
    7181                 :             :             {
    7182                 :        2434 :               nz_elts += mult;
    7183                 :        2434 :               unique_nz_elts++;
    7184                 :             :             }
    7185                 :        2861 :           if (!initializer_zerop (TREE_IMAGPART (value)))
    7186                 :             :             {
    7187                 :        2300 :               nz_elts += mult;
    7188                 :        2300 :               unique_nz_elts++;
    7189                 :             :             }
    7190                 :        2861 :           init_elts += 2 * mult;
    7191                 :        2861 :           break;
    7192                 :             : 
    7193                 :         778 :         case VECTOR_CST:
    7194                 :         778 :           {
    7195                 :             :             /* We can only construct constant-length vectors using
    7196                 :             :                CONSTRUCTOR.  */
    7197                 :         778 :             unsigned int nunits = VECTOR_CST_NELTS (value).to_constant ();
    7198                 :        5269 :             for (unsigned int i = 0; i < nunits; ++i)
    7199                 :             :               {
    7200                 :        4491 :                 tree v = VECTOR_CST_ELT (value, i);
    7201                 :        4491 :                 if (!initializer_zerop (v))
    7202                 :             :                   {
    7203                 :        1993 :                     nz_elts += mult;
    7204                 :        1993 :                     unique_nz_elts++;
    7205                 :             :                   }
    7206                 :        4491 :                 init_elts += mult;
    7207                 :             :               }
    7208                 :             :           }
    7209                 :             :           break;
    7210                 :             : 
    7211                 :     1340099 :         default:
    7212                 :     1340099 :           {
    7213                 :     1340099 :             HOST_WIDE_INT tc = count_type_elements (elt_type, false);
    7214                 :     1340099 :             nz_elts += mult * tc;
    7215                 :     1340099 :             unique_nz_elts += tc;
    7216                 :     1340099 :             init_elts += mult * tc;
    7217                 :             : 
    7218                 :     1340099 :             if (const_from_elts_p && const_p)
    7219                 :      505913 :               const_p
    7220                 :      505913 :                 = initializer_constant_valid_p (value,
    7221                 :             :                                                 elt_type,
    7222                 :      505913 :                                                 TYPE_REVERSE_STORAGE_ORDER
    7223                 :             :                                                 (TREE_TYPE (ctor)))
    7224                 :             :                   != NULL_TREE;
    7225                 :             :           }
    7226                 :             :           break;
    7227                 :             :         }
    7228                 :             :     }
    7229                 :             : 
    7230                 :     1390793 :   if (*p_complete && !complete_ctor_at_level_p (TREE_TYPE (ctor),
    7231                 :             :                                                 num_fields, elt_type))
    7232                 :      160766 :     *p_complete = 0;
    7233                 :     1230027 :   else if (TREE_CODE (TREE_TYPE (ctor)) == UNION_TYPE
    7234                 :     1230027 :            || TREE_CODE (TREE_TYPE (ctor)) == QUAL_UNION_TYPE)
    7235                 :             :     {
    7236                 :       10730 :       if (*p_complete
    7237                 :        6902 :           && CONSTRUCTOR_ZERO_PADDING_BITS (ctor)
    7238                 :       19719 :           && (num_fields
    7239                 :        4496 :               ? simple_cst_equal (TYPE_SIZE (TREE_TYPE (ctor)),
    7240                 :        4493 :                                   TYPE_SIZE (elt_type)) != 1
    7241                 :           3 :               : type_has_padding_at_level_p (TREE_TYPE (ctor))))
    7242                 :        3317 :         *p_complete = 0;
    7243                 :        7413 :       else if (*p_complete > 0
    7244                 :       10578 :                && (num_fields
    7245                 :        3165 :                    ? simple_cst_equal (TYPE_SIZE (TREE_TYPE (ctor)),
    7246                 :        3165 :                                        TYPE_SIZE (elt_type)) != 1
    7247                 :           0 :                    : type_has_padding_at_level_p (TREE_TYPE (ctor))))
    7248                 :         317 :         *p_complete = -1;
    7249                 :             :     }
    7250                 :     1219297 :   else if (*p_complete
    7251                 :     1145911 :            && (CONSTRUCTOR_ZERO_PADDING_BITS (ctor)
    7252                 :     1133507 :                || flag_zero_init_padding_bits == ZERO_INIT_PADDING_BITS_ALL)
    7253                 :     1231706 :            && type_has_padding_at_level_p (TREE_TYPE (ctor)))
    7254                 :        1955 :     *p_complete = 0;
    7255                 :     1217342 :   else if (*p_complete > 0
    7256                 :     1217342 :            && type_has_padding_at_level_p (TREE_TYPE (ctor)))
    7257                 :       13486 :     *p_complete = -1;
    7258                 :             : 
    7259                 :     1390793 :   *p_nz_elts += nz_elts;
    7260                 :     1390793 :   *p_unique_nz_elts += unique_nz_elts;
    7261                 :     1390793 :   *p_init_elts += init_elts;
    7262                 :             : 
    7263                 :     1390793 :   return const_p;
    7264                 :             : }
    7265                 :             : 
    7266                 :             : /* Examine CTOR to discover:
    7267                 :             :    * how many scalar fields are set to nonzero values,
    7268                 :             :      and place it in *P_NZ_ELTS;
    7269                 :             :    * the same, but counting RANGE_EXPRs as multiplier of 1 instead of
    7270                 :             :      high - low + 1 (this can be useful for callers to determine ctors
    7271                 :             :      that could be cheaply initialized with - perhaps nested - loops
    7272                 :             :      compared to copied from huge read-only data),
    7273                 :             :      and place it in *P_UNIQUE_NZ_ELTS;
    7274                 :             :    * how many scalar fields in total are in CTOR,
    7275                 :             :      and place it in *P_ELT_COUNT.
    7276                 :             :    * whether the constructor is complete -- in the sense that every
    7277                 :             :      meaningful byte is explicitly given a value --
    7278                 :             :      and place it in *P_COMPLETE:
    7279                 :             :      -  0 if any field is missing
    7280                 :             :      -  1 if all fields are initialized, and there's no padding
    7281                 :             :      - -1 if all fields are initialized, but there's padding
    7282                 :             : 
    7283                 :             :    Return whether or not CTOR is a valid static constant initializer, the same
    7284                 :             :    as "initializer_constant_valid_p (CTOR, TREE_TYPE (CTOR)) != 0".  */
    7285                 :             : 
    7286                 :             : bool
    7287                 :      927853 : categorize_ctor_elements (const_tree ctor, HOST_WIDE_INT *p_nz_elts,
    7288                 :             :                           HOST_WIDE_INT *p_unique_nz_elts,
    7289                 :             :                           HOST_WIDE_INT *p_init_elts, int *p_complete)
    7290                 :             : {
    7291                 :      927853 :   *p_nz_elts = 0;
    7292                 :      927853 :   *p_unique_nz_elts = 0;
    7293                 :      927853 :   *p_init_elts = 0;
    7294                 :      927853 :   *p_complete = 1;
    7295                 :             : 
    7296                 :      927853 :   return categorize_ctor_elements_1 (ctor, p_nz_elts, p_unique_nz_elts,
    7297                 :      927853 :                                      p_init_elts, p_complete);
    7298                 :             : }
    7299                 :             : 
    7300                 :             : /* Return true if constructor CTOR is simple enough to be materialized
    7301                 :             :    in an integer mode register.  Limit the size to WORDS words, which
    7302                 :             :    is 1 by default.  */
    7303                 :             : 
    7304                 :             : bool
    7305                 :       19259 : immediate_const_ctor_p (const_tree ctor, unsigned int words)
    7306                 :             : {
    7307                 :             :   /* Allow function to be called with a VAR_DECL's DECL_INITIAL.  */
    7308                 :       19259 :   if (!ctor || TREE_CODE (ctor) != CONSTRUCTOR)
    7309                 :             :     return false;
    7310                 :             : 
    7311                 :        1982 :   return TREE_CONSTANT (ctor)
    7312                 :        1982 :          && !TREE_ADDRESSABLE (ctor)
    7313                 :        1982 :          && CONSTRUCTOR_NELTS (ctor)
    7314                 :        1967 :          && TREE_CODE (TREE_TYPE (ctor)) != ARRAY_TYPE
    7315                 :         595 :          && int_expr_size (ctor) <= words * UNITS_PER_WORD
    7316                 :        2093 :          && initializer_constant_valid_for_bitfield_p (ctor);
    7317                 :             : }
    7318                 :             : 
    7319                 :             : /* TYPE is initialized by a constructor with NUM_ELTS elements, the last
    7320                 :             :    of which had type LAST_TYPE.  Each element was itself a complete
    7321                 :             :    initializer, in the sense that every meaningful byte was explicitly
    7322                 :             :    given a value.  Return true if the same is true for the constructor
    7323                 :             :    as a whole.  */
    7324                 :             : 
    7325                 :             : bool
    7326                 :     1547220 : complete_ctor_at_level_p (const_tree type, HOST_WIDE_INT num_elts,
    7327                 :             :                           const_tree last_type)
    7328                 :             : {
    7329                 :     1547220 :   if (TREE_CODE (type) == UNION_TYPE || TREE_CODE (type) == QUAL_UNION_TYPE)
    7330                 :             :     {
    7331                 :        7866 :       if (num_elts == 0)
    7332                 :             :         {
    7333                 :          24 :           if (flag_zero_init_padding_bits >= ZERO_INIT_PADDING_BITS_UNIONS)
    7334                 :             :             return false;
    7335                 :             : 
    7336                 :             :           /* If the CONSTRUCTOR doesn't have any elts, it is
    7337                 :             :              incomplete if the union has at least one field.  */
    7338                 :          27 :           for (tree f = TYPE_FIELDS (type); f; f = DECL_CHAIN (f))
    7339                 :          24 :             if (TREE_CODE (f) == FIELD_DECL)
    7340                 :             :               return false;
    7341                 :             : 
    7342                 :             :           return true;
    7343                 :             :         }
    7344                 :             : 
    7345                 :        7842 :       gcc_assert (num_elts == 1 && last_type);
    7346                 :             : 
    7347                 :        7842 :       if (flag_zero_init_padding_bits >= ZERO_INIT_PADDING_BITS_UNIONS)
    7348                 :             :         /* ??? We could look at each element of the union, and find the
    7349                 :             :            largest element.  Which would avoid comparing the size of the
    7350                 :             :            initialized element against any tail padding in the union.
    7351                 :             :            Doesn't seem worth the effort...  */
    7352                 :           6 :         return simple_cst_equal (TYPE_SIZE (type), TYPE_SIZE (last_type)) == 1;
    7353                 :             : 
    7354                 :             :       return true;
    7355                 :             :     }
    7356                 :             : 
    7357                 :     1539354 :   return count_type_elements (type, true) == num_elts;
    7358                 :             : }
    7359                 :             : 
    7360                 :             : /* Return true if EXP contains mostly (3/4) zeros.  */
    7361                 :             : 
    7362                 :             : static bool
    7363                 :      359404 : mostly_zeros_p (const_tree exp)
    7364                 :             : {
    7365                 :      359404 :   if (TREE_CODE (exp) == CONSTRUCTOR)
    7366                 :             :     {
    7367                 :         104 :       HOST_WIDE_INT nz_elts, unz_elts, init_elts;
    7368                 :         104 :       int complete_p;
    7369                 :             : 
    7370                 :         104 :       categorize_ctor_elements (exp, &nz_elts, &unz_elts, &init_elts,
    7371                 :             :                                 &complete_p);
    7372                 :         104 :       return !complete_p || nz_elts < init_elts / 4;
    7373                 :             :     }
    7374                 :             : 
    7375                 :      359300 :   return initializer_zerop (exp);
    7376                 :             : }
    7377                 :             : 
    7378                 :             : /* Return true if EXP contains all zeros.  */
    7379                 :             : 
    7380                 :             : static bool
    7381                 :        2727 : all_zeros_p (const_tree exp)
    7382                 :             : {
    7383                 :        2727 :   if (TREE_CODE (exp) == CONSTRUCTOR)
    7384                 :             :     {
    7385                 :        2727 :       HOST_WIDE_INT nz_elts, unz_elts, init_elts;
    7386                 :        2727 :       int complete_p;
    7387                 :             : 
    7388                 :        2727 :       categorize_ctor_elements (exp, &nz_elts, &unz_elts, &init_elts,
    7389                 :             :                                 &complete_p);
    7390                 :        2727 :       return nz_elts == 0;
    7391                 :             :     }
    7392                 :             : 
    7393                 :           0 :   return initializer_zerop (exp);
    7394                 :             : }
    7395                 :             : 
    7396                 :             : /* Helper function for store_constructor.
    7397                 :             :    TARGET, BITSIZE, BITPOS, MODE, EXP are as for store_field.
    7398                 :             :    CLEARED is as for store_constructor.
    7399                 :             :    ALIAS_SET is the alias set to use for any stores.
    7400                 :             :    If REVERSE is true, the store is to be done in reverse order.
    7401                 :             : 
    7402                 :             :    This provides a recursive shortcut back to store_constructor when it isn't
    7403                 :             :    necessary to go through store_field.  This is so that we can pass through
    7404                 :             :    the cleared field to let store_constructor know that we may not have to
    7405                 :             :    clear a substructure if the outer structure has already been cleared.  */
    7406                 :             : 
    7407                 :             : static void
    7408                 :       31954 : store_constructor_field (rtx target, poly_uint64 bitsize, poly_int64 bitpos,
    7409                 :             :                          poly_uint64 bitregion_start,
    7410                 :             :                          poly_uint64 bitregion_end,
    7411                 :             :                          machine_mode mode,
    7412                 :             :                          tree exp, int cleared,
    7413                 :             :                          alias_set_type alias_set, bool reverse)
    7414                 :             : {
    7415                 :       31954 :   poly_int64 bytepos;
    7416                 :       31954 :   poly_uint64 bytesize;
    7417                 :       31954 :   if (TREE_CODE (exp) == CONSTRUCTOR
    7418                 :             :       /* We can only call store_constructor recursively if the size and
    7419                 :             :          bit position are on a byte boundary.  */
    7420                 :          18 :       && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
    7421                 :          18 :       && maybe_ne (bitsize, 0U)
    7422                 :       31954 :       && multiple_p (bitsize, BITS_PER_UNIT, &bytesize)
    7423                 :             :       /* If we have a nonzero bitpos for a register target, then we just
    7424                 :             :          let store_field do the bitfield handling.  This is unlikely to
    7425                 :             :          generate unnecessary clear instructions anyways.  */
    7426                 :       31972 :       && (known_eq (bitpos, 0) || MEM_P (target)))
    7427                 :             :     {
    7428                 :          18 :       if (MEM_P (target))
    7429                 :             :         {
    7430                 :          18 :           machine_mode target_mode = GET_MODE (target);
    7431                 :          18 :           if (target_mode != BLKmode
    7432                 :          18 :               && !multiple_p (bitpos, GET_MODE_ALIGNMENT (target_mode)))
    7433                 :             :             target_mode = BLKmode;
    7434                 :          18 :           target = adjust_address (target, target_mode, bytepos);
    7435                 :             :         }
    7436                 :             : 
    7437                 :             : 
    7438                 :             :       /* Update the alias set, if required.  */
    7439                 :          18 :       if (MEM_P (target) && ! MEM_KEEP_ALIAS_SET_P (target)
    7440                 :          36 :           && MEM_ALIAS_SET (target) != 0)
    7441                 :             :         {
    7442                 :          18 :           target = copy_rtx (target);
    7443                 :          18 :           set_mem_alias_set (target, alias_set);
    7444                 :             :         }
    7445                 :             : 
    7446                 :          18 :       store_constructor (exp, target, cleared, bytesize, reverse);
    7447                 :             :     }
    7448                 :             :   else
    7449                 :       31936 :     store_field (target, bitsize, bitpos, bitregion_start, bitregion_end, mode,
    7450                 :             :                  exp, alias_set, false, reverse);
    7451                 :       31954 : }
    7452                 :             : 
    7453                 :             : 
    7454                 :             : /* Returns the number of FIELD_DECLs in TYPE.  */
    7455                 :             : 
    7456                 :             : static int
    7457                 :       58362 : fields_length (const_tree type)
    7458                 :             : {
    7459                 :       58362 :   tree t = TYPE_FIELDS (type);
    7460                 :       58362 :   int count = 0;
    7461                 :             : 
    7462                 :      502937 :   for (; t; t = DECL_CHAIN (t))
    7463                 :      444575 :     if (TREE_CODE (t) == FIELD_DECL)
    7464                 :      269551 :       ++count;
    7465                 :             : 
    7466                 :       58362 :   return count;
    7467                 :             : }
    7468                 :             : 
    7469                 :             : 
    7470                 :             : /* Store the value of constructor EXP into the rtx TARGET.
    7471                 :             :    TARGET is either a REG or a MEM; we know it cannot conflict, since
    7472                 :             :    safe_from_p has been called.
    7473                 :             :    CLEARED is true if TARGET is known to have been zero'd.
    7474                 :             :    SIZE is the number of bytes of TARGET we are allowed to modify: this
    7475                 :             :    may not be the same as the size of EXP if we are assigning to a field
    7476                 :             :    which has been packed to exclude padding bits.
    7477                 :             :    If REVERSE is true, the store is to be done in reverse order.  */
    7478                 :             : 
    7479                 :             : void
    7480                 :      245782 : store_constructor (tree exp, rtx target, int cleared, poly_int64 size,
    7481                 :             :                    bool reverse)
    7482                 :             : {
    7483                 :      245782 :   tree type = TREE_TYPE (exp);
    7484                 :      245782 :   HOST_WIDE_INT exp_size = int_size_in_bytes (type);
    7485                 :      245782 :   poly_int64 bitregion_end = known_gt (size, 0) ? size * BITS_PER_UNIT - 1 : 0;
    7486                 :             : 
    7487                 :      245782 :   switch (TREE_CODE (type))
    7488                 :             :     {
    7489                 :       59974 :     case RECORD_TYPE:
    7490                 :       59974 :     case UNION_TYPE:
    7491                 :       59974 :     case QUAL_UNION_TYPE:
    7492                 :       59974 :       {
    7493                 :       59974 :         unsigned HOST_WIDE_INT idx;
    7494                 :       59974 :         tree field, value;
    7495                 :             : 
    7496                 :             :         /* The storage order is specified for every aggregate type.  */
    7497                 :       59974 :         reverse = TYPE_REVERSE_STORAGE_ORDER (type);
    7498                 :             : 
    7499                 :             :         /* If size is zero or the target is already cleared, do nothing.  */
    7500                 :       59974 :         if (known_eq (size, 0) || cleared)
    7501                 :             :           cleared = 1;
    7502                 :             :         /* We either clear the aggregate or indicate the value is dead.  */
    7503                 :       59974 :         else if ((TREE_CODE (type) == UNION_TYPE
    7504                 :       59974 :                   || TREE_CODE (type) == QUAL_UNION_TYPE)
    7505                 :       61375 :                  && ! CONSTRUCTOR_ELTS (exp))
    7506                 :             :           /* If the constructor is empty, clear the union.  */
    7507                 :             :           {
    7508                 :        1394 :             clear_storage (target, expr_size (exp), BLOCK_OP_NORMAL);
    7509                 :        1394 :             cleared = 1;
    7510                 :             :           }
    7511                 :             : 
    7512                 :             :         /* If we are building a static constructor into a register,
    7513                 :             :            set the initial value as zero so we can fold the value into
    7514                 :             :            a constant.  But if more than one register is involved,
    7515                 :             :            this probably loses.  */
    7516                 :        3386 :         else if (REG_P (target) && TREE_STATIC (exp)
    7517                 :       59162 :                  && known_le (GET_MODE_SIZE (GET_MODE (target)),
    7518                 :             :                               REGMODE_NATURAL_SIZE (GET_MODE (target))))
    7519                 :             :           {
    7520                 :         218 :             emit_move_insn (target, CONST0_RTX (GET_MODE (target)));
    7521                 :         218 :             cleared = 1;
    7522                 :             :           }
    7523                 :             : 
    7524                 :             :         /* If the constructor has fewer fields than the structure or
    7525                 :             :            if we are initializing the structure to mostly zeros, clear
    7526                 :             :            the whole structure first.  Don't do this if TARGET is a
    7527                 :             :            register whose mode size isn't equal to SIZE since
    7528                 :             :            clear_storage can't handle this case.  */
    7529                 :       58362 :         else if (known_size_p (size)
    7530                 :       58438 :                  && (((int) CONSTRUCTOR_NELTS (exp) != fields_length (type))
    7531                 :          66 :                      || mostly_zeros_p (exp))
    7532                 :      116658 :                  && (!REG_P (target)
    7533                 :        6332 :                      || known_eq (GET_MODE_SIZE (GET_MODE (target)), size)))
    7534                 :             :           {
    7535                 :       58296 :             clear_storage (target, gen_int_mode (size, Pmode),
    7536                 :             :                            BLOCK_OP_NORMAL);
    7537                 :       58296 :             cleared = 1;
    7538                 :             :           }
    7539                 :             : 
    7540                 :       59974 :         if (REG_P (target) && !cleared)
    7541                 :           2 :           emit_clobber (target);
    7542                 :             : 
    7543                 :             :         /* Store each element of the constructor into the
    7544                 :             :            corresponding field of TARGET.  */
    7545                 :       60257 :         FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (exp), idx, field, value)
    7546                 :             :           {
    7547                 :         283 :             machine_mode mode;
    7548                 :         283 :             HOST_WIDE_INT bitsize;
    7549                 :         283 :             HOST_WIDE_INT bitpos = 0;
    7550                 :         283 :             tree offset;
    7551                 :         283 :             rtx to_rtx = target;
    7552                 :             : 
    7553                 :             :             /* Just ignore missing fields.  We cleared the whole
    7554                 :             :                structure, above, if any fields are missing.  */
    7555                 :         283 :             if (field == 0)
    7556                 :         283 :               continue;
    7557                 :             : 
    7558                 :         283 :             if (cleared && initializer_zerop (value))
    7559                 :          78 :               continue;
    7560                 :             : 
    7561                 :         205 :             if (tree_fits_uhwi_p (DECL_SIZE (field)))
    7562                 :         205 :               bitsize = tree_to_uhwi (DECL_SIZE (field));
    7563                 :             :             else
    7564                 :           0 :               gcc_unreachable ();
    7565                 :             : 
    7566                 :         205 :             mode = DECL_MODE (field);
    7567                 :         205 :             if (DECL_BIT_FIELD (field))
    7568                 :          74 :               mode = VOIDmode;
    7569                 :             : 
    7570                 :         205 :             offset = DECL_FIELD_OFFSET (field);
    7571                 :         205 :             if (tree_fits_shwi_p (offset)
    7572                 :         205 :                 && tree_fits_shwi_p (bit_position (field)))
    7573                 :             :               {
    7574                 :         205 :                 bitpos = int_bit_position (field);
    7575                 :         205 :                 offset = NULL_TREE;
    7576                 :             :               }
    7577                 :             :             else
    7578                 :           0 :               gcc_unreachable ();
    7579                 :             : 
    7580                 :             :             /* If this initializes a field that is smaller than a
    7581                 :             :                word, at the start of a word, try to widen it to a full
    7582                 :             :                word.  This special case allows us to output C++ member
    7583                 :             :                function initializations in a form that the optimizers
    7584                 :             :                can understand.  */
    7585                 :         205 :             if (WORD_REGISTER_OPERATIONS
    7586                 :             :                 && REG_P (target)
    7587                 :             :                 && bitsize < BITS_PER_WORD
    7588                 :             :                 && bitpos % BITS_PER_WORD == 0
    7589                 :             :                 && GET_MODE_CLASS (mode) == MODE_INT
    7590                 :             :                 && TREE_CODE (value) == INTEGER_CST
    7591                 :             :                 && exp_size >= 0
    7592                 :             :                 && bitpos + BITS_PER_WORD <= exp_size * BITS_PER_UNIT)
    7593                 :             :               {
    7594                 :             :                 type = TREE_TYPE (value);
    7595                 :             : 
    7596                 :             :                 if (TYPE_PRECISION (type) < BITS_PER_WORD)
    7597                 :             :                   {
    7598                 :             :                     type = lang_hooks.types.type_for_mode
    7599                 :             :                       (word_mode, TYPE_UNSIGNED (type));
    7600                 :             :                     value = fold_convert (type, value);
    7601                 :             :                     /* Make sure the bits beyond the original bitsize are zero
    7602                 :             :                        so that we can correctly avoid extra zeroing stores in
    7603                 :             :                        later constructor elements.  */
    7604                 :             :                     tree bitsize_mask
    7605                 :             :                       = wide_int_to_tree (type, wi::mask (bitsize, false,
    7606                 :             :                                                            BITS_PER_WORD));
    7607                 :             :                     value = fold_build2 (BIT_AND_EXPR, type, value, bitsize_mask);
    7608                 :             :                   }
    7609                 :             : 
    7610                 :             :                 if (BYTES_BIG_ENDIAN)
    7611                 :             :                   value
    7612                 :             :                    = fold_build2 (LSHIFT_EXPR, type, value,
    7613                 :             :                                    build_int_cst (type,
    7614                 :             :                                                   BITS_PER_WORD - bitsize));
    7615                 :             :                 bitsize = BITS_PER_WORD;
    7616                 :             :                 mode = word_mode;
    7617                 :             :               }
    7618                 :             : 
    7619                 :          82 :             if (MEM_P (to_rtx) && !MEM_KEEP_ALIAS_SET_P (to_rtx)
    7620                 :         287 :                 && DECL_NONADDRESSABLE_P (field))
    7621                 :             :               {
    7622                 :           0 :                 to_rtx = copy_rtx (to_rtx);
    7623                 :           0 :                 MEM_KEEP_ALIAS_SET_P (to_rtx) = 1;
    7624                 :             :               }
    7625                 :             : 
    7626                 :         205 :             store_constructor_field (to_rtx, bitsize, bitpos,
    7627                 :         205 :                                      0, bitregion_end, mode,
    7628                 :             :                                      value, cleared,
    7629                 :         205 :                                      get_alias_set (TREE_TYPE (field)),
    7630                 :             :                                      reverse);
    7631                 :             :           }
    7632                 :             :         break;
    7633                 :             :       }
    7634                 :       39582 :     case ARRAY_TYPE:
    7635                 :       39582 :       {
    7636                 :       39582 :         tree value, index;
    7637                 :       39582 :         unsigned HOST_WIDE_INT i;
    7638                 :       39582 :         bool need_to_clear;
    7639                 :       39582 :         tree domain;
    7640                 :       39582 :         tree elttype = TREE_TYPE (type);
    7641                 :       39582 :         bool const_bounds_p;
    7642                 :       39582 :         HOST_WIDE_INT minelt = 0;
    7643                 :       39582 :         HOST_WIDE_INT maxelt = 0;
    7644                 :             : 
    7645                 :             :         /* The storage order is specified for every aggregate type.  */
    7646                 :       39582 :         reverse = TYPE_REVERSE_STORAGE_ORDER (type);
    7647                 :             : 
    7648                 :       39582 :         domain = TYPE_DOMAIN (type);
    7649                 :       39582 :         const_bounds_p = (TYPE_MIN_VALUE (domain)
    7650                 :       39582 :                           && TYPE_MAX_VALUE (domain)
    7651                 :       39582 :                           && tree_fits_shwi_p (TYPE_MIN_VALUE (domain))
    7652                 :       79164 :                           && tree_fits_shwi_p (TYPE_MAX_VALUE (domain)));
    7653                 :             : 
    7654                 :             :         /* If we have constant bounds for the range of the type, get them.  */
    7655                 :       39582 :         if (const_bounds_p)
    7656                 :             :           {
    7657                 :       39582 :             minelt = tree_to_shwi (TYPE_MIN_VALUE (domain));
    7658                 :       39582 :             maxelt = tree_to_shwi (TYPE_MAX_VALUE (domain));
    7659                 :             :           }
    7660                 :             : 
    7661                 :             :         /* If the constructor has fewer elements than the array, clear
    7662                 :             :            the whole array first.  Similarly if this is static
    7663                 :             :            constructor of a non-BLKmode object.  */
    7664                 :       39582 :         if (cleared)
    7665                 :             :           need_to_clear = false;
    7666                 :       39582 :         else if (REG_P (target) && TREE_STATIC (exp))
    7667                 :             :           need_to_clear = true;
    7668                 :             :         else
    7669                 :             :           {
    7670                 :       39575 :             unsigned HOST_WIDE_INT idx;
    7671                 :       39575 :             HOST_WIDE_INT count = 0, zero_count = 0;
    7672                 :       39575 :             need_to_clear = ! const_bounds_p;
    7673                 :             : 
    7674                 :             :             /* This loop is a more accurate version of the loop in
    7675                 :             :                mostly_zeros_p (it handles RANGE_EXPR in an index).  It
    7676                 :             :                is also needed to check for missing elements.  */
    7677                 :       39623 :             FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (exp), idx, index, value)
    7678                 :             :               {
    7679                 :          48 :                 HOST_WIDE_INT this_node_count;
    7680                 :             : 
    7681                 :          48 :                 if (need_to_clear)
    7682                 :             :                   break;
    7683                 :             : 
    7684                 :          48 :                 if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
    7685                 :             :                   {
    7686                 :           0 :                     tree lo_index = TREE_OPERAND (index, 0);
    7687                 :           0 :                     tree hi_index = TREE_OPERAND (index, 1);
    7688                 :             : 
    7689                 :           0 :                     if (! tree_fits_uhwi_p (lo_index)
    7690                 :           0 :                         || ! tree_fits_uhwi_p (hi_index))
    7691                 :             :                       {
    7692                 :             :                         need_to_clear = true;
    7693                 :             :                         break;
    7694                 :             :                       }
    7695                 :             : 
    7696                 :           0 :                     this_node_count = (tree_to_uhwi (hi_index)
    7697                 :           0 :                                        - tree_to_uhwi (lo_index) + 1);
    7698                 :           0 :                   }
    7699                 :             :                 else
    7700                 :             :                   this_node_count = 1;
    7701                 :             : 
    7702                 :          48 :                 count += this_node_count;
    7703                 :          48 :                 if (mostly_zeros_p (value))
    7704                 :           0 :                   zero_count += this_node_count;
    7705                 :             :               }
    7706                 :             : 
    7707                 :             :             /* Clear the entire array first if there are any missing
    7708                 :             :                elements, or if the incidence of zero elements is >=
    7709                 :             :                75%.  */
    7710                 :       39575 :             if (! need_to_clear
    7711                 :       39575 :                 && (count < maxelt - minelt + 1
    7712                 :           6 :                     || 4 * zero_count >= 3 * count))
    7713                 :             :               need_to_clear = true;
    7714                 :             :           }
    7715                 :             : 
    7716                 :       39576 :         if (need_to_clear && maybe_gt (size, 0))
    7717                 :             :           {
    7718                 :       39576 :             if (REG_P (target))
    7719                 :        1299 :               emit_move_insn (target, CONST0_RTX (GET_MODE (target)));
    7720                 :             :             else
    7721                 :       38277 :               clear_storage (target, gen_int_mode (size, Pmode),
    7722                 :             :                              BLOCK_OP_NORMAL);
    7723                 :             :             cleared = 1;
    7724                 :             :           }
    7725                 :             : 
    7726                 :           6 :         if (!cleared && REG_P (target))
    7727                 :             :           /* Inform later passes that the old value is dead.  */
    7728                 :           0 :           emit_clobber (target);
    7729                 :             : 
    7730                 :             :         /* Store each element of the constructor into the
    7731                 :             :            corresponding element of TARGET, determined by counting the
    7732                 :             :            elements.  */
    7733                 :       39630 :         FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (exp), i, index, value)
    7734                 :             :           {
    7735                 :          48 :             machine_mode mode;
    7736                 :          48 :             poly_int64 bitsize;
    7737                 :          48 :             HOST_WIDE_INT bitpos;
    7738                 :          48 :             rtx xtarget = target;
    7739                 :             : 
    7740                 :          48 :             if (cleared && initializer_zerop (value))
    7741                 :           0 :               continue;
    7742                 :             : 
    7743                 :          48 :             mode = TYPE_MODE (elttype);
    7744                 :          48 :             if (mode != BLKmode)
    7745                 :          96 :               bitsize = GET_MODE_BITSIZE (mode);
    7746                 :           0 :             else if (!poly_int_tree_p (TYPE_SIZE (elttype), &bitsize))
    7747                 :           0 :               bitsize = -1;
    7748                 :             : 
    7749                 :          48 :             if (index != NULL_TREE && TREE_CODE (index) == RANGE_EXPR)
    7750                 :             :               {
    7751                 :           0 :                 tree lo_index = TREE_OPERAND (index, 0);
    7752                 :           0 :                 tree hi_index = TREE_OPERAND (index, 1);
    7753                 :           0 :                 rtx index_r, pos_rtx;
    7754                 :           0 :                 HOST_WIDE_INT lo, hi, count;
    7755                 :           0 :                 tree position;
    7756                 :             : 
    7757                 :             :                 /* If the range is constant and "small", unroll the loop.  */
    7758                 :           0 :                 if (const_bounds_p
    7759                 :           0 :                     && tree_fits_shwi_p (lo_index)
    7760                 :           0 :                     && tree_fits_shwi_p (hi_index)
    7761                 :           0 :                     && (lo = tree_to_shwi (lo_index),
    7762                 :           0 :                         hi = tree_to_shwi (hi_index),
    7763                 :           0 :                         count = hi - lo + 1,
    7764                 :           0 :                         (!MEM_P (target)
    7765                 :           0 :                          || count <= 2
    7766                 :           0 :                          || (tree_fits_uhwi_p (TYPE_SIZE (elttype))
    7767                 :           0 :                              && (tree_to_uhwi (TYPE_SIZE (elttype)) * count
    7768                 :             :                                  <= 40 * 8)))))
    7769                 :             :                   {
    7770                 :           0 :                     lo -= minelt;  hi -= minelt;
    7771                 :           0 :                     for (; lo <= hi; lo++)
    7772                 :             :                       {
    7773                 :           0 :                         bitpos = lo * tree_to_shwi (TYPE_SIZE (elttype));
    7774                 :             : 
    7775                 :           0 :                         if (MEM_P (target)
    7776                 :           0 :                             && !MEM_KEEP_ALIAS_SET_P (target)
    7777                 :           0 :                             && TREE_CODE (type) == ARRAY_TYPE
    7778                 :           0 :                             && TYPE_NONALIASED_COMPONENT (type))
    7779                 :             :                           {
    7780                 :           0 :                             target = copy_rtx (target);
    7781                 :           0 :                             MEM_KEEP_ALIAS_SET_P (target) = 1;
    7782                 :             :                           }
    7783                 :             : 
    7784                 :           0 :                         store_constructor_field
    7785                 :           0 :                           (target, bitsize, bitpos, 0, bitregion_end,
    7786                 :             :                            mode, value, cleared,
    7787                 :             :                            get_alias_set (elttype), reverse);
    7788                 :             :                       }
    7789                 :             :                   }
    7790                 :             :                 else
    7791                 :             :                   {
    7792                 :           0 :                     rtx_code_label *loop_start = gen_label_rtx ();
    7793                 :           0 :                     rtx_code_label *loop_end = gen_label_rtx ();
    7794                 :           0 :                     tree exit_cond;
    7795                 :             : 
    7796                 :           0 :                     expand_normal (hi_index);
    7797                 :             : 
    7798                 :           0 :                     index = build_decl (EXPR_LOCATION (exp),
    7799                 :             :                                         VAR_DECL, NULL_TREE, domain);
    7800                 :           0 :                     index_r = gen_reg_rtx (promote_decl_mode (index, NULL));
    7801                 :           0 :                     SET_DECL_RTL (index, index_r);
    7802                 :           0 :                     store_expr (lo_index, index_r, 0, false, reverse);
    7803                 :             : 
    7804                 :             :                     /* Build the head of the loop.  */
    7805                 :           0 :                     do_pending_stack_adjust ();
    7806                 :           0 :                     emit_label (loop_start);
    7807                 :             : 
    7808                 :             :                     /* Assign value to element index.  */
    7809                 :           0 :                     position =
    7810                 :           0 :                       fold_convert (ssizetype,
    7811                 :             :                                     fold_build2 (MINUS_EXPR,
    7812                 :             :                                                  TREE_TYPE (index),
    7813                 :             :                                                  index,
    7814                 :             :                                                  TYPE_MIN_VALUE (domain)));
    7815                 :             : 
    7816                 :           0 :                     position =
    7817                 :           0 :                         size_binop (MULT_EXPR, position,
    7818                 :             :                                     fold_convert (ssizetype,
    7819                 :             :                                                   TYPE_SIZE_UNIT (elttype)));
    7820                 :             : 
    7821                 :           0 :                     pos_rtx = expand_normal (position);
    7822                 :           0 :                     xtarget = offset_address (target, pos_rtx,
    7823                 :             :                                               highest_pow2_factor (position));
    7824                 :           0 :                     xtarget = adjust_address (xtarget, mode, 0);
    7825                 :           0 :                     if (TREE_CODE (value) == CONSTRUCTOR)
    7826                 :           0 :                       store_constructor (value, xtarget, cleared,
    7827                 :             :                                          exact_div (bitsize, BITS_PER_UNIT),
    7828                 :             :                                          reverse);
    7829                 :             :                     else
    7830                 :           0 :                       store_expr (value, xtarget, 0, false, reverse);
    7831                 :             : 
    7832                 :             :                     /* Generate a conditional jump to exit the loop.  */
    7833                 :           0 :                     exit_cond = build2 (LT_EXPR, integer_type_node,
    7834                 :             :                                         index, hi_index);
    7835                 :           0 :                     jumpif (exit_cond, loop_end,
    7836                 :             :                             profile_probability::uninitialized ());
    7837                 :             : 
    7838                 :             :                     /* Update the loop counter, and jump to the head of
    7839                 :             :                        the loop.  */
    7840                 :           0 :                     expand_assignment (index,
    7841                 :           0 :                                        build2 (PLUS_EXPR, TREE_TYPE (index),
    7842                 :             :                                                index, integer_one_node),
    7843                 :             :                                        false);
    7844                 :             : 
    7845                 :           0 :                     emit_jump (loop_start);
    7846                 :             : 
    7847                 :             :                     /* Build the end of the loop.  */
    7848                 :           0 :                     emit_label (loop_end);
    7849                 :             :                   }
    7850                 :             :               }
    7851                 :          48 :             else if ((index != 0 && ! tree_fits_shwi_p (index))
    7852                 :          48 :                      || ! tree_fits_uhwi_p (TYPE_SIZE (elttype)))
    7853                 :             :               {
    7854                 :           0 :                 tree position;
    7855                 :             : 
    7856                 :           0 :                 if (index == 0)
    7857                 :           0 :                   index = ssize_int (1);
    7858                 :             : 
    7859                 :           0 :                 if (minelt)
    7860                 :           0 :                   index = fold_convert (ssizetype,
    7861                 :             :                                         fold_build2 (MINUS_EXPR,
    7862                 :             :                                                      TREE_TYPE (index),
    7863                 :             :                                                      index,
    7864                 :             :                                                      TYPE_MIN_VALUE (domain)));
    7865                 :             : 
    7866                 :           0 :                 position =
    7867                 :           0 :                   size_binop (MULT_EXPR, index,
    7868                 :             :                               fold_convert (ssizetype,
    7869                 :             :                                             TYPE_SIZE_UNIT (elttype)));
    7870                 :           0 :                 xtarget = offset_address (target,
    7871                 :             :                                           expand_normal (position),
    7872                 :             :                                           highest_pow2_factor (position));
    7873                 :           0 :                 xtarget = adjust_address (xtarget, mode, 0);
    7874                 :           0 :                 store_expr (value, xtarget, 0, false, reverse);
    7875                 :             :               }
    7876                 :             :             else
    7877                 :             :               {
    7878                 :          48 :                 if (index != 0)
    7879                 :          96 :                   bitpos = ((tree_to_shwi (index) - minelt)
    7880                 :          48 :                             * tree_to_uhwi (TYPE_SIZE (elttype)));
    7881                 :             :                 else
    7882                 :           0 :                   bitpos = (i * tree_to_uhwi (TYPE_SIZE (elttype)));
    7883                 :             : 
    7884                 :          48 :                 if (MEM_P (target) && !MEM_KEEP_ALIAS_SET_P (target)
    7885                 :          48 :                     && TREE_CODE (type) == ARRAY_TYPE
    7886                 :          96 :                     && TYPE_NONALIASED_COMPONENT (type))
    7887                 :             :                   {
    7888                 :           0 :                     target = copy_rtx (target);
    7889                 :           0 :                     MEM_KEEP_ALIAS_SET_P (target) = 1;
    7890                 :             :                   }
    7891                 :          48 :                 store_constructor_field (target, bitsize, bitpos, 0,
    7892                 :             :                                          bitregion_end, mode, value,
    7893                 :             :                                          cleared, get_alias_set (elttype),
    7894                 :             :                                          reverse);
    7895                 :             :               }
    7896                 :             :           }
    7897                 :             :         break;
    7898                 :             :       }
    7899                 :             : 
    7900                 :      146226 :     case VECTOR_TYPE:
    7901                 :      146226 :       {
    7902                 :      146226 :         unsigned HOST_WIDE_INT idx;
    7903                 :      146226 :         constructor_elt *ce;
    7904                 :      146226 :         bool need_to_clear;
    7905                 :      146226 :         insn_code icode = CODE_FOR_nothing;
    7906                 :      146226 :         tree elt;
    7907                 :      146226 :         tree elttype = TREE_TYPE (type);
    7908                 :      146226 :         int elt_size = vector_element_bits (type);
    7909                 :      146226 :         machine_mode eltmode = TYPE_MODE (elttype);
    7910                 :      146226 :         poly_int64 bitsize;
    7911                 :      146226 :         poly_int64 bitpos;
    7912                 :      146226 :         rtvec vector = NULL;
    7913                 :      146226 :         poly_uint64 n_elts;
    7914                 :      146226 :         unsigned HOST_WIDE_INT const_n_elts;
    7915                 :      146226 :         alias_set_type alias;
    7916                 :      146226 :         bool vec_vec_init_p = false;
    7917                 :      146226 :         machine_mode mode = GET_MODE (target);
    7918                 :             : 
    7919                 :      146226 :         gcc_assert (eltmode != BLKmode);
    7920                 :             : 
    7921                 :             :         /* Try using vec_duplicate_optab for uniform vectors.  */
    7922                 :      146226 :         if (!TREE_SIDE_EFFECTS (exp)
    7923                 :      146226 :             && VECTOR_MODE_P (mode)
    7924                 :      143125 :             && eltmode == GET_MODE_INNER (mode)
    7925                 :      143125 :             && ((icode = optab_handler (vec_duplicate_optab, mode))
    7926                 :             :                 != CODE_FOR_nothing)
    7927                 :       94022 :             && (elt = uniform_vector_p (exp))
    7928                 :      170380 :             && !VECTOR_TYPE_P (TREE_TYPE (elt)))
    7929                 :             :           {
    7930                 :       24154 :             class expand_operand ops[2];
    7931                 :       24154 :             create_output_operand (&ops[0], target, mode);
    7932                 :       24154 :             create_input_operand (&ops[1], expand_normal (elt), eltmode);
    7933                 :       24154 :             expand_insn (icode, 2, ops);
    7934                 :       24154 :             if (!rtx_equal_p (target, ops[0].value))
    7935                 :           0 :               emit_move_insn (target, ops[0].value);
    7936                 :       24154 :             break;
    7937                 :             :           }
    7938                 :             :         /* Use sign-extension for uniform boolean vectors with
    7939                 :             :            integer modes and single-bit mask entries.
    7940                 :             :            Effectively "vec_duplicate" for bitmasks.  */
    7941                 :      122072 :         if (elt_size == 1
    7942                 :         184 :             && !TREE_SIDE_EFFECTS (exp)
    7943                 :         184 :             && VECTOR_BOOLEAN_TYPE_P (type)
    7944                 :         184 :             && SCALAR_INT_MODE_P (TYPE_MODE (type))
    7945                 :         184 :             && (elt = uniform_vector_p (exp))
    7946                 :      122255 :             && !VECTOR_TYPE_P (TREE_TYPE (elt)))
    7947                 :             :           {
    7948                 :         183 :             rtx op0 = force_reg (TYPE_MODE (TREE_TYPE (elt)),
    7949                 :             :                                  expand_normal (elt));
    7950                 :         183 :             rtx tmp = gen_reg_rtx (mode);
    7951                 :         183 :             convert_move (tmp, op0, 0);
    7952                 :             : 
    7953                 :             :             /* Ensure no excess bits are set.
    7954                 :             :                GCN needs this for nunits < 64.
    7955                 :             :                x86 needs this for nunits < 8.  */
    7956                 :         183 :             auto nunits = TYPE_VECTOR_SUBPARTS (type).to_constant ();
    7957                 :         183 :             if (maybe_ne (GET_MODE_PRECISION (mode), nunits))
    7958                 :           2 :               tmp = expand_binop (mode, and_optab, tmp,
    7959                 :           2 :                                   GEN_INT ((HOST_WIDE_INT_1U << nunits) - 1),
    7960                 :             :                                   target, true, OPTAB_WIDEN);
    7961                 :         183 :             if (tmp != target)
    7962                 :         181 :               emit_move_insn (target, tmp);
    7963                 :             :             break;
    7964                 :             :           }
    7965                 :             : 
    7966                 :      121889 :         n_elts = TYPE_VECTOR_SUBPARTS (type);
    7967                 :      121889 :         if (REG_P (target)
    7968                 :      119140 :             && VECTOR_MODE_P (mode))
    7969                 :             :           {
    7970                 :      118971 :             const_n_elts = 0;
    7971                 :      118971 :             if (CONSTRUCTOR_NELTS (exp)
    7972                 :      118971 :                 && (TREE_CODE (TREE_TYPE (CONSTRUCTOR_ELT (exp, 0)->value))
    7973                 :             :                     == VECTOR_TYPE))
    7974                 :             :               {
    7975                 :        1011 :                 tree etype = TREE_TYPE (CONSTRUCTOR_ELT (exp, 0)->value);
    7976                 :        1011 :                 gcc_assert (known_eq (CONSTRUCTOR_NELTS (exp)
    7977                 :             :                                       * TYPE_VECTOR_SUBPARTS (etype),
    7978                 :             :                                       n_elts));
    7979                 :             : 
    7980                 :        3033 :                 icode = convert_optab_handler (vec_init_optab, mode,
    7981                 :        1011 :                                                TYPE_MODE (etype));
    7982                 :        1011 :                 const_n_elts = CONSTRUCTOR_NELTS (exp);
    7983                 :        1011 :                 vec_vec_init_p = icode != CODE_FOR_nothing;
    7984                 :             :               }
    7985                 :      235920 :             else if (exact_div (n_elts, GET_MODE_NUNITS (eltmode))
    7986                 :      117960 :                         .is_constant (&const_n_elts))
    7987                 :             :               {
    7988                 :             :                 /* For a non-const type vector, we check it is made up of
    7989                 :             :                    similarly non-const type vectors. */
    7990                 :      117960 :                 icode = convert_optab_handler (vec_init_optab, mode, eltmode);
    7991                 :             :               }
    7992                 :             : 
    7993                 :      118971 :           if (const_n_elts && icode != CODE_FOR_nothing)
    7994                 :             :             {
    7995                 :      117601 :               vector = rtvec_alloc (const_n_elts);
    7996                 :      439377 :               for (unsigned int k = 0; k < const_n_elts; k++)
    7997                 :      321776 :                 RTVEC_ELT (vector, k) = CONST0_RTX (eltmode);
    7998                 :             :             }
    7999                 :             :           }
    8000                 :             : 
    8001                 :             :         /* Compute the size of the elements in the CTOR.  It differs
    8002                 :             :            from the size of the vector type elements only when the
    8003                 :             :            CTOR elements are vectors themselves.  */
    8004                 :      121889 :         tree val_type = (CONSTRUCTOR_NELTS (exp) != 0
    8005                 :      121889 :                          ? TREE_TYPE (CONSTRUCTOR_ELT (exp, 0)->value)
    8006                 :      121889 :                          : elttype);
    8007                 :      121889 :         if (VECTOR_TYPE_P (val_type))
    8008                 :        1297 :           bitsize = tree_to_poly_uint64 (TYPE_SIZE (val_type));
    8009                 :             :         else
    8010                 :      120592 :           bitsize = elt_size;
    8011                 :             : 
    8012                 :             :         /* If the constructor has fewer elements than the vector,
    8013                 :             :            clear the whole array first.  Similarly if this is static
    8014                 :             :            constructor of a non-BLKmode object.  */
    8015                 :      121889 :         if (cleared)
    8016                 :             :           need_to_clear = false;
    8017                 :      121889 :         else if (REG_P (target) && TREE_STATIC (exp))
    8018                 :             :           need_to_clear = true;
    8019                 :             :         else
    8020                 :             :           {
    8021                 :             :             poly_uint64 count = 0, zero_count = 0;
    8022                 :             :             tree value;
    8023                 :             : 
    8024                 :      481141 :             FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (exp), idx, value)
    8025                 :             :               {
    8026                 :      359252 :                 poly_int64 n_elts_here = exact_div (bitsize, elt_size);
    8027                 :      359252 :                 count += n_elts_here;
    8028                 :      359252 :                 if (mostly_zeros_p (value))
    8029                 :      359252 :                   zero_count += n_elts_here;
    8030                 :             :               }
    8031                 :             : 
    8032                 :             :             /* Clear the entire vector first if there are any missing elements,
    8033                 :             :                or if the incidence of zero elements is >= 75%.  */
    8034                 :      121889 :             need_to_clear = (maybe_lt (count, n_elts)
    8035                 :      121889 :                              || maybe_gt (4 * zero_count, 3 * count));
    8036                 :             :           }
    8037                 :             : 
    8038                 :         964 :         if (need_to_clear && maybe_gt (size, 0) && !vector)
    8039                 :             :           {
    8040                 :         604 :             if (REG_P (target))
    8041                 :           1 :               emit_move_insn (target, CONST0_RTX (mode));
    8042                 :             :             else
    8043                 :         603 :               clear_storage (target, gen_int_mode (size, Pmode),
    8044                 :             :                              BLOCK_OP_NORMAL);
    8045                 :             :             cleared = 1;
    8046                 :             :           }
    8047                 :             : 
    8048                 :             :         /* Inform later passes that the old value is dead.  */
    8049                 :      121889 :         if (!cleared && !vector && REG_P (target) && maybe_gt (n_elts, 1u))
    8050                 :             :           {
    8051                 :         891 :             emit_move_insn (target, CONST0_RTX (mode));
    8052                 :         891 :             cleared = 1;
    8053                 :             :           }
    8054                 :             : 
    8055                 :      121889 :         if (MEM_P (target))
    8056                 :        2749 :           alias = MEM_ALIAS_SET (target);
    8057                 :             :         else
    8058                 :      119140 :           alias = get_alias_set (elttype);
    8059                 :             : 
    8060                 :             :         /* Store each element of the constructor into the corresponding
    8061                 :             :            element of TARGET, determined by counting the elements.  */
    8062                 :      121889 :         HOST_WIDE_INT chunk_size = 0;
    8063                 :      121889 :         bool chunk_multiple_p = constant_multiple_p (bitsize, elt_size,
    8064                 :             :                                                      &chunk_size);
    8065                 :      121889 :         gcc_assert (chunk_multiple_p || vec_vec_init_p);
    8066                 :             : 
    8067                 :      481141 :         for (idx = 0; vec_safe_iterate (CONSTRUCTOR_ELTS (exp), idx, &ce);
    8068                 :             :              idx++)
    8069                 :             :           {
    8070                 :      359252 :             HOST_WIDE_INT eltpos;
    8071                 :      359252 :             tree value = ce->value;
    8072                 :             : 
    8073                 :      359252 :             if (cleared && initializer_zerop (value))
    8074                 :        6718 :               continue;
    8075                 :             : 
    8076                 :      352534 :             if (ce->index)
    8077                 :       44043 :               eltpos = tree_to_uhwi (ce->index);
    8078                 :             :             else
    8079                 :      308491 :               eltpos = idx * chunk_size;
    8080                 :             : 
    8081                 :      352534 :             if (vector)
    8082                 :             :               {
    8083                 :      320833 :                 if (vec_vec_init_p)
    8084                 :             :                   {
    8085                 :        1972 :                     gcc_assert (ce->index == NULL_TREE);
    8086                 :        1972 :                     gcc_assert (TREE_CODE (TREE_TYPE (value)) == VECTOR_TYPE);
    8087                 :        1972 :                     eltpos = idx;
    8088                 :             :                   }
    8089                 :             :                 else
    8090                 :      318861 :                   gcc_assert (TREE_CODE (TREE_TYPE (value)) != VECTOR_TYPE);
    8091                 :      320833 :                 RTVEC_ELT (vector, eltpos) = expand_normal (value);
    8092                 :             :               }
    8093                 :             :             else
    8094                 :             :               {
    8095                 :       31701 :                 machine_mode value_mode
    8096                 :       31701 :                   = (TREE_CODE (TREE_TYPE (value)) == VECTOR_TYPE
    8097                 :       31701 :                      ? TYPE_MODE (TREE_TYPE (value)) : eltmode);
    8098                 :       31701 :                 bitpos = eltpos * elt_size;
    8099                 :       31701 :                 store_constructor_field (target, bitsize, bitpos, 0,
    8100                 :             :                                          bitregion_end, value_mode,
    8101                 :             :                                          value, cleared, alias, reverse);
    8102                 :             :               }
    8103                 :             :           }
    8104                 :             : 
    8105                 :      121889 :         if (vector)
    8106                 :      117601 :           emit_insn (GEN_FCN (icode) (target,
    8107                 :             :                                       gen_rtx_PARALLEL (mode, vector)));
    8108                 :             :         break;
    8109                 :             :       }
    8110                 :             : 
    8111                 :           0 :     default:
    8112                 :           0 :       gcc_unreachable ();
    8113                 :             :     }
    8114                 :      245782 : }
    8115                 :             : 
    8116                 :             : /* Store the value of EXP (an expression tree)
    8117                 :             :    into a subfield of TARGET which has mode MODE and occupies
    8118                 :             :    BITSIZE bits, starting BITPOS bits from the start of TARGET.
    8119                 :             :    If MODE is VOIDmode, it means that we are storing into a bit-field.
    8120                 :             : 
    8121                 :             :    BITREGION_START is bitpos of the first bitfield in this region.
    8122                 :             :    BITREGION_END is the bitpos of the ending bitfield in this region.
    8123                 :             :    These two fields are 0, if the C++ memory model does not apply,
    8124                 :             :    or we are not interested in keeping track of bitfield regions.
    8125                 :             : 
    8126                 :             :    Always return const0_rtx unless we have something particular to
    8127                 :             :    return.
    8128                 :             : 
    8129                 :             :    ALIAS_SET is the alias set for the destination.  This value will
    8130                 :             :    (in general) be different from that for TARGET, since TARGET is a
    8131                 :             :    reference to the containing structure.
    8132                 :             : 
    8133                 :             :    If NONTEMPORAL is true, try generating a nontemporal store.
    8134                 :             : 
    8135                 :             :    If REVERSE is true, the store is to be done in reverse order.  */
    8136                 :             : 
    8137                 :             : static rtx
    8138                 :     4565092 : store_field (rtx target, poly_int64 bitsize, poly_int64 bitpos,
    8139                 :             :              poly_uint64 bitregion_start, poly_uint64 bitregion_end,
    8140                 :             :              machine_mode mode, tree exp,
    8141                 :             :              alias_set_type alias_set, bool nontemporal,  bool reverse)
    8142                 :             : {
    8143                 :     4565092 :   if (TREE_CODE (exp) == ERROR_MARK)
    8144                 :           0 :     return const0_rtx;
    8145                 :             : 
    8146                 :             :   /* If we have nothing to store, do nothing unless the expression has
    8147                 :             :      side-effects.  Don't do that for zero sized addressable lhs of
    8148                 :             :      calls.  */
    8149                 :     4565092 :   if (known_eq (bitsize, 0)
    8150                 :     4565092 :       && (!TREE_ADDRESSABLE (TREE_TYPE (exp))
    8151                 :           3 :           || TREE_CODE (exp) != CALL_EXPR))
    8152                 :           0 :     return expand_expr (exp, const0_rtx, VOIDmode, EXPAND_NORMAL);
    8153                 :             : 
    8154                 :     4565092 :   if (GET_CODE (target) == CONCAT)
    8155                 :             :     {
    8156                 :             :       /* We're storing into a struct containing a single __complex.  */
    8157                 :             : 
    8158                 :           0 :       gcc_assert (known_eq (bitpos, 0));
    8159                 :           0 :       return store_expr (exp, target, 0, nontemporal, reverse);
    8160                 :             :     }
    8161                 :             : 
    8162                 :             :   /* If the structure is in a register or if the component
    8163                 :             :      is a bit field, we cannot use addressing to access it.
    8164                 :             :      Use bit-field techniques or SUBREG to store in it.  */
    8165                 :             : 
    8166                 :     4565092 :   poly_int64 decl_bitsize;
    8167                 :     4565092 :   if (mode == VOIDmode
    8168                 :     4495799 :       || (mode != BLKmode && ! direct_store[(int) mode]
    8169                 :        5183 :           && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
    8170                 :        5181 :           && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT)
    8171                 :     4490659 :       || REG_P (target)
    8172                 :     3822954 :       || GET_CODE (target) == SUBREG
    8173                 :             :       /* If the field isn't aligned enough to store as an ordinary memref,
    8174                 :             :          store it as a bit field.  */
    8175                 :     3822954 :       || (mode != BLKmode
    8176                 :     3711295 :           && ((((MEM_ALIGN (target) < GET_MODE_ALIGNMENT (mode))
    8177                 :     7330726 :                 || !multiple_p (bitpos, GET_MODE_ALIGNMENT (mode)))
    8178                 :       48638 :                && targetm.slow_unaligned_access (mode, MEM_ALIGN (target)))
    8179                 :     3711295 :               || !multiple_p (bitpos, BITS_PER_UNIT)))
    8180                 :     3822954 :       || (known_size_p (bitsize)
    8181                 :     3822942 :           && mode != BLKmode
    8182                 :     3711295 :           && maybe_gt (GET_MODE_BITSIZE (mode), bitsize))
    8183                 :             :       /* If the RHS and field are a constant size and the size of the
    8184                 :             :          RHS isn't the same size as the bitfield, we must use bitfield
    8185                 :             :          operations.  */
    8186                 :     3822945 :       || (known_size_p (bitsize)
    8187                 :     3822933 :           && poly_int_tree_p (TYPE_SIZE (TREE_TYPE (exp)))
    8188                 :     3822933 :           && maybe_ne (wi::to_poly_offset (TYPE_SIZE (TREE_TYPE (exp))),
    8189                 :             :                        bitsize)
    8190                 :             :           /* Except for initialization of full bytes from a CONSTRUCTOR, which
    8191                 :             :              we will handle specially below.  */
    8192                 :          27 :           && !(TREE_CODE (exp) == CONSTRUCTOR
    8193                 :          11 :                && multiple_p (bitsize, BITS_PER_UNIT))
    8194                 :             :           /* And except for bitwise copying of TREE_ADDRESSABLE types,
    8195                 :             :              where the FIELD_DECL has the right bitsize, but TREE_TYPE (exp)
    8196                 :             :              includes some extra padding.  store_expr / expand_expr will in
    8197                 :             :              that case call get_inner_reference that will have the bitsize
    8198                 :             :              we check here and thus the block move will not clobber the
    8199                 :             :              padding that shouldn't be clobbered.  In the future we could
    8200                 :             :              replace the TREE_ADDRESSABLE check with a check that
    8201                 :             :              get_base_address needs to live in memory.  */
    8202                 :          16 :           && (!TREE_ADDRESSABLE (TREE_TYPE (exp))
    8203                 :           9 :               || TREE_CODE (exp) != COMPONENT_REF
    8204                 :           6 :               || !multiple_p (bitsize, BITS_PER_UNIT)
    8205                 :           6 :               || !multiple_p (bitpos, BITS_PER_UNIT)
    8206                 :           6 :               || !poly_int_tree_p (DECL_SIZE (TREE_OPERAND (exp, 1)),
    8207                 :             :                                    &decl_bitsize)
    8208                 :           6 :               || maybe_ne (decl_bitsize, bitsize))
    8209                 :             :           /* A call with an addressable return type and return-slot
    8210                 :             :              optimization must not need bitfield operations but we must
    8211                 :             :              pass down the original target.  */
    8212                 :          10 :           && (TREE_CODE (exp) != CALL_EXPR
    8213                 :           6 :               || !TREE_ADDRESSABLE (TREE_TYPE (exp))
    8214                 :           0 :               || !CALL_EXPR_RETURN_SLOT_OPT (exp)))
    8215                 :             :       /* If we are expanding a MEM_REF of a non-BLKmode non-addressable
    8216                 :             :          decl we must use bitfield operations.  */
    8217                 :     8388027 :       || (known_size_p (bitsize)
    8218                 :     3822923 :           && TREE_CODE (exp) == MEM_REF
    8219                 :       27902 :           && TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR
    8220                 :       22589 :           && DECL_P (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
    8221                 :       18331 :           && !TREE_ADDRESSABLE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0))
    8222                 :        4974 :           && DECL_MODE (TREE_OPERAND (TREE_OPERAND (exp, 0), 0)) != BLKmode))
    8223                 :             :     {
    8224                 :      742296 :       rtx temp;
    8225                 :      742296 :       gimple *nop_def;
    8226                 :             : 
    8227                 :             :       /* If EXP is a NOP_EXPR of precision less than its mode, then that
    8228                 :             :          implies a mask operation.  If the precision is the same size as
    8229                 :             :          the field we're storing into, that mask is redundant.  This is
    8230                 :             :          particularly common with bit field assignments generated by the
    8231                 :             :          C front end.  */
    8232                 :      742296 :       nop_def = get_def_for_expr (exp, NOP_EXPR);
    8233                 :      742296 :       if (nop_def)
    8234                 :             :         {
    8235                 :        7582 :           tree type = TREE_TYPE (exp);
    8236                 :        7582 :           if (INTEGRAL_TYPE_P (type)
    8237                 :        7376 :               && maybe_ne (TYPE_PRECISION (type),
    8238                 :       14752 :                            GET_MODE_BITSIZE (TYPE_MODE (type)))
    8239                 :       11224 :               && known_eq (bitsize, TYPE_PRECISION (type)))
    8240                 :             :             {
    8241                 :        3598 :               tree op = gimple_assign_rhs1 (nop_def);
    8242                 :        3598 :               type = TREE_TYPE (op);
    8243                 :        3598 :               if (INTEGRAL_TYPE_P (type)
    8244                 :        3598 :                   && known_ge (TYPE_PRECISION (type), bitsize))
    8245                 :             :                 exp = op;
    8246                 :             :             }
    8247                 :             :         }
    8248                 :             : 
    8249                 :      742296 :       temp = expand_normal (exp);
    8250                 :             : 
    8251                 :             :       /* We don't support variable-sized BLKmode bitfields, since our
    8252                 :             :          handling of BLKmode is bound up with the ability to break
    8253                 :             :          things into words.  */
    8254                 :      742296 :       gcc_assert (mode != BLKmode || bitsize.is_constant ());
    8255                 :             : 
    8256                 :             :       /* Handle calls that return values in multiple non-contiguous locations.
    8257                 :             :          The Irix 6 ABI has examples of this.  */
    8258                 :      742296 :       if (GET_CODE (temp) == PARALLEL)
    8259                 :             :         {
    8260                 :           6 :           HOST_WIDE_INT size = int_size_in_bytes (TREE_TYPE (exp));
    8261                 :           6 :           machine_mode temp_mode = GET_MODE (temp);
    8262                 :           6 :           if (temp_mode == BLKmode || temp_mode == VOIDmode)
    8263                 :           6 :             temp_mode
    8264                 :           6 :               = smallest_int_mode_for_size (size * BITS_PER_UNIT).require ();
    8265                 :           6 :           rtx temp_target = gen_reg_rtx (temp_mode);
    8266                 :           6 :           emit_group_store (temp_target, temp, TREE_TYPE (exp), size);
    8267                 :           6 :           temp = temp_target;
    8268                 :             :         }
    8269                 :             : 
    8270                 :             :       /* Handle calls that return BLKmode values in registers.  */
    8271                 :      742290 :       else if (mode == BLKmode && REG_P (temp) && TREE_CODE (exp) == CALL_EXPR)
    8272                 :             :         {
    8273                 :           0 :           rtx temp_target = gen_reg_rtx (GET_MODE (temp));
    8274                 :           0 :           copy_blkmode_from_reg (temp_target, temp, TREE_TYPE (exp));
    8275                 :           0 :           temp = temp_target;
    8276                 :             :         }
    8277                 :             : 
    8278                 :             :       /* If the value has aggregate type and an integral mode then, if BITSIZE
    8279                 :             :          is narrower than this mode and this is for big-endian data, we first
    8280                 :             :          need to put the value into the low-order bits for store_bit_field,
    8281                 :             :          except when MODE is BLKmode and BITSIZE larger than the word size
    8282                 :             :          (see the handling of fields larger than a word in store_bit_field).
    8283                 :             :          Moreover, the field may be not aligned on a byte boundary; in this
    8284                 :             :          case, if it has reverse storage order, it needs to be accessed as a
    8285                 :             :          scalar field with reverse storage order and we must first put the
    8286                 :             :          value into target order.  */
    8287                 :      742296 :       scalar_int_mode temp_mode;
    8288                 :     1482722 :       if (AGGREGATE_TYPE_P (TREE_TYPE (exp))
    8289                 :      743292 :           && is_int_mode (GET_MODE (temp), &temp_mode))
    8290                 :             :         {
    8291                 :        2631 :           HOST_WIDE_INT size = GET_MODE_BITSIZE (temp_mode);
    8292                 :             : 
    8293                 :        2631 :           reverse = TYPE_REVERSE_STORAGE_ORDER (TREE_TYPE (exp));
    8294                 :             : 
    8295                 :        2631 :           if (reverse)
    8296                 :           0 :             temp = flip_storage_order (temp_mode, temp);
    8297                 :             : 
    8298                 :        2631 :           gcc_checking_assert (known_le (bitsize, size));
    8299                 :        2631 :           if (maybe_lt (bitsize, size)
    8300                 :        2631 :               && reverse ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN
    8301                 :             :               /* Use of to_constant for BLKmode was checked above.  */
    8302                 :             :               && !(mode == BLKmode && bitsize.to_constant () > BITS_PER_WORD))
    8303                 :           0 :             temp = expand_shift (RSHIFT_EXPR, temp_mode, temp,
    8304                 :             :                                  size - bitsize, NULL_RTX, 1);
    8305                 :             :         }
    8306                 :             : 
    8307                 :             :       /* Unless MODE is VOIDmode or BLKmode, convert TEMP to MODE.  */
    8308                 :      673003 :       if (mode != VOIDmode && mode != BLKmode
    8309                 :     1415075 :           && mode != TYPE_MODE (TREE_TYPE (exp)))
    8310                 :           4 :         temp = convert_modes (mode, TYPE_MODE (TREE_TYPE (exp)), temp, 1);
    8311                 :             : 
    8312                 :             :       /* If the mode of TEMP and TARGET is BLKmode, both must be in memory
    8313                 :             :          and BITPOS must be aligned on a byte boundary.  If so, we simply do
    8314                 :             :          a block copy.  Likewise for a BLKmode-like TARGET.  */
    8315                 :      742296 :       if (GET_MODE (temp) == BLKmode
    8316                 :      742296 :           && (GET_MODE (target) == BLKmode
    8317                 :         133 :               || (MEM_P (target)
    8318                 :           0 :                   && GET_MODE_CLASS (GET_MODE (target)) == MODE_INT
    8319                 :           0 :                   && multiple_p (bitpos, BITS_PER_UNIT)
    8320                 :           0 :                   && multiple_p (bitsize, BITS_PER_UNIT))))
    8321                 :             :         {
    8322                 :          85 :           gcc_assert (MEM_P (target) && MEM_P (temp));
    8323                 :          85 :           poly_int64 bytepos = exact_div (bitpos, BITS_PER_UNIT);
    8324                 :          85 :           poly_int64 bytesize = bits_to_bytes_round_up (bitsize);
    8325                 :             : 
    8326                 :          85 :           target = adjust_address (target, VOIDmode, bytepos);
    8327                 :          85 :           emit_block_move (target, temp,
    8328                 :          85 :                            gen_int_mode (bytesize, Pmode),
    8329                 :             :                            BLOCK_OP_NORMAL);
    8330                 :             : 
    8331                 :          85 :           return const0_rtx;
    8332                 :             :         }
    8333                 :             : 
    8334                 :             :       /* If the mode of TEMP is still BLKmode and BITSIZE not larger than the
    8335                 :             :          word size, we need to load the value (see again store_bit_field).  */
    8336                 :      742229 :       if (GET_MODE (temp) == BLKmode && known_le (bitsize, BITS_PER_WORD))
    8337                 :             :         {
    8338                 :          21 :           temp_mode = smallest_int_mode_for_size (bitsize).require ();
    8339                 :          21 :           temp = extract_bit_field (temp, bitsize, 0, 1, NULL_RTX, temp_mode,
    8340                 :             :                                     temp_mode, false, NULL);
    8341                 :             :         }
    8342                 :             : 
    8343                 :             :       /* Store the value in the bitfield.  */
    8344                 :      742211 :       gcc_checking_assert (known_ge (bitpos, 0));
    8345                 :      742211 :       store_bit_field (target, bitsize, bitpos,
    8346                 :             :                        bitregion_start, bitregion_end,
    8347                 :             :                        mode, temp, reverse, false);
    8348                 :             : 
    8349                 :      742211 :       return const0_rtx;
    8350                 :             :     }
    8351                 :             :   else
    8352                 :             :     {
    8353                 :             :       /* Now build a reference to just the desired component.  */
    8354                 :     3822796 :       rtx to_rtx = adjust_address (target, mode,
    8355                 :             :                                    exact_div (bitpos, BITS_PER_UNIT));
    8356                 :             : 
    8357                 :     3822796 :       if (to_rtx == target)
    8358                 :     1254925 :         to_rtx = copy_rtx (to_rtx);
    8359                 :             : 
    8360                 :     7376909 :       if (!MEM_KEEP_ALIAS_SET_P (to_rtx) && MEM_ALIAS_SET (to_rtx) != 0)
    8361                 :     3304778 :         set_mem_alias_set (to_rtx, alias_set);
    8362                 :             : 
    8363                 :             :       /* Above we avoided using bitfield operations for storing a CONSTRUCTOR
    8364                 :             :          into a target smaller than its type; handle that case now.  */
    8365                 :     3822796 :       if (TREE_CODE (exp) == CONSTRUCTOR && known_size_p (bitsize))
    8366                 :             :         {
    8367                 :       67963 :           poly_int64 bytesize = exact_div (bitsize, BITS_PER_UNIT);
    8368                 :       67963 :           store_constructor (exp, to_rtx, 0, bytesize, reverse);
    8369                 :       67963 :           return to_rtx;
    8370                 :             :         }
    8371                 :             : 
    8372                 :     3754833 :       return store_expr (exp, to_rtx, 0, nontemporal, reverse);
    8373                 :             :     }
    8374                 :             : }
    8375                 :             : 
    8376                 :             : /* Given an expression EXP that may be a COMPONENT_REF, a BIT_FIELD_REF,
    8377                 :             :    an ARRAY_REF, or an ARRAY_RANGE_REF, look for nested operations of these
    8378                 :             :    codes and find the ultimate containing object, which we return.
    8379                 :             : 
    8380                 :             :    We set *PBITSIZE to the size in bits that we want, *PBITPOS to the
    8381                 :             :    bit position, *PUNSIGNEDP to the signedness and *PREVERSEP to the
    8382                 :             :    storage order of the field.
    8383                 :             :    If the position of the field is variable, we store a tree
    8384                 :             :    giving the variable offset (in units) in *POFFSET.
    8385                 :             :    This offset is in addition to the bit position.
    8386                 :             :    If the position is not variable, we store 0 in *POFFSET.
    8387                 :             : 
    8388                 :             :    If any of the extraction expressions is volatile,
    8389                 :             :    we store 1 in *PVOLATILEP.  Otherwise we don't change that.
    8390                 :             : 
    8391                 :             :    If the field is a non-BLKmode bit-field, *PMODE is set to VOIDmode.
    8392                 :             :    Otherwise, it is a mode that can be used to access the field.
    8393                 :             : 
    8394                 :             :    If the field describes a variable-sized object, *PMODE is set to
    8395                 :             :    BLKmode and *PBITSIZE is set to -1.  An access cannot be made in
    8396                 :             :    this case, but the address of the object can be found.  */
    8397                 :             : 
    8398                 :             : tree
    8399                 :   210316275 : get_inner_reference (tree exp, poly_int64 *pbitsize,
    8400                 :             :                      poly_int64 *pbitpos, tree *poffset,
    8401                 :             :                      machine_mode *pmode, int *punsignedp,
    8402                 :             :                      int *preversep, int *pvolatilep)
    8403                 :             : {
    8404                 :   210316275 :   tree size_tree = 0;
    8405                 :   210316275 :   machine_mode mode = VOIDmode;
    8406                 :   210316275 :   bool blkmode_bitfield = false;
    8407                 :   210316275 :   tree offset = size_zero_node;
    8408                 :   210316275 :   poly_offset_int bit_offset = 0;
    8409                 :             : 
    8410                 :             :   /* First get the mode, signedness, storage order and size.  We do this from
    8411                 :             :      just the outermost expression.  */
    8412                 :   210316275 :   *pbitsize = -1;
    8413                 :   210316275 :   if (TREE_CODE (exp) == COMPONENT_REF)
    8414                 :             :     {
    8415                 :    89922591 :       tree field = TREE_OPERAND (exp, 1);
    8416                 :    89922591 :       size_tree = DECL_SIZE (field);
    8417                 :    89922591 :       if (flag_strict_volatile_bitfields > 0
    8418                 :          58 :           && TREE_THIS_VOLATILE (exp)
    8419                 :          40 :           && DECL_BIT_FIELD_TYPE (field)
    8420                 :    89922613 :           && DECL_MODE (field) != BLKmode)
    8421                 :             :         /* Volatile bitfields should be accessed in the mode of the
    8422                 :             :              field's type, not the mode computed based on the bit
    8423                 :             :              size.  */
    8424                 :          22 :         mode = TYPE_MODE (DECL_BIT_FIELD_TYPE (field));
    8425                 :    89922569 :       else if (!DECL_BIT_FIELD (field))
    8426                 :             :         {
    8427                 :    88712149 :           mode = DECL_MODE (field);
    8428                 :             :           /* For vector fields re-check the target flags, as DECL_MODE
    8429                 :             :              could have been set with different target flags than
    8430                 :             :              the current function has.  */
    8431                 :    88712149 :           if (VECTOR_TYPE_P (TREE_TYPE (field))
    8432                 :    88712149 :               && VECTOR_MODE_P (TYPE_MODE_RAW (TREE_TYPE (field))))
    8433                 :      317124 :             mode = TYPE_MODE (TREE_TYPE (field));
    8434                 :             :         }
    8435                 :     1210420 :       else if (DECL_MODE (field) == BLKmode)
    8436                 :         272 :         blkmode_bitfield = true;
    8437                 :             : 
    8438                 :    89922591 :       *punsignedp = DECL_UNSIGNED (field);
    8439                 :             :     }
    8440                 :   120393684 :   else if (TREE_CODE (exp) == BIT_FIELD_REF)
    8441                 :             :     {
    8442                 :      531226 :       size_tree = TREE_OPERAND (exp, 1);
    8443                 :     1062065 :       *punsignedp = (! INTEGRAL_TYPE_P (TREE_TYPE (exp))
    8444                 :      936027 :                      || TYPE_UNSIGNED (TREE_TYPE (exp)));
    8445                 :             : 
    8446                 :             :       /* For vector element types with the correct size of access or for
    8447                 :             :          vector typed accesses use the mode of the access type.  */
    8448                 :      531226 :       if ((TREE_CODE (TREE_TYPE (TREE_OPERAND (exp, 0))) == VECTOR_TYPE
    8449                 :      416649 :            && TREE_TYPE (exp) == TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0)))
    8450                 :      378878 :            && tree_int_cst_equal (size_tree, TYPE_SIZE (TREE_TYPE (exp))))
    8451                 :      569000 :           || VECTOR_TYPE_P (TREE_TYPE (exp)))
    8452                 :      397931 :         mode = TYPE_MODE (TREE_TYPE (exp));
    8453                 :             :     }
    8454                 :             :   else
    8455                 :             :     {
    8456                 :   119862458 :       mode = TYPE_MODE (TREE_TYPE (exp));
    8457                 :   119862458 :       *punsignedp = TYPE_UNSIGNED (TREE_TYPE (exp));
    8458                 :             : 
    8459                 :   119862458 :       if (mode == BLKmode)
    8460                 :    50123973 :         size_tree = TYPE_SIZE (TREE_TYPE (exp));
    8461                 :             :       else
    8462                 :   139476970 :         *pbitsize = GET_MODE_BITSIZE (mode);
    8463                 :             :     }
    8464                 :             : 
    8465                 :   210316275 :   if (size_tree != 0)
    8466                 :             :     {
    8467                 :   139902551 :       if (!poly_int_tree_p (size_tree, pbitsize))
    8468                 :      327193 :         mode = BLKmode, *pbitsize = -1;
    8469                 :             :     }
    8470                 :             : 
    8471                 :   210316275 :   *preversep = reverse_storage_order_for_component_p (exp);
    8472                 :             : 
    8473                 :             :   /* Compute cumulative bit-offset for nested component-refs and array-refs,
    8474                 :             :      and find the ultimate containing object.  */
    8475                 :   526062821 :   while (1)
    8476                 :             :     {
    8477                 :   368189548 :       switch (TREE_CODE (exp))
    8478                 :             :         {
    8479                 :      531226 :         case BIT_FIELD_REF:
    8480                 :      531226 :           bit_offset += wi::to_poly_offset (TREE_OPERAND (exp, 2));
    8481                 :      531226 :           break;
    8482                 :             : 
    8483                 :   131144845 :         case COMPONENT_REF:
    8484                 :   131144845 :           {
    8485                 :   131144845 :             tree field = TREE_OPERAND (exp, 1);
    8486                 :   131144845 :             tree this_offset = component_ref_field_offset (exp);
    8487                 :             : 
    8488                 :             :             /* If this field hasn't been filled in yet, don't go past it.
    8489                 :             :                This should only happen when folding expressions made during
    8490                 :             :                type construction.  */
    8491                 :   131144845 :             if (this_offset == 0)
    8492                 :             :               break;
    8493                 :             : 
    8494                 :   131144814 :             offset = size_binop (PLUS_EXPR, offset, this_offset);
    8495                 :   131144814 :             bit_offset += wi::to_poly_offset (DECL_FIELD_BIT_OFFSET (field));
    8496                 :             : 
    8497                 :             :             /* ??? Right now we don't do anything with DECL_OFFSET_ALIGN.  */
    8498                 :             :           }
    8499                 :   131144814 :           break;
    8500                 :             : 
    8501                 :    24031603 :         case ARRAY_REF:
    8502                 :    24031603 :         case ARRAY_RANGE_REF:
    8503                 :    24031603 :           {
    8504                 :    24031603 :             tree index = TREE_OPERAND (exp, 1);
    8505                 :    24031603 :             tree low_bound = array_ref_low_bound (exp);
    8506                 :    24031603 :             tree unit_size = array_ref_element_size (exp);
    8507                 :             : 
    8508                 :             :             /* We assume all arrays have sizes that are a multiple of a byte.
    8509                 :             :                First subtract the lower bound, if any, in the type of the
    8510                 :             :                index, then convert to sizetype and multiply by the size of
    8511                 :             :                the array element.  */
    8512                 :    24031603 :             if (! integer_zerop (low_bound))
    8513                 :      752562 :               index = fold_build2 (MINUS_EXPR, TREE_TYPE (index),
    8514                 :             :                                    index, low_bound);
    8515                 :             : 
    8516                 :    24031603 :             offset = size_binop (PLUS_EXPR, offset,
    8517                 :             :                                  size_binop (MULT_EXPR,
    8518                 :             :                                              fold_convert (sizetype, index),
    8519                 :             :                                              unit_size));
    8520                 :             :           }
    8521                 :    24031603 :           break;
    8522                 :             : 
    8523                 :             :         case REALPART_EXPR:
    8524                 :             :           break;
    8525                 :             : 
    8526                 :             :         case IMAGPART_EXPR:
    8527                 :   157873273 :           bit_offset += *pbitsize;
    8528                 :             :           break;
    8529                 :             : 
    8530                 :             :         case VIEW_CONVERT_EXPR:
    8531                 :             :           break;
    8532                 :             : 
    8533                 :    74821905 :         case MEM_REF:
    8534                 :             :           /* Hand back the decl for MEM[&decl, off].  */
    8535                 :    74821905 :           if (TREE_CODE (TREE_OPERAND (exp, 0)) == ADDR_EXPR)
    8536                 :             :             {
    8537                 :    15256505 :               tree off = TREE_OPERAND (exp, 1);
    8538                 :    15256505 :               if (!integer_zerop (off))
    8539                 :             :                 {
    8540                 :     8200287 :                   poly_offset_int boff = mem_ref_offset (exp);
    8541                 :     8200287 :                   boff <<= LOG2_BITS_PER_UNIT;
    8542                 :     8200287 :                   bit_offset += boff;
    8543                 :             :                 }
    8544                 :    15256505 :               exp = TREE_OPERAND (TREE_OPERAND (exp, 0), 0);
    8545                 :             :             }
    8546                 :    74821905 :           goto done;
    8547                 :             : 
    8548                 :   135494370 :         default:
    8549                 :   135494370 :           goto done;
    8550                 :             :         }
    8551                 :             : 
    8552                 :             :       /* If any reference in the chain is volatile, the effect is volatile.  */
    8553                 :   157873273 :       if (TREE_THIS_VOLATILE (exp))
    8554                 :      427620 :         *pvolatilep = 1;
    8555                 :             : 
    8556                 :   157873273 :       exp = TREE_OPERAND (exp, 0);
    8557                 :   157873273 :     }
    8558                 :   210316275 :  done:
    8559                 :             : 
    8560                 :             :   /* If OFFSET is constant, see if we can return the whole thing as a
    8561                 :             :      constant bit position.  Make sure to handle overflow during
    8562                 :             :      this conversion.  */
    8563                 :   210316275 :   if (poly_int_tree_p (offset))
    8564                 :             :     {
    8565                 :   199903771 :       poly_offset_int tem = wi::sext (wi::to_poly_offset (offset),
    8566                 :   199903771 :                                       TYPE_PRECISION (sizetype));
    8567                 :   199903771 :       tem <<= LOG2_BITS_PER_UNIT;
    8568                 :   199903771 :       tem += bit_offset;
    8569                 :   199903771 :       if (tem.to_shwi (pbitpos))
    8570                 :   199902419 :         *poffset = offset = NULL_TREE;
    8571                 :             :     }
    8572                 :             : 
    8573                 :             :   /* Otherwise, split it up.  */
    8574                 :   199903771 :   if (offset)
    8575                 :             :     {
    8576                 :             :       /* Avoid returning a negative bitpos as this may wreak havoc later.  */
    8577                 :    10413856 :       if (!bit_offset.to_shwi (pbitpos) || maybe_lt (*pbitpos, 0))
    8578                 :             :         {
    8579                 :         277 :           *pbitpos = num_trailing_bits (bit_offset.force_shwi ());
    8580                 :         277 :           poly_offset_int bytes = bits_to_bytes_round_down (bit_offset);
    8581                 :         277 :           offset = size_binop (PLUS_EXPR, offset,
    8582                 :             :                                build_int_cst (sizetype, bytes.force_shwi ()));
    8583                 :             :         }
    8584                 :             : 
    8585                 :    10413856 :       *poffset = offset;
    8586                 :             :     }
    8587                 :             : 
    8588                 :             :   /* We can use BLKmode for a byte-aligned BLKmode bitfield.  */
    8589                 :   210316275 :   if (mode == VOIDmode
    8590                 :     2007803 :       && blkmode_bitfield
    8591                 :         272 :       && multiple_p (*pbitpos, BITS_PER_UNIT)
    8592                 :   210316509 :       && multiple_p (*pbitsize, BITS_PER_UNIT))
    8593                 :         124 :     *pmode = BLKmode;
    8594                 :             :   else
    8595                 :   210316151 :     *pmode = mode;
    8596                 :             : 
    8597                 :   210316275 :   return exp;
    8598                 :             : }
    8599                 :             : 
    8600                 :             : /* Alignment in bits the TARGET of an assignment may be assumed to have.  */
    8601                 :             : 
    8602                 :             : static unsigned HOST_WIDE_INT
    8603                 :      508965 : target_align (const_tree target)
    8604                 :             : {
    8605                 :             :   /* We might have a chain of nested references with intermediate misaligning
    8606                 :             :      bitfields components, so need to recurse to find out.  */
    8607                 :             : 
    8608                 :      508965 :   unsigned HOST_WIDE_INT this_align, outer_align;
    8609                 :             : 
    8610                 :      508965 :   switch (TREE_CODE (target))
    8611                 :             :     {
    8612                 :             :     case BIT_FIELD_REF:
    8613                 :             :       return 1;
    8614                 :             : 
    8615                 :      146590 :     case COMPONENT_REF:
    8616                 :      146590 :       this_align = DECL_ALIGN (TREE_OPERAND (target, 1));
    8617                 :      146590 :       outer_align = target_align (TREE_OPERAND (target, 0));
    8618                 :      146590 :       return MIN (this_align, outer_align);
    8619                 :             : 
    8620                 :      184410 :     case ARRAY_REF:
    8621                 :      184410 :     case ARRAY_RANGE_REF:
    8622                 :      184410 :       this_align = TYPE_ALIGN (TREE_TYPE (target));
    8623                 :      184410 :       outer_align = target_align (TREE_OPERAND (target, 0));
    8624                 :      184410 :       return MIN (this_align, outer_align);
    8625                 :             : 
    8626                 :        4223 :     CASE_CONVERT:
    8627                 :        4223 :     case NON_LVALUE_EXPR:
    8628                 :        4223 :     case VIEW_CONVERT_EXPR:
    8629                 :        4223 :       this_align = TYPE_ALIGN (TREE_TYPE (target));
    8630                 :        4223 :       outer_align = target_align (TREE_OPERAND (target, 0));
    8631                 :        4223 :       return MAX (this_align, outer_align);
    8632                 :             : 
    8633                 :      173738 :     default:
    8634                 :      173738 :       return TYPE_ALIGN (TREE_TYPE (target));
    8635                 :             :     }
    8636                 :             : }
    8637                 :             : 
    8638                 :             : 
    8639                 :             : /* Given an rtx VALUE that may contain additions and multiplications, return
    8640                 :             :    an equivalent value that just refers to a register, memory, or constant.
    8641                 :             :    This is done by generating instructions to perform the arithmetic and
    8642                 :             :    returning a pseudo-register containing the value.
    8643                 :             : 
    8644                 :             :    The returned value may be a REG, SUBREG, MEM or constant.  */
    8645                 :             : 
    8646                 :             : rtx
    8647                 :    29198699 : force_operand (rtx value, rtx target)
    8648                 :             : {
    8649                 :    29198699 :   rtx op1, op2;
    8650                 :             :   /* Use subtarget as the target for operand 0 of a binary operation.  */
    8651                 :    29198699 :   rtx subtarget = get_subtarget (target);
    8652                 :    29198699 :   enum rtx_code code = GET_CODE (value);
    8653                 :             : 
    8654                 :             :   /* Check for subreg applied to an expression produced by loop optimizer.  */
    8655                 :    29198699 :   if (code == SUBREG
    8656                 :      332909 :       && !REG_P (SUBREG_REG (value))
    8657                 :         115 :       && !MEM_P (SUBREG_REG (value)))
    8658                 :             :     {
    8659                 :         115 :       value
    8660                 :         115 :         = simplify_gen_subreg (GET_MODE (value),
    8661                 :         115 :                                force_reg (GET_MODE (SUBREG_REG (value)),
    8662                 :             :                                           force_operand (SUBREG_REG (value),
    8663                 :             :                                                          NULL_RTX)),
    8664                 :         115 :                                GET_MODE (SUBREG_REG (value)),
    8665                 :         115 :                                SUBREG_BYTE (value));
    8666                 :         115 :       code = GET_CODE (value);
    8667                 :             :     }
    8668                 :             : 
    8669                 :             :   /* Check for a PIC address load.  */
    8670                 :    29198699 :   if ((code == PLUS || code == MINUS)
    8671                 :     3447855 :       && XEXP (value, 0) == pic_offset_table_rtx
    8672                 :        1965 :       && (GET_CODE (XEXP (value, 1)) == SYMBOL_REF
    8673                 :        1965 :           || GET_CODE (XEXP (value, 1)) == LABEL_REF
    8674                 :        1965 :           || GET_CODE (XEXP (value, 1)) == CONST))
    8675                 :             :     {
    8676                 :         222 :       if (!subtarget)
    8677                 :         222 :         subtarget = gen_reg_rtx (GET_MODE (value));
    8678                 :         222 :       emit_move_insn (subtarget, value);
    8679                 :         222 :       return subtarget;
    8680                 :             :     }
    8681                 :             : 
    8682                 :    29198477 :   if (ARITHMETIC_P (value))
    8683                 :             :     {
    8684                 :     3559944 :       op2 = XEXP (value, 1);
    8685                 :     3559944 :       if (!CONSTANT_P (op2) && !(REG_P (op2) && op2 != subtarget))
    8686                 :     3559944 :         subtarget = 0;
    8687                 :     3559944 :       if (code == MINUS && CONST_INT_P (op2))
    8688                 :             :         {
    8689                 :           0 :           code = PLUS;
    8690                 :           0 :           op2 = negate_rtx (GET_MODE (value), op2);
    8691                 :             :         }
    8692                 :             : 
    8693                 :             :       /* Check for an addition with OP2 a constant integer and our first
    8694                 :             :          operand a PLUS of a virtual register and something else.  In that
    8695                 :             :          case, we want to emit the sum of the virtual register and the
    8696                 :             :          constant first and then add the other value.  This allows virtual
    8697                 :             :          register instantiation to simply modify the constant rather than
    8698                 :             :          creating another one around this addition.  */
    8699                 :     3381859 :       if (code == PLUS && CONST_INT_P (op2)
    8700                 :     3072917 :           && GET_CODE (XEXP (value, 0)) == PLUS
    8701                 :       79538 :           && REG_P (XEXP (XEXP (value, 0), 0))
    8702                 :     3585856 :           && VIRTUAL_REGISTER_P (XEXP (XEXP (value, 0), 0)))
    8703                 :             :         {
    8704                 :        1861 :           rtx temp = expand_simple_binop (GET_MODE (value), code,
    8705                 :             :                                           XEXP (XEXP (value, 0), 0), op2,
    8706                 :             :                                           subtarget, 0, OPTAB_LIB_WIDEN);
    8707                 :        1861 :           return expand_simple_binop (GET_MODE (value), code, temp,
    8708                 :        1861 :                                       force_operand (XEXP (XEXP (value,
    8709                 :             :                                                                  0), 1), 0),
    8710                 :        1861 :                                       target, 0, OPTAB_LIB_WIDEN);
    8711                 :             :         }
    8712                 :             : 
    8713                 :     3558083 :       op1 = force_operand (XEXP (value, 0), subtarget);
    8714                 :     3558083 :       op2 = force_operand (op2, NULL_RTX);
    8715                 :     3558083 :       switch (code)
    8716                 :             :         {
    8717                 :       91767 :         case MULT:
    8718                 :       91767 :           return expand_mult (GET_MODE (value), op1, op2, target, 1);
    8719                 :         234 :         case DIV:
    8720                 :         234 :           if (!INTEGRAL_MODE_P (GET_MODE (value)))
    8721                 :         234 :             return expand_simple_binop (GET_MODE (value), code, op1, op2,
    8722                 :         234 :                                         target, 1, OPTAB_LIB_WIDEN);
    8723                 :             :           else
    8724                 :           0 :             return expand_divmod (0,
    8725                 :             :                                   FLOAT_MODE_P (GET_MODE (value))
    8726                 :             :                                   ? RDIV_EXPR : TRUNC_DIV_EXPR,
    8727                 :           0 :                                   GET_MODE (value), op1, op2, target, 0);
    8728                 :           0 :         case MOD:
    8729                 :           0 :           return expand_divmod (1, TRUNC_MOD_EXPR, GET_MODE (value), op1, op2,
    8730                 :           0 :                                 target, 0);
    8731                 :         351 :         case UDIV:
    8732                 :         351 :           return expand_divmod (0, TRUNC_DIV_EXPR, GET_MODE (value), op1, op2,
    8733                 :         351 :                                 target, 1);
    8734                 :           0 :         case UMOD:
    8735                 :           0 :           return expand_divmod (1, TRUNC_MOD_EXPR, GET_MODE (value), op1, op2,
    8736                 :           0 :                                 target, 1);
    8737                 :         110 :         case ASHIFTRT:
    8738                 :         110 :           return expand_simple_binop (GET_MODE (value), code, op1, op2,
    8739                 :         110 :                                       target, 0, OPTAB_LIB_WIDEN);
    8740                 :     3465621 :         default:
    8741                 :     3465621 :           return expand_simple_binop (GET_MODE (value), code, op1, op2,
    8742                 :     3465621 :                                       target, 1, OPTAB_LIB_WIDEN);
    8743                 :             :         }
    8744                 :             :     }
    8745                 :    25638533 :   if (UNARY_P (value))
    8746                 :             :     {
    8747                 :       17015 :       if (!target)
    8748                 :        5612 :         target = gen_reg_rtx (GET_MODE (value));
    8749                 :       17015 :       op1 = force_operand (XEXP (value, 0), NULL_RTX);
    8750                 :       17015 :       switch (code)
    8751                 :             :         {
    8752                 :        4961 :         case ZERO_EXTEND:
    8753                 :        4961 :         case SIGN_EXTEND:
    8754                 :        4961 :         case TRUNCATE:
    8755                 :        4961 :         case FLOAT_EXTEND:
    8756                 :        4961 :         case FLOAT_TRUNCATE:
    8757                 :        4961 :           convert_move (target, op1, code == ZERO_EXTEND);
    8758                 :        4961 :           return target;
    8759                 :             : 
    8760                 :           8 :         case FIX:
    8761                 :           8 :         case UNSIGNED_FIX:
    8762                 :           8 :           expand_fix (target, op1, code == UNSIGNED_FIX);
    8763                 :           8 :           return target;
    8764                 :             : 
    8765                 :         120 :         case FLOAT:
    8766                 :         120 :         case UNSIGNED_FLOAT:
    8767                 :         120 :           expand_float (target, op1, code == UNSIGNED_FLOAT);
    8768                 :         120 :           return target;
    8769                 :             : 
    8770                 :       11926 :         default:
    8771                 :       11926 :           return expand_simple_unop (GET_MODE (value), code, op1, target, 0);
    8772                 :             :         }
    8773                 :             :     }
    8774                 :             : 
    8775                 :             : #ifdef INSN_SCHEDULING
    8776                 :             :   /* On machines that have insn scheduling, we want all memory reference to be
    8777                 :             :      explicit, so we need to deal with such paradoxical SUBREGs.  */
    8778                 :    25621518 :   if (paradoxical_subreg_p (value) && MEM_P (SUBREG_REG (value)))
    8779                 :           0 :     value
    8780                 :           0 :       = simplify_gen_subreg (GET_MODE (value),
    8781                 :           0 :                              force_reg (GET_MODE (SUBREG_REG (value)),
    8782                 :             :                                         force_operand (SUBREG_REG (value),
    8783                 :             :                                                        NULL_RTX)),
    8784                 :           0 :                              GET_MODE (SUBREG_REG (value)),
    8785                 :           0 :                              SUBREG_BYTE (value));
    8786                 :             : #endif
    8787                 :             : 
    8788                 :             :   return value;
    8789                 :             : }
    8790                 :             : 
    8791                 :             : /* Subroutine of expand_expr: return true iff there is no way that
    8792                 :             :    EXP can reference X, which is being modified.  TOP_P is nonzero if this
    8793                 :             :    call is going to be used to determine whether we need a temporary
    8794                 :             :    for EXP, as opposed to a recursive call to this function.
    8795                 :             : 
    8796                 :             :    It is always safe for this routine to return false since it merely
    8797                 :             :    searches for optimization opportunities.  */
    8798                 :             : 
    8799                 :             : bool
    8800                 :     7841059 : safe_from_p (const_rtx x, tree exp, int top_p)
    8801                 :             : {
    8802                 :     7841061 :   rtx exp_rtl = 0;
    8803                 :     7841061 :   int i, nops;
    8804                 :             : 
    8805                 :     7841061 :   if (x == 0
    8806                 :             :       /* If EXP has varying size, we MUST use a target since we currently
    8807                 :             :          have no way of allocating temporaries of variable size
    8808                 :             :          (except for arrays that have TYPE_ARRAY_MAX_SIZE set).
    8809                 :             :          So we assume here that something at a higher level has prevented a
    8810                 :             :          clash.  This is somewhat bogus, but the best we can do.  Only
    8811                 :             :          do this when X is BLKmode and when we are at the top level.  */
    8812                 :     1874596 :       || (top_p && TREE_TYPE (exp) != 0 && COMPLETE_TYPE_P (TREE_TYPE (exp))
    8813                 :     1749054 :           && TREE_CODE (TYPE_SIZE (TREE_TYPE (exp))) != INTEGER_CST
    8814                 :           0 :           && (TREE_CODE (TREE_TYPE (exp)) != ARRAY_TYPE
    8815                 :           0 :               || TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)) == NULL_TREE
    8816                 :           0 :               || TREE_CODE (TYPE_ARRAY_MAX_SIZE (TREE_TYPE (exp)))
    8817                 :             :               != INTEGER_CST)
    8818                 :           0 :           && GET_MODE (x) == BLKmode)
    8819                 :             :       /* If X is in the outgoing argument area, it is always safe.  */
    8820                 :     9715657 :       || (MEM_P (x)
    8821                 :      171130 :           && (XEXP (x, 0) == virtual_outgoing_args_rtx
    8822                 :      171130 :               || (GET_CODE (XEXP (x, 0)) == PLUS
    8823                 :      122948 :                   && XEXP (XEXP (x, 0), 0) == virtual_outgoing_args_rtx))))
    8824                 :             :     return true;
    8825                 :             : 
    8826                 :             :   /* If this is a subreg of a hard register, declare it unsafe, otherwise,
    8827                 :             :      find the underlying pseudo.  */
    8828                 :     1874596 :   if (GET_CODE (x) == SUBREG)
    8829                 :             :     {
    8830                 :           0 :       x = SUBREG_REG (x);
    8831                 :           0 :       if (REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER)
    8832                 :             :         return false;
    8833                 :             :     }
    8834                 :             : 
    8835                 :             :   /* Now look at our tree code and possibly recurse.  */
    8836                 :     1874596 :   switch (TREE_CODE_CLASS (TREE_CODE (exp)))
    8837                 :             :     {
    8838                 :         368 :     case tcc_declaration:
    8839                 :         368 :       exp_rtl = DECL_RTL_IF_SET (exp);
    8840                 :         198 :       break;
    8841                 :             : 
    8842                 :             :     case tcc_constant:
    8843                 :             :       return true;
    8844                 :             : 
    8845                 :      806586 :     case tcc_exceptional:
    8846                 :      806586 :       if (TREE_CODE (exp) == TREE_LIST)
    8847                 :             :         {
    8848                 :           0 :           while (1)
    8849                 :             :             {
    8850                 :           0 :               if (TREE_VALUE (exp) && !safe_from_p (x, TREE_VALUE (exp), 0))
    8851                 :             :                 return false;
    8852                 :           0 :               exp = TREE_CHAIN (exp);
    8853                 :           0 :               if (!exp)
    8854                 :             :                 return true;
    8855                 :           0 :               if (TREE_CODE (exp) != TREE_LIST)
    8856                 :             :                 return safe_from_p (x, exp, 0);
    8857                 :             :             }
    8858                 :             :         }
    8859                 :      806586 :       else if (TREE_CODE (exp) == CONSTRUCTOR)
    8860                 :             :         {
    8861                 :             :           constructor_elt *ce;
    8862                 :             :           unsigned HOST_WIDE_INT idx;
    8863                 :             : 
    8864                 :     7188191 :           FOR_EACH_VEC_SAFE_ELT (CONSTRUCTOR_ELTS (exp), idx, ce)
    8865                 :        3970 :             if ((ce->index != NULL_TREE && !safe_from_p (x, ce->index, 0))
    8866                 :      125456 :                 || !safe_from_p (x, ce->value, 0))
    8867                 :      101009 :               return false;
    8868                 :             :           return true;
    8869                 :             :         }
    8870                 :      674425 :       else if (TREE_CODE (exp) == ERROR_MARK)
    8871                 :             :         return true;    /* An already-visited SAVE_EXPR? */
    8872                 :             :       else
    8873                 :             :         return false;
    8874                 :             : 
    8875                 :           0 :     case tcc_statement:
    8876                 :             :       /* The only case we look at here is the DECL_INITIAL inside a
    8877                 :             :          DECL_EXPR.  */
    8878                 :           0 :       return (TREE_CODE (exp) != DECL_EXPR
    8879                 :           0 :               || TREE_CODE (DECL_EXPR_DECL (exp)) != VAR_DECL
    8880                 :           0 :               || !DECL_INITIAL (DECL_EXPR_DECL (exp))
    8881                 :           0 :               || safe_from_p (x, DECL_INITIAL (DECL_EXPR_DECL (exp)), 0));
    8882                 :             : 
    8883                 :           0 :     case tcc_binary:
    8884                 :           0 :     case tcc_comparison:
    8885                 :           0 :       if (!safe_from_p (x, TREE_OPERAND (exp, 1), 0))
    8886                 :             :         return false;
    8887                 :             :       /* Fall through.  */
    8888                 :             : 
    8889                 :           2 :     case tcc_unary:
    8890                 :           2 :       return safe_from_p (x, TREE_OPERAND (exp, 0), 0);
    8891                 :             : 
    8892                 :         199 :     case tcc_expression:
    8893                 :         199 :     case tcc_reference:
    8894                 :         199 :     case tcc_vl_exp:
    8895                 :             :       /* Now do code-specific tests.  EXP_RTL is set to any rtx we find in
    8896                 :             :          the expression.  If it is set, we conflict iff we are that rtx or
    8897                 :             :          both are in memory.  Otherwise, we check all operands of the
    8898                 :             :          expression recursively.  */
    8899                 :             : 
    8900                 :         199 :       switch (TREE_CODE (exp))
    8901                 :             :         {
    8902                 :         184 :         case ADDR_EXPR:
    8903                 :             :           /* If the operand is static or we are static, we can't conflict.
    8904                 :             :              Likewise if we don't conflict with the operand at all.  */
    8905                 :         184 :           if (staticp (TREE_OPERAND (exp, 0))
    8906                 :          54 :               || TREE_STATIC (exp)
    8907                 :         238 :               || safe_from_p (x, TREE_OPERAND (exp, 0), 0))
    8908                 :         184 :             return true;
    8909                 :             : 
    8910                 :             :           /* Otherwise, the only way this can conflict is if we are taking
    8911                 :             :              the address of a DECL a that address if part of X, which is
    8912                 :             :              very rare.  */
    8913                 :           0 :           exp = TREE_OPERAND (exp, 0);
    8914                 :           0 :           if (DECL_P (exp))
    8915                 :             :             {
    8916                 :           0 :               if (!DECL_RTL_SET_P (exp)
    8917                 :           0 :                   || !MEM_P (DECL_RTL (exp)))
    8918                 :           0 :                 return false;
    8919                 :             :               else
    8920                 :           0 :                 exp_rtl = XEXP (DECL_RTL (exp), 0);
    8921                 :             :             }
    8922                 :             :           break;
    8923                 :             : 
    8924                 :           0 :         case MEM_REF:
    8925                 :           0 :           if (MEM_P (x)
    8926                 :           0 :               && alias_sets_conflict_p (MEM_ALIAS_SET (x),
    8927                 :             :                                         get_alias_set (exp)))
    8928                 :             :             return false;
    8929                 :             :           break;
    8930                 :             : 
    8931                 :           0 :         case CALL_EXPR:
    8932                 :             :           /* Assume that the call will clobber all hard registers and
    8933                 :             :              all of memory.  */
    8934                 :           0 :           if ((REG_P (x) && REGNO (x) < FIRST_PSEUDO_REGISTER)
    8935                 :           0 :               || MEM_P (x))
    8936                 :             :             return false;
    8937                 :             :           break;
    8938                 :             : 
    8939                 :           0 :         case WITH_CLEANUP_EXPR:
    8940                 :           0 :         case CLEANUP_POINT_EXPR:
    8941                 :             :           /* Lowered by gimplify.cc.  */
    8942                 :           0 :           gcc_unreachable ();
    8943                 :             : 
    8944                 :           0 :         case SAVE_EXPR:
    8945                 :           0 :           return safe_from_p (x, TREE_OPERAND (exp, 0), 0);
    8946                 :             : 
    8947                 :             :         default:
    8948                 :             :           break;
    8949                 :             :         }
    8950                 :             : 
    8951                 :             :       /* If we have an rtx, we do not need to scan our operands.  */
    8952                 :           0 :       if (exp_rtl)
    8953                 :             :         break;
    8954                 :             : 
    8955                 :          15 :       nops = TREE_OPERAND_LENGTH (exp);
    8956                 :          79 :       for (i = 0; i < nops; i++)
    8957                 :          49 :         if (TREE_OPERAND (exp, i) != 0
    8958                 :          49 :             && ! safe_from_p (x, TREE_OPERAND (exp, i), 0))
    8959                 :             :           return false;
    8960                 :             : 
    8961                 :             :       break;
    8962                 :             : 
    8963                 :           0 :     case tcc_type:
    8964                 :             :       /* Should never get a type here.  */
    8965                 :           0 :       gcc_unreachable ();
    8966                 :             :     }
    8967                 :             : 
    8968                 :             :   /* If we have an rtl, find any enclosed object.  Then see if we conflict
    8969                 :             :      with it.  */
    8970                 :         213 :   if (exp_rtl)
    8971                 :             :     {
    8972                 :         198 :       if (GET_CODE (exp_rtl) == SUBREG)
    8973                 :             :         {
    8974                 :           0 :           exp_rtl = SUBREG_REG (exp_rtl);
    8975                 :           0 :           if (REG_P (exp_rtl)
    8976                 :           0 :               && REGNO (exp_rtl) < FIRST_PSEUDO_REGISTER)
    8977                 :             :             return false;
    8978                 :             :         }
    8979                 :             : 
    8980                 :             :       /* If the rtl is X, then it is not safe.  Otherwise, it is unless both
    8981                 :             :          are memory and they conflict.  */
    8982                 :         198 :       return ! (rtx_equal_p (x, exp_rtl)
    8983                 :         198 :                 || (MEM_P (x) && MEM_P (exp_rtl)
    8984                 :           2 :                     && true_dependence (exp_rtl, VOIDmode, x)));
    8985                 :             :     }
    8986                 :             : 
    8987                 :             :   /* If we reach here, it is safe.  */
    8988                 :             :   return true;
    8989                 :             : }
    8990                 :             : 
    8991                 :             : 
    8992                 :             : /* Return the highest power of two that EXP is known to be a multiple of.
    8993                 :             :    This is used in updating alignment of MEMs in array references.  */
    8994                 :             : 
    8995                 :             : unsigned HOST_WIDE_INT
    8996                 :    29987402 : highest_pow2_factor (const_tree exp)
    8997                 :             : {
    8998                 :    29987402 :   unsigned HOST_WIDE_INT ret;
    8999                 :    29987402 :   int trailing_zeros = tree_ctz (exp);
    9000                 :    29987402 :   if (trailing_zeros >= HOST_BITS_PER_WIDE_INT)
    9001                 :    40514221 :     return BIGGEST_ALIGNMENT;
    9002                 :     9406976 :   ret = HOST_WIDE_INT_1U << trailing_zeros;
    9003                 :    18370658 :   if (ret > BIGGEST_ALIGNMENT)
    9004                 :    12696827 :     return BIGGEST_ALIGNMENT;
    9005                 :             :   return ret;
    9006                 :             : }
    9007                 :             : 
    9008                 :             : /* Similar, except that the alignment requirements of TARGET are
    9009                 :             :    taken into account.  Assume it is at least as aligned as its
    9010                 :             :    type, unless it is a COMPONENT_REF in which case the layout of
    9011                 :             :    the structure gives the alignment.  */
    9012                 :             : 
    9013                 :             : static unsigned HOST_WIDE_INT
    9014                 :      173742 : highest_pow2_factor_for_target (const_tree target, const_tree exp)
    9015                 :             : {
    9016                 :      173742 :   unsigned HOST_WIDE_INT talign = target_align (target) / BITS_PER_UNIT;
    9017                 :      173742 :   unsigned HOST_WIDE_INT factor = highest_pow2_factor (exp);
    9018                 :             : 
    9019                 :      173742 :   return MAX (factor, talign);
    9020                 :             : }
    9021                 :             : 
    9022                 :             : /* Convert the tree comparison code TCODE to the rtl one where the
    9023                 :             :    signedness is UNSIGNEDP.  */
    9024                 :             : 
    9025                 :             : static enum rtx_code
    9026                 :       13562 : convert_tree_comp_to_rtx (enum tree_code tcode, int unsignedp)
    9027                 :             : {
    9028                 :       13562 :   enum rtx_code code;
    9029                 :       13562 :   switch (tcode)
    9030                 :             :     {
    9031                 :             :     case EQ_EXPR:
    9032                 :             :       code = EQ;
    9033                 :             :       break;
    9034                 :         721 :     case NE_EXPR:
    9035                 :         721 :       code = NE;
    9036                 :         721 :       break;
    9037                 :        3195 :     case LT_EXPR:
    9038                 :        3195 :       code = unsignedp ? LTU : LT;
    9039                 :             :       break;
    9040                 :        1413 :     case LE_EXPR:
    9041                 :        1413 :       code = unsignedp ? LEU : LE;
    9042                 :             :       break;
    9043                 :        1852 :     case GT_EXPR:
    9044                 :        1852 :       code = unsignedp ? GTU : GT;
    9045                 :             :       break;
    9046                 :        3494 :     case GE_EXPR:
    9047                 :        3494 :       code = unsignedp ? GEU : GE;
    9048                 :             :       break;
    9049                 :           4 :     case UNORDERED_EXPR:
    9050                 :           4 :       code = UNORDERED;
    9051                 :           4 :       break;
    9052                 :           0 :     case ORDERED_EXPR:
    9053                 :           0 :       code = ORDERED;
    9054                 :           0 :       break;
    9055                 :           0 :     case UNLT_EXPR:
    9056                 :           0 :       code = UNLT;
    9057                 :           0 :       break;
    9058                 :           0 :     case UNLE_EXPR:
    9059                 :           0 :       code = UNLE;
    9060                 :           0 :       break;
    9061                 :           0 :     case UNGT_EXPR:
    9062                 :           0 :       code = UNGT;
    9063                 :           0 :       break;
    9064                 :           0 :     case UNGE_EXPR:
    9065                 :           0 :       code = UNGE;
    9066                 :           0 :       break;
    9067                 :           0 :     case UNEQ_EXPR:
    9068                 :           0 :       code = UNEQ;
    9069                 :           0 :       break;
    9070                 :           0 :     case LTGT_EXPR:
    9071                 :           0 :       code = LTGT;
    9072                 :           0 :       break;
    9073                 :             : 
    9074                 :           0 :     default:
    9075                 :           0 :       gcc_unreachable ();
    9076                 :             :     }
    9077                 :       13562 :   return code;
    9078                 :             : }
    9079                 :             : 
    9080                 :             : /* Subroutine of expand_expr.  Expand the two operands of a binary
    9081                 :             :    expression EXP0 and EXP1 placing the results in OP0 and OP1.
    9082                 :             :    The value may be stored in TARGET if TARGET is nonzero.  The
    9083                 :             :    MODIFIER argument is as documented by expand_expr.  */
    9084                 :             : 
    9085                 :             : void
    9086                 :     7305335 : expand_operands (tree exp0, tree exp1, rtx target, rtx *op0, rtx *op1,
    9087                 :             :                  enum expand_modifier modifier)
    9088                 :             : {
    9089                 :     7305335 :   if (! safe_from_p (target, exp1, 1))
    9090                 :      556946 :     target = 0;
    9091                 :     7305335 :   if (operand_equal_p (exp0, exp1, 0))
    9092                 :             :     {
    9093                 :       31076 :       *op0 = expand_expr (exp0, target, VOIDmode, modifier);
    9094                 :       31076 :       *op1 = copy_rtx (*op0);
    9095                 :             :     }
    9096                 :             :   else
    9097                 :             :     {
    9098                 :     7274259 :       *op0 = expand_expr (exp0, target, VOIDmode, modifier);
    9099                 :     7274259 :       *op1 = expand_expr (exp1, NULL_RTX, VOIDmode, modifier);
    9100                 :             :     }
    9101                 :     7305335 : }
    9102                 :             : 
    9103                 :             : 
    9104                 :             : /* Return a MEM that contains constant EXP.  DEFER is as for
    9105                 :             :    output_constant_def and MODIFIER is as for expand_expr.  */
    9106                 :             : 
    9107                 :             : static rtx
    9108                 :     2729176 : expand_expr_constant (tree exp, int defer, enum expand_modifier modifier)
    9109                 :             : {
    9110                 :     2729176 :   rtx mem;
    9111                 :             : 
    9112                 :     2729176 :   mem = output_constant_def (exp, defer);
    9113                 :     2729176 :   if (modifier != EXPAND_INITIALIZER)
    9114                 :     1719022 :     mem = use_anchored_address (mem);
    9115                 :     2729176 :   return mem;
    9116                 :             : }
    9117                 :             : 
    9118                 :             : /* A subroutine of expand_expr_addr_expr.  Evaluate the address of EXP.
    9119                 :             :    The TARGET, TMODE and MODIFIER arguments are as for expand_expr.  */
    9120                 :             : 
    9121                 :             : static rtx
    9122                 :    13526373 : expand_expr_addr_expr_1 (tree exp, rtx target, scalar_int_mode tmode,
    9123                 :             :                          enum expand_modifier modifier, addr_space_t as)
    9124                 :             : {
    9125                 :    13526373 :   rtx result, subtarget;
    9126                 :    13526373 :   tree inner, offset;
    9127                 :    13526373 :   poly_int64 bitsize, bitpos;
    9128                 :    13526373 :   int unsignedp, reversep, volatilep = 0;
    9129                 :    13526373 :   machine_mode mode1;
    9130                 :             : 
    9131                 :             :   /* If we are taking the address of a constant and are at the top level,
    9132                 :             :      we have to use output_constant_def since we can't call force_const_mem
    9133                 :             :      at top level.  */
    9134                 :             :   /* ??? This should be considered a front-end bug.  We should not be
    9135                 :             :      generating ADDR_EXPR of something that isn't an LVALUE.  The only
    9136                 :             :      exception here is STRING_CST.  */
    9137                 :    13526373 :   if (CONSTANT_CLASS_P (exp))
    9138                 :             :     {
    9139                 :     2514339 :       result = XEXP (expand_expr_constant (exp, 0, modifier), 0);
    9140                 :     2514339 :       if (modifier < EXPAND_SUM)
    9141                 :     1632648 :         result = force_operand (result, target);
    9142                 :     2514339 :       return result;
    9143                 :             :     }
    9144                 :             : 
    9145                 :             :   /* Everything must be something allowed by is_gimple_addressable.  */
    9146                 :    11012034 :   switch (TREE_CODE (exp))
    9147                 :             :     {
    9148                 :          36 :     case INDIRECT_REF:
    9149                 :             :       /* This case will happen via recursion for &a->b.  */
    9150                 :          36 :       return expand_expr (TREE_OPERAND (exp, 0), target, tmode, modifier);
    9151                 :             : 
    9152                 :      552203 :     case MEM_REF:
    9153                 :      552203 :       {
    9154                 :      552203 :         tree tem = TREE_OPERAND (exp, 0);
    9155                 :      552203 :         if (!integer_zerop (TREE_OPERAND (exp, 1)))
    9156                 :      289481 :           tem = fold_build_pointer_plus (tem, TREE_OPERAND (exp, 1));
    9157                 :      552203 :         return expand_expr (tem, target, tmode, modifier);
    9158                 :             :       }
    9159                 :             : 
    9160                 :        1108 :     case TARGET_MEM_REF:
    9161                 :        1108 :       return addr_for_mem_ref (exp, as, true);
    9162                 :             : 
    9163                 :       59441 :     case CONST_DECL:
    9164                 :             :       /* Expand the initializer like constants above.  */
    9165                 :       59441 :       result = XEXP (expand_expr_constant (DECL_INITIAL (exp),
    9166                 :             :                                            0, modifier), 0);
    9167                 :       59441 :       if (modifier < EXPAND_SUM)
    9168                 :       59435 :         result = force_operand (result, target);
    9169                 :             :       return result;
    9170                 :             : 
    9171                 :         139 :     case REALPART_EXPR:
    9172                 :             :       /* The real part of the complex number is always first, therefore
    9173                 :             :          the address is the same as the address of the parent object.  */
    9174                 :         139 :       offset = 0;
    9175                 :         139 :       bitpos = 0;
    9176                 :         139 :       inner = TREE_OPERAND (exp, 0);
    9177                 :         139 :       break;
    9178                 :             : 
    9179                 :          52 :     case IMAGPART_EXPR:
    9180                 :             :       /* The imaginary part of the complex number is always second.
    9181                 :             :          The expression is therefore always offset by the size of the
    9182                 :             :          scalar type.  */
    9183                 :          52 :       offset = 0;
    9184                 :         104 :       bitpos = GET_MODE_BITSIZE (SCALAR_TYPE_MODE (TREE_TYPE (exp)));
    9185                 :          52 :       inner = TREE_OPERAND (exp, 0);
    9186                 :          52 :       break;
    9187                 :             : 
    9188                 :          13 :     case COMPOUND_LITERAL_EXPR:
    9189                 :             :       /* Allow COMPOUND_LITERAL_EXPR in initializers or coming from
    9190                 :             :          initializers, if e.g. rtl_for_decl_init is called on DECL_INITIAL
    9191                 :             :          with COMPOUND_LITERAL_EXPRs in it, or ARRAY_REF on a const static
    9192                 :             :          array with address of COMPOUND_LITERAL_EXPR in DECL_INITIAL;
    9193                 :             :          the initializers aren't gimplified.  */
    9194                 :          13 :       if (COMPOUND_LITERAL_EXPR_DECL (exp)
    9195                 :          13 :           && is_global_var (COMPOUND_LITERAL_EXPR_DECL (exp)))
    9196                 :          13 :         return expand_expr_addr_expr_1 (COMPOUND_LITERAL_EXPR_DECL (exp),
    9197                 :          13 :                                         target, tmode, modifier, as);
    9198                 :             :       /* FALLTHRU */
    9199                 :    10399042 :     default:
    9200                 :             :       /* If the object is a DECL, then expand it for its rtl.  Don't bypass
    9201                 :             :          expand_expr, as that can have various side effects; LABEL_DECLs for
    9202                 :             :          example, may not have their DECL_RTL set yet.  Expand the rtl of
    9203                 :             :          CONSTRUCTORs too, which should yield a memory reference for the
    9204                 :             :          constructor's contents.  Assume language specific tree nodes can
    9205                 :             :          be expanded in some interesting way.  */
    9206                 :    10399042 :       gcc_assert (TREE_CODE (exp) < LAST_AND_UNUSED_TREE_CODE);
    9207                 :    10399042 :       if (DECL_P (exp)
    9208                 :     1233442 :           || TREE_CODE (exp) == CONSTRUCTOR
    9209                 :     1233442 :           || TREE_CODE (exp) == COMPOUND_LITERAL_EXPR)
    9210                 :             :         {
    9211                 :    14849780 :           result = expand_expr (exp, target, tmode,
    9212                 :             :                                 modifier == EXPAND_INITIALIZER
    9213                 :             :                                 ? EXPAND_INITIALIZER : EXPAND_CONST_ADDRESS);
    9214                 :             : 
    9215                 :             :           /* If the DECL isn't in memory, then the DECL wasn't properly
    9216                 :             :              marked TREE_ADDRESSABLE, which will be either a front-end
    9217                 :             :              or a tree optimizer bug.  */
    9218                 :             : 
    9219                 :     9165600 :           gcc_assert (MEM_P (result));
    9220                 :     9165600 :           result = XEXP (result, 0);
    9221                 :             : 
    9222                 :             :           /* ??? Is this needed anymore?  */
    9223                 :     9165600 :           if (DECL_P (exp))
    9224                 :     9165600 :             TREE_USED (exp) = 1;
    9225                 :             : 
    9226                 :     9165600 :           if (modifier != EXPAND_INITIALIZER
    9227                 :             :               && modifier != EXPAND_CONST_ADDRESS
    9228                 :     9165600 :               && modifier != EXPAND_SUM)
    9229                 :     4025141 :             result = force_operand (result, target);
    9230                 :     9165600 :           return result;
    9231                 :             :         }
    9232                 :             : 
    9233                 :             :       /* Pass FALSE as the last argument to get_inner_reference although
    9234                 :             :          we are expanding to RTL.  The rationale is that we know how to
    9235                 :             :          handle "aligning nodes" here: we can just bypass them because
    9236                 :             :          they won't change the final object whose address will be returned
    9237                 :             :          (they actually exist only for that purpose).  */
    9238                 :     1233442 :       inner = get_inner_reference (exp, &bitsize, &bitpos, &offset, &mode1,
    9239                 :             :                                    &unsignedp, &reversep, &volatilep);
    9240                 :     1233442 :       break;
    9241                 :             :     }
    9242                 :             : 
    9243                 :             :   /* We must have made progress.  */
    9244                 :     1233633 :   gcc_assert (inner != exp);
    9245                 :             : 
    9246                 :     1233633 :   subtarget = offset || maybe_ne (bitpos, 0) ? NULL_RTX : target;
    9247                 :             :   /* For VIEW_CONVERT_EXPR, where the outer alignment is bigger than
    9248                 :             :      inner alignment, force the inner to be sufficiently aligned.  */
    9249                 :     1233633 :   if (CONSTANT_CLASS_P (inner)
    9250                 :     1233633 :       && TYPE_ALIGN (TREE_TYPE (inner)) < TYPE_ALIGN (TREE_TYPE (exp)))
    9251                 :             :     {
    9252                 :           0 :       inner = copy_node (inner);
    9253                 :           0 :       TREE_TYPE (inner) = copy_node (TREE_TYPE (inner));
    9254                 :           0 :       SET_TYPE_ALIGN (TREE_TYPE (inner), TYPE_ALIGN (TREE_TYPE (exp)));
    9255                 :           0 :       TYPE_USER_ALIGN (TREE_TYPE (inner)) = 1;
    9256                 :             :     }
    9257                 :     1233633 :   result = expand_expr_addr_expr_1 (inner, subtarget, tmode, modifier, as);
    9258                 :             : 
    9259                 :     1233633 :   if (offset)
    9260                 :             :     {
    9261                 :       43935 :       rtx tmp;
    9262                 :             : 
    9263                 :       43935 :       if (modifier != EXPAND_NORMAL)
    9264                 :        1952 :         result = force_operand (result, NULL);
    9265                 :       45887 :       tmp = expand_expr (offset, NULL_RTX, tmode,
    9266                 :             :                          modifier == EXPAND_INITIALIZER
    9267                 :             :                           ? EXPAND_INITIALIZER : EXPAND_NORMAL);
    9268                 :             : 
    9269                 :             :       /* expand_expr is allowed to return an object in a mode other
    9270                 :             :          than TMODE.  If it did, we need to convert.  */
    9271                 :       43935 :       if (GET_MODE (tmp) != VOIDmode && tmode != GET_MODE (tmp))
    9272                 :           0 :         tmp = convert_modes (tmode, GET_MODE (tmp),
    9273                 :           0 :                              tmp, TYPE_UNSIGNED (TREE_TYPE (offset)));
    9274                 :       43935 :       result = convert_memory_address_addr_space (tmode, result, as);
    9275                 :       43935 :       tmp = convert_memory_address_addr_space (tmode, tmp, as);
    9276                 :             : 
    9277                 :       43935 :       if (modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
    9278                 :        1952 :         result = simplify_gen_binary (PLUS, tmode, result, tmp);
    9279                 :             :       else
    9280                 :             :         {
    9281                 :       41983 :           subtarget = maybe_ne (bitpos, 0) ? NULL_RTX : target;
    9282                 :       41983 :           result = expand_simple_binop (tmode, PLUS, result, tmp, subtarget,
    9283                 :             :                                         1, OPTAB_LIB_WIDEN);
    9284                 :             :         }
    9285                 :             :     }
    9286                 :             : 
    9287                 :     1233633 :   if (maybe_ne (bitpos, 0))
    9288                 :             :     {
    9289                 :             :       /* Someone beforehand should have rejected taking the address
    9290                 :             :          of an object that isn't byte-aligned.  */
    9291                 :      605060 :       poly_int64 bytepos = exact_div (bitpos, BITS_PER_UNIT);
    9292                 :      605060 :       result = convert_memory_address_addr_space (tmode, result, as);
    9293                 :      605060 :       result = plus_constant (tmode, result, bytepos);
    9294                 :      605060 :       if (modifier < EXPAND_SUM)
    9295                 :      570780 :         result = force_operand (result, target);
    9296                 :             :     }
    9297                 :             : 
    9298                 :             :   return result;
    9299                 :             : }
    9300                 :             : 
    9301                 :             : /* A subroutine of expand_expr.  Evaluate EXP, which is an ADDR_EXPR.
    9302                 :             :    The TARGET, TMODE and MODIFIER arguments are as for expand_expr.  */
    9303                 :             : 
    9304                 :             : static rtx
    9305                 :    12292725 : expand_expr_addr_expr (tree exp, rtx target, machine_mode tmode,
    9306                 :             :                        enum expand_modifier modifier)
    9307                 :             : {
    9308                 :    12292725 :   addr_space_t as = ADDR_SPACE_GENERIC;
    9309                 :    12292725 :   scalar_int_mode address_mode = Pmode;
    9310                 :    12292725 :   scalar_int_mode pointer_mode = ptr_mode;
    9311                 :    12292725 :   machine_mode rmode;
    9312                 :    12292725 :   rtx result;
    9313                 :             : 
    9314                 :             :   /* Target mode of VOIDmode says "whatever's natural".  */
    9315                 :    12292725 :   if (tmode == VOIDmode)
    9316                 :    10466879 :     tmode = TYPE_MODE (TREE_TYPE (exp));
    9317                 :             : 
    9318                 :    12292725 :   if (POINTER_TYPE_P (TREE_TYPE (exp)))
    9319                 :             :     {
    9320                 :    12292725 :       as = TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (exp)));
    9321                 :    12292725 :       address_mode = targetm.addr_space.address_mode (as);
    9322                 :    12292725 :       pointer_mode = targetm.addr_space.pointer_mode (as);
    9323                 :             :     }
    9324                 :             : 
    9325                 :             :   /* We can get called with some Weird Things if the user does silliness
    9326                 :             :      like "(short) &a".  In that case, convert_memory_address won't do
    9327                 :             :      the right thing, so ignore the given target mode.  */
    9328                 :    12292725 :   scalar_int_mode new_tmode = (tmode == pointer_mode
    9329                 :    12292725 :                                ? pointer_mode
    9330                 :    12292725 :                                : address_mode);
    9331                 :             : 
    9332                 :    12292725 :   result = expand_expr_addr_expr_1 (TREE_OPERAND (exp, 0), target,
    9333                 :             :                                     new_tmode, modifier, as);
    9334                 :             : 
    9335                 :             :   /* Despite expand_expr claims concerning ignoring TMODE when not
    9336                 :             :      strictly convenient, stuff breaks if we don't honor it.  Note
    9337                 :             :      that combined with the above, we only do this for pointer modes.  */
    9338                 :    12292725 :   rmode = GET_MODE (result);
    9339                 :    12292725 :   if (rmode == VOIDmode)
    9340                 :           6 :     rmode = new_tmode;
    9341                 :    12292725 :   if (rmode != new_tmode)
    9342                 :          75 :     result = convert_memory_address_addr_space (new_tmode, result, as);
    9343                 :             : 
    9344                 :    12292725 :   return result;
    9345                 :             : }
    9346                 :             : 
    9347                 :             : /* Generate code for computing CONSTRUCTOR EXP.
    9348                 :             :    An rtx for the computed value is returned.  If AVOID_TEMP_MEM
    9349                 :             :    is TRUE, instead of creating a temporary variable in memory
    9350                 :             :    NULL is returned and the caller needs to handle it differently.  */
    9351                 :             : 
    9352                 :             : static rtx
    9353                 :      180565 : expand_constructor (tree exp, rtx target, enum expand_modifier modifier,
    9354                 :             :                     bool avoid_temp_mem)
    9355                 :             : {
    9356                 :      180565 :   tree type = TREE_TYPE (exp);
    9357                 :      180565 :   machine_mode mode = TYPE_MODE (type);
    9358                 :             : 
    9359                 :             :   /* Try to avoid creating a temporary at all.  This is possible
    9360                 :             :      if all of the initializer is zero.
    9361                 :             :      FIXME: try to handle all [0..255] initializers we can handle
    9362                 :             :      with memset.  */
    9363                 :      180565 :   if (TREE_STATIC (exp)
    9364                 :      180565 :       && !TREE_ADDRESSABLE (exp)
    9365                 :        3640 :       && target != 0 && mode == BLKmode
    9366                 :      183292 :       && all_zeros_p (exp))
    9367                 :             :     {
    9368                 :        2722 :       clear_storage (target, expr_size (exp), BLOCK_OP_NORMAL);
    9369                 :        2722 :       return target;
    9370                 :             :     }
    9371                 :             : 
    9372                 :             :   /* All elts simple constants => refer to a constant in memory.  But
    9373                 :             :      if this is a non-BLKmode mode, let it store a field at a time
    9374                 :             :      since that should make a CONST_INT, CONST_WIDE_INT or
    9375                 :             :      CONST_DOUBLE when we fold.  Likewise, if we have a target we can
    9376                 :             :      use, it is best to store directly into the target unless the type
    9377                 :             :      is large enough that memcpy will be used.  If we are making an
    9378                 :             :      initializer and all operands are constant, put it in memory as
    9379                 :             :      well.
    9380                 :             : 
    9381                 :             :      FIXME: Avoid trying to fill vector constructors piece-meal.
    9382                 :             :      Output them with output_constant_def below unless we're sure
    9383                 :             :      they're zeros.  This should go away when vector initializers
    9384                 :             :      are treated like VECTOR_CST instead of arrays.  */
    9385                 :      177843 :   if ((TREE_STATIC (exp)
    9386                 :         918 :        && ((mode == BLKmode
    9387                 :          50 :             && ! (target != 0 && safe_from_p (target, exp, 1)))
    9388                 :         873 :            || TREE_ADDRESSABLE (exp)
    9389                 :         873 :            || (tree_fits_uhwi_p (TYPE_SIZE_UNIT (type))
    9390                 :         873 :                && (! can_move_by_pieces
    9391                 :         873 :                    (tree_to_uhwi (TYPE_SIZE_UNIT (type)),
    9392                 :         873 :                     TYPE_ALIGN (type)))
    9393                 :           2 :                && ! mostly_zeros_p (exp))))
    9394                 :      178714 :       || ((modifier == EXPAND_INITIALIZER || modifier == EXPAND_CONST_ADDRESS)
    9395                 :           0 :           && TREE_CONSTANT (exp)))
    9396                 :             :     {
    9397                 :          47 :       rtx constructor;
    9398                 :             : 
    9399                 :          47 :       if (avoid_temp_mem)
    9400                 :             :         return NULL_RTX;
    9401                 :             : 
    9402                 :          45 :       constructor = expand_expr_constant (exp, 1, modifier);
    9403                 :             : 
    9404                 :          45 :       if (modifier != EXPAND_CONST_ADDRESS
    9405                 :             :           && modifier != EXPAND_INITIALIZER
    9406                 :          45 :           && modifier != EXPAND_SUM)
    9407                 :          45 :         constructor = validize_mem (constructor);
    9408                 :             : 
    9409                 :          45 :       return constructor;
    9410                 :             :     }
    9411                 :             : 
    9412                 :             :   /* If the CTOR is available in static storage and not mostly
    9413                 :             :      zeros and we can move it by pieces prefer to do so since
    9414                 :             :      that's usually more efficient than performing a series of
    9415                 :             :      stores from immediates.  */
    9416                 :      177796 :   if (avoid_temp_mem
    9417                 :          64 :       && TREE_STATIC (exp)
    9418                 :          36 :       && TREE_CONSTANT (exp)
    9419                 :          36 :       && tree_fits_uhwi_p (TYPE_SIZE_UNIT (type))
    9420                 :          36 :       && can_move_by_pieces (tree_to_uhwi (TYPE_SIZE_UNIT (type)),
    9421                 :          36 :                              TYPE_ALIGN (type))
    9422                 :      177832 :       && ! mostly_zeros_p (exp))
    9423                 :             :     return NULL_RTX;
    9424                 :             : 
    9425                 :             :   /* Handle calls that pass values in multiple non-contiguous
    9426                 :             :      locations.  The Irix 6 ABI has examples of this.  */
    9427                 :      132138 :   if (target == 0 || ! safe_from_p (target, exp, 1)
    9428                 :       31129 :       || GET_CODE (target) == PARALLEL || modifier == EXPAND_STACK_PARM
    9429                 :             :       /* Also make a temporary if the store is to volatile memory, to
    9430                 :             :          avoid individual accesses to aggregate members.  */
    9431                 :      208885 :       || (GET_CODE (target) == MEM
    9432                 :       27846 :           && MEM_VOLATILE_P (target)
    9433                 :         132 :           && !TREE_ADDRESSABLE (TREE_TYPE (exp))))
    9434                 :             :     {
    9435                 :      146773 :       if (avoid_temp_mem)
    9436                 :             :         return NULL_RTX;
    9437                 :             : 
    9438                 :      146762 :       target = assign_temp (type, TREE_ADDRESSABLE (exp), 1);
    9439                 :             :     }
    9440                 :             : 
    9441                 :      177755 :   store_constructor (exp, target, 0, int_expr_size (exp), false);
    9442                 :      177755 :   return target;
    9443                 :             : }
    9444                 :             : 
    9445                 :             : 
    9446                 :             : /* expand_expr: generate code for computing expression EXP.
    9447                 :             :    An rtx for the computed value is returned.  The value is never null.
    9448                 :             :    In the case of a void EXP, const0_rtx is returned.
    9449                 :             : 
    9450                 :             :    The value may be stored in TARGET if TARGET is nonzero.
    9451                 :             :    TARGET is just a suggestion; callers must assume that
    9452                 :             :    the rtx returned may not be the same as TARGET.
    9453                 :             : 
    9454                 :             :    If TARGET is CONST0_RTX, it means that the value will be ignored.
    9455                 :             : 
    9456                 :             :    If TMODE is not VOIDmode, it suggests generating the
    9457                 :             :    result in mode TMODE.  But this is done only when convenient.
    9458                 :             :    Otherwise, TMODE is ignored and the value generated in its natural mode.
    9459                 :             :    TMODE is just a suggestion; callers must assume that
    9460                 :             :    the rtx returned may not have mode TMODE.
    9461                 :             : 
    9462                 :             :    Note that TARGET may have neither TMODE nor MODE.  In that case, it
    9463                 :             :    probably will not be used.
    9464                 :             : 
    9465                 :             :    If MODIFIER is EXPAND_SUM then when EXP is an addition
    9466                 :             :    we can return an rtx of the form (MULT (REG ...) (CONST_INT ...))
    9467                 :             :    or a nest of (PLUS ...) and (MINUS ...) where the terms are
    9468                 :             :    products as above, or REG or MEM, or constant.
    9469                 :             :    Ordinarily in such cases we would output mul or add instructions
    9470                 :             :    and then return a pseudo reg containing the sum.
    9471                 :             : 
    9472                 :             :    EXPAND_INITIALIZER is much like EXPAND_SUM except that
    9473                 :             :    it also marks a label as absolutely required (it can't be dead).
    9474                 :             :    It also makes a ZERO_EXTEND or SIGN_EXTEND instead of emitting extend insns.
    9475                 :             :    This is used for outputting expressions used in initializers.
    9476                 :             : 
    9477                 :             :    EXPAND_CONST_ADDRESS says that it is okay to return a MEM
    9478                 :             :    with a constant address even if that address is not normally legitimate.
    9479                 :             :    EXPAND_INITIALIZER and EXPAND_SUM also have this effect.
    9480                 :             : 
    9481                 :             :    EXPAND_STACK_PARM is used when expanding to a TARGET on the stack for
    9482                 :             :    a call parameter.  Such targets require special care as we haven't yet
    9483                 :             :    marked TARGET so that it's safe from being trashed by libcalls.  We
    9484                 :             :    don't want to use TARGET for anything but the final result;
    9485                 :             :    Intermediate values must go elsewhere.   Additionally, calls to
    9486                 :             :    emit_block_move will be flagged with BLOCK_OP_CALL_PARM.
    9487                 :             : 
    9488                 :             :    If EXP is a VAR_DECL whose DECL_RTL was a MEM with an invalid
    9489                 :             :    address, and ALT_RTL is non-NULL, then *ALT_RTL is set to the
    9490                 :             :    DECL_RTL of the VAR_DECL.  *ALT_RTL is also set if EXP is a
    9491                 :             :    COMPOUND_EXPR whose second argument is such a VAR_DECL, and so on
    9492                 :             :    recursively.
    9493                 :             :    If the result can be stored at TARGET, and ALT_RTL is non-NULL,
    9494                 :             :    then *ALT_RTL is set to TARGET (before legitimziation).
    9495                 :             : 
    9496                 :             :    If INNER_REFERENCE_P is true, we are expanding an inner reference.
    9497                 :             :    In this case, we don't adjust a returned MEM rtx that wouldn't be
    9498                 :             :    sufficiently aligned for its mode; instead, it's up to the caller
    9499                 :             :    to deal with it afterwards.  This is used to make sure that unaligned
    9500                 :             :    base objects for which out-of-bounds accesses are supported, for
    9501                 :             :    example record types with trailing arrays, aren't realigned behind
    9502                 :             :    the back of the caller.
    9503                 :             :    The normal operating mode is to pass FALSE for this parameter.  */
    9504                 :             : 
    9505                 :             : rtx
    9506                 :   145814389 : expand_expr_real (tree exp, rtx target, machine_mode tmode,
    9507                 :             :                   enum expand_modifier modifier, rtx *alt_rtl,
    9508                 :             :                   bool inner_reference_p)
    9509                 :             : {
    9510                 :   145814389 :   rtx ret;
    9511                 :             : 
    9512                 :             :   /* Handle ERROR_MARK before anybody tries to access its type.  */
    9513                 :   145814389 :   if (TREE_CODE (exp) == ERROR_MARK
    9514                 :   145814389 :       || (TREE_CODE (TREE_TYPE (exp)) == ERROR_MARK))
    9515                 :             :     {
    9516                 :           0 :       ret = CONST0_RTX (tmode);
    9517                 :           0 :       return ret ? ret : const0_rtx;
    9518                 :             :     }
    9519                 :             : 
    9520                 :   145814389 :   ret = expand_expr_real_1 (exp, target, tmode, modifier, alt_rtl,
    9521                 :             :                             inner_reference_p);
    9522                 :   145814389 :   return ret;
    9523                 :             : }
    9524                 :             : 
    9525                 :             : /* Try to expand the conditional expression which is represented by
    9526                 :             :    TREEOP0 ? TREEOP1 : TREEOP2 using conditonal moves.  If it succeeds
    9527                 :             :    return the rtl reg which represents the result.  Otherwise return
    9528                 :             :    NULL_RTX.  */
    9529                 :             : 
    9530                 :             : static rtx
    9531                 :       16915 : expand_cond_expr_using_cmove (tree treeop0 ATTRIBUTE_UNUSED,
    9532                 :             :                               tree treeop1 ATTRIBUTE_UNUSED,
    9533                 :             :                               tree treeop2 ATTRIBUTE_UNUSED)
    9534                 :             : {
    9535                 :       16915 :   rtx insn;
    9536                 :       16915 :   rtx op00, op01, op1, op2;
    9537                 :       16915 :   enum rtx_code comparison_code;
    9538                 :       16915 :   machine_mode comparison_mode;
    9539                 :       16915 :   gimple *srcstmt;
    9540                 :       16915 :   rtx temp;
    9541                 :       16915 :   tree type = TREE_TYPE (treeop1);
    9542                 :       16915 :   int unsignedp = TYPE_UNSIGNED (type);
    9543                 :       16915 :   machine_mode mode = TYPE_MODE (type);
    9544                 :       16915 :   machine_mode orig_mode = mode;
    9545                 :       16915 :   static bool expanding_cond_expr_using_cmove = false;
    9546                 :             : 
    9547                 :             :   /* Conditional move expansion can end up TERing two operands which,
    9548                 :             :      when recursively hitting conditional expressions can result in
    9549                 :             :      exponential behavior if the cmove expansion ultimatively fails.
    9550                 :             :      It's hardly profitable to TER a cmove into a cmove so avoid doing
    9551                 :             :      that by failing early if we end up recursing.  */
    9552                 :       16915 :   if (expanding_cond_expr_using_cmove)
    9553                 :             :     return NULL_RTX;
    9554                 :             : 
    9555                 :             :   /* If we cannot do a conditional move on the mode, try doing it
    9556                 :             :      with the promoted mode. */
    9557                 :       15958 :   if (!can_conditionally_move_p (mode))
    9558                 :             :     {
    9559                 :         145 :       mode = promote_mode (type, mode, &unsignedp);
    9560                 :         145 :       if (!can_conditionally_move_p (mode))
    9561                 :             :         return NULL_RTX;
    9562                 :           0 :       temp = assign_temp (type, 0, 0); /* Use promoted mode for temp.  */
    9563                 :             :     }
    9564                 :             :   else
    9565                 :       15813 :     temp = assign_temp (type, 0, 1);
    9566                 :             : 
    9567                 :       15813 :   expanding_cond_expr_using_cmove = true;
    9568                 :       15813 :   start_sequence ();
    9569                 :       15813 :   expand_operands (treeop1, treeop2,
    9570                 :             :                    mode == orig_mode ? temp : NULL_RTX, &op1, &op2,
    9571                 :             :                    EXPAND_NORMAL);
    9572                 :             : 
    9573                 :       15813 :   if (TREE_CODE (treeop0) == SSA_NAME
    9574                 :       15784 :       && (srcstmt = get_def_for_expr_class (treeop0, tcc_comparison))
    9575                 :       29349 :       && !VECTOR_TYPE_P (TREE_TYPE (gimple_assign_rhs1 (srcstmt))))
    9576                 :             :     {
    9577                 :       13533 :       type = TREE_TYPE (gimple_assign_rhs1 (srcstmt));
    9578                 :       13533 :       enum tree_code cmpcode = gimple_assign_rhs_code (srcstmt);
    9579                 :       13533 :       op00 = expand_normal (gimple_assign_rhs1 (srcstmt));
    9580                 :       13533 :       op01 = expand_normal (gimple_assign_rhs2 (srcstmt));
    9581                 :       13533 :       comparison_mode = TYPE_MODE (type);
    9582                 :       13533 :       unsignedp = TYPE_UNSIGNED (type);
    9583                 :       13533 :       comparison_code = convert_tree_comp_to_rtx (cmpcode, unsignedp);
    9584                 :             :     }
    9585                 :        2280 :   else if (COMPARISON_CLASS_P (treeop0)
    9586                 :        2280 :            && !VECTOR_TYPE_P (TREE_TYPE (TREE_OPERAND (treeop0, 0))))
    9587                 :             :     {
    9588                 :          29 :       type = TREE_TYPE (TREE_OPERAND (treeop0, 0));
    9589                 :          29 :       enum tree_code cmpcode = TREE_CODE (treeop0);
    9590                 :          29 :       op00 = expand_normal (TREE_OPERAND (treeop0, 0));
    9591                 :          29 :       op01 = expand_normal (TREE_OPERAND (treeop0, 1));
    9592                 :          29 :       unsignedp = TYPE_UNSIGNED (type);
    9593                 :          29 :       comparison_mode = TYPE_MODE (type);
    9594                 :          29 :       comparison_code = convert_tree_comp_to_rtx (cmpcode, unsignedp);
    9595                 :             :     }
    9596                 :             :   else
    9597                 :             :     {
    9598                 :        2251 :       op00 = expand_normal (treeop0);
    9599                 :        2251 :       op01 = const0_rtx;
    9600                 :        2251 :       comparison_code = NE;
    9601                 :        2251 :       comparison_mode = GET_MODE (op00);
    9602                 :        2251 :       if (comparison_mode == VOIDmode)
    9603                 :           0 :         comparison_mode = TYPE_MODE (TREE_TYPE (treeop0));
    9604                 :             :     }
    9605                 :       15813 :   expanding_cond_expr_using_cmove = false;
    9606                 :             : 
    9607                 :       15813 :   if (GET_MODE (op1) != mode)
    9608                 :        1997 :     op1 = gen_lowpart (mode, op1);
    9609                 :             : 
    9610                 :       15813 :   if (GET_MODE (op2) != mode)
    9611                 :        8635 :     op2 = gen_lowpart (mode, op2);
    9612                 :             : 
    9613                 :             :   /* Try to emit the conditional move.  */
    9614                 :       15813 :   insn = emit_conditional_move (temp,
    9615                 :             :                                 { comparison_code, op00, op01,
    9616                 :             :                                   comparison_mode },
    9617                 :             :                                 op1, op2, mode,
    9618                 :             :                                 unsignedp);
    9619                 :             : 
    9620                 :             :   /* If we could do the conditional move, emit the sequence,
    9621                 :             :      and return.  */
    9622                 :       15813 :   if (insn)
    9623                 :             :     {
    9624                 :       13363 :       rtx_insn *seq = get_insns ();
    9625                 :       13363 :       end_sequence ();
    9626                 :       13363 :       emit_insn (seq);
    9627                 :       13363 :       return convert_modes (orig_mode, mode, temp, 0);
    9628                 :             :     }
    9629                 :             : 
    9630                 :             :   /* Otherwise discard the sequence and fall back to code with
    9631                 :             :      branches.  */
    9632                 :        2450 :   end_sequence ();
    9633                 :        2450 :   return NULL_RTX;
    9634                 :             : }
    9635                 :             : 
    9636                 :             : /* A helper function for expand_expr_real_2 to be used with a
    9637                 :             :    misaligned mem_ref TEMP.  Assume an unsigned type if UNSIGNEDP
    9638                 :             :    is nonzero, with alignment ALIGN in bits.
    9639                 :             :    Store the value at TARGET if possible (if TARGET is nonzero).
    9640                 :             :    Regardless of TARGET, we return the rtx for where the value is placed.
    9641                 :             :    If the result can be stored at TARGET, and ALT_RTL is non-NULL,
    9642                 :             :    then *ALT_RTL is set to TARGET (before legitimziation).  */
    9643                 :             : 
    9644                 :             : static rtx
    9645                 :      182217 : expand_misaligned_mem_ref (rtx temp, machine_mode mode, int unsignedp,
    9646                 :             :                            unsigned int align, rtx target, rtx *alt_rtl)
    9647                 :             : {
    9648                 :      182217 :   enum insn_code icode;
    9649                 :             : 
    9650                 :      182217 :   if ((icode = optab_handler (movmisalign_optab, mode))
    9651                 :             :       != CODE_FOR_nothing)
    9652                 :             :     {
    9653                 :      118713 :       class expand_operand ops[2];
    9654                 :             : 
    9655                 :             :       /* We've already validated the memory, and we're creating a
    9656                 :             :          new pseudo destination.  The predicates really can't fail,
    9657                 :             :          nor can the generator.  */
    9658                 :      118713 :       create_output_operand (&ops[0], NULL_RTX, mode);
    9659                 :      118713 :       create_fixed_operand (&ops[1], temp);
    9660                 :      118713 :       expand_insn (icode, 2, ops);
    9661                 :      118713 :       temp = ops[0].value;
    9662                 :             :     }
    9663                 :       63504 :   else if (targetm.slow_unaligned_access (mode, align))
    9664                 :           0 :     temp = extract_bit_field (temp, GET_MODE_BITSIZE (mode),
    9665                 :           0 :                               0, unsignedp, target,
    9666                 :             :                               mode, mode, false, alt_rtl);
    9667                 :      182217 :   return temp;
    9668                 :             : }
    9669                 :             : 
    9670                 :             : /* Helper function of expand_expr_2, expand a division or modulo.
    9671                 :             :    op0 and op1 should be already expanded treeop0 and treeop1, using
    9672                 :             :    expand_operands.  */
    9673                 :             : 
    9674                 :             : static rtx
    9675                 :      141137 : expand_expr_divmod (tree_code code, machine_mode mode, tree treeop0,
    9676                 :             :                     tree treeop1, rtx op0, rtx op1, rtx target, int unsignedp)
    9677                 :             : {
    9678                 :      282274 :   bool mod_p = (code == TRUNC_MOD_EXPR || code == FLOOR_MOD_EXPR
    9679                 :      141137 :                 || code == CEIL_MOD_EXPR || code == ROUND_MOD_EXPR);
    9680                 :      141137 :   if (SCALAR_INT_MODE_P (mode)
    9681                 :      141137 :       && optimize >= 2
    9682                 :      114119 :       && get_range_pos_neg (treeop0) == 1
    9683                 :      170591 :       && get_range_pos_neg (treeop1) == 1)
    9684                 :             :     {
    9685                 :             :       /* If both arguments are known to be positive when interpreted
    9686                 :             :          as signed, we can expand it as both signed and unsigned
    9687                 :             :          division or modulo.  Choose the cheaper sequence in that case.  */
    9688                 :       17486 :       bool speed_p = optimize_insn_for_speed_p ();
    9689                 :       17486 :       do_pending_stack_adjust ();
    9690                 :       17486 :       start_sequence ();
    9691                 :       17486 :       rtx uns_ret = expand_divmod (mod_p, code, mode, op0, op1, target, 1);
    9692                 :       17486 :       rtx_insn *uns_insns = get_insns ();
    9693                 :       17486 :       end_sequence ();
    9694                 :       17486 :       start_sequence ();
    9695                 :       17486 :       rtx sgn_ret = expand_divmod (mod_p, code, mode, op0, op1, target, 0);
    9696                 :       17486 :       rtx_insn *sgn_insns = get_insns ();
    9697                 :       17486 :       end_sequence ();
    9698                 :       17486 :       unsigned uns_cost = seq_cost (uns_insns, speed_p);
    9699                 :       17486 :       unsigned sgn_cost = seq_cost (sgn_insns, speed_p);
    9700                 :       17486 :       bool was_tie = false;
    9701                 :             : 
    9702                 :             :       /* If costs are the same then use as tie breaker the other other
    9703                 :             :          factor.  */
    9704                 :       17486 :       if (uns_cost == sgn_cost)
    9705                 :             :         {
    9706                 :        5613 :           uns_cost = seq_cost (uns_insns, !speed_p);
    9707                 :        5613 :           sgn_cost = seq_cost (sgn_insns, !speed_p);
    9708                 :        5613 :           was_tie = true;
    9709                 :             :         }
    9710                 :             : 
    9711                 :       17486 :       if (dump_file && (dump_flags & TDF_DETAILS))
    9712                 :           0 :           fprintf(dump_file, "positive division:%s unsigned cost: %u; "
    9713                 :             :                   "signed cost: %u\n", was_tie ? "(needed tie breaker)" : "",
    9714                 :             :                   uns_cost, sgn_cost);
    9715                 :             : 
    9716                 :       17486 :       if (uns_cost < sgn_cost || (uns_cost == sgn_cost && unsignedp))
    9717                 :             :         {
    9718                 :       10933 :           emit_insn (uns_insns);
    9719                 :       10933 :           return uns_ret;
    9720                 :             :         }
    9721                 :        6553 :       emit_insn (sgn_insns);
    9722                 :        6553 :       return sgn_ret;
    9723                 :             :     }
    9724                 :      123651 :   return expand_divmod (mod_p, code, mode, op0, op1, target, unsignedp);
    9725                 :             : }
    9726                 :             : 
    9727                 :             : rtx
    9728                 :    12252749 : expand_expr_real_2 (const_sepops ops, rtx target, machine_mode tmode,
    9729                 :             :                     enum expand_modifier modifier)
    9730                 :             : {
    9731                 :    12252749 :   rtx op0, op1, op2, temp;
    9732                 :    12252749 :   rtx_code_label *lab;
    9733                 :    12252749 :   tree type;
    9734                 :    12252749 :   int unsignedp;
    9735                 :    12252749 :   machine_mode mode;
    9736                 :    12252749 :   scalar_int_mode int_mode;
    9737                 :    12252749 :   enum tree_code code = ops->code;
    9738                 :    12252749 :   optab this_optab;
    9739                 :    12252749 :   rtx subtarget, original_target;
    9740                 :    12252749 :   int ignore;
    9741                 :    12252749 :   bool reduce_bit_field;
    9742                 :    12252749 :   location_t loc = ops->location;
    9743                 :    12252749 :   tree treeop0, treeop1, treeop2;
    9744                 :             : #define REDUCE_BIT_FIELD(expr)  (reduce_bit_field                         \
    9745                 :             :                                  ? reduce_to_bit_field_precision ((expr), \
    9746                 :             :                                                                   target, \
    9747                 :             :                                                                   type)   \
    9748                 :             :                                  : (expr))
    9749                 :             : 
    9750                 :    12252749 :   type = ops->type;
    9751                 :    12252749 :   mode = TYPE_MODE (type);
    9752                 :    12252749 :   unsignedp = TYPE_UNSIGNED (type);
    9753                 :             : 
    9754                 :    12252749 :   treeop0 = ops->op0;
    9755                 :    12252749 :   treeop1 = ops->op1;
    9756                 :    12252749 :   treeop2 = ops->op2;
    9757                 :             : 
    9758                 :             :   /* We should be called only on simple (binary or unary) expressions,
    9759                 :             :      exactly those that are valid in gimple expressions that aren't
    9760                 :             :      GIMPLE_SINGLE_RHS (or invalid).  */
    9761                 :    12252749 :   gcc_assert (get_gimple_rhs_class (code) == GIMPLE_UNARY_RHS
    9762                 :             :               || get_gimple_rhs_class (code) == GIMPLE_BINARY_RHS
    9763                 :             :               || get_gimple_rhs_class (code) == GIMPLE_TERNARY_RHS);
    9764                 :             : 
    9765                 :    24505498 :   ignore = (target == const0_rtx
    9766                 :    12252749 :             || ((CONVERT_EXPR_CODE_P (code)
    9767                 :     8709670 :                  || code == COND_EXPR || code == VIEW_CONVERT_EXPR)
    9768                 :     3559994 :                 && TREE_CODE (type) == VOID_TYPE));
    9769                 :             : 
    9770                 :             :   /* We should be called only if we need the result.  */
    9771                 :           0 :   gcc_assert (!ignore);
    9772                 :             : 
    9773                 :             :   /* An operation in what may be a bit-field type needs the
    9774                 :             :      result to be reduced to the precision of the bit-field type,
    9775                 :             :      which is narrower than that of the type's mode.  */
    9776                 :    25153347 :   reduce_bit_field = (INTEGRAL_TYPE_P (type)
    9777                 :    12252749 :                       && !type_has_mode_precision_p (type));
    9778                 :             : 
    9779                 :      647849 :   if (reduce_bit_field
    9780                 :      647849 :       && (modifier == EXPAND_STACK_PARM
    9781                 :      647335 :           || (target && GET_MODE (target) != mode)))
    9782                 :      363987 :     target = 0;
    9783                 :             : 
    9784                 :             :   /* Use subtarget as the target for operand 0 of a binary operation.  */
    9785                 :    12252749 :   subtarget = get_subtarget (target);
    9786                 :    12252749 :   original_target = target;
    9787                 :             : 
    9788                 :    12252749 :   switch (code)
    9789                 :             :     {
    9790                 :     3546360 :     case NON_LVALUE_EXPR:
    9791                 :     3546360 :     case PAREN_EXPR:
    9792                 :     3546360 :     CASE_CONVERT:
    9793                 :     3546360 :       if (treeop0 == error_mark_node)
    9794                 :           0 :         return const0_rtx;
    9795                 :             : 
    9796                 :     3546360 :       if (TREE_CODE (type) == UNION_TYPE)
    9797                 :             :         {
    9798                 :           0 :           tree valtype = TREE_TYPE (treeop0);
    9799                 :             : 
    9800                 :             :           /* If both input and output are BLKmode, this conversion isn't doing
    9801                 :             :              anything except possibly changing memory attribute.  */
    9802                 :           0 :           if (mode == BLKmode && TYPE_MODE (valtype) == BLKmode)
    9803                 :             :             {
    9804                 :           0 :               rtx result = expand_expr (treeop0, target, tmode,
    9805                 :             :                                         modifier);
    9806                 :             : 
    9807                 :           0 :               result = copy_rtx (result);
    9808                 :           0 :               set_mem_attributes (result, type, 0);
    9809                 :           0 :               return result;
    9810                 :             :             }
    9811                 :             : 
    9812                 :           0 :           if (target == 0)
    9813                 :             :             {
    9814                 :           0 :               if (TYPE_MODE (type) != BLKmode)
    9815                 :           0 :                 target = gen_reg_rtx (TYPE_MODE (type));
    9816                 :             :               else
    9817                 :           0 :                 target = assign_temp (type, 1, 1);
    9818                 :             :             }
    9819                 :             : 
    9820                 :           0 :           if (MEM_P (target))
    9821                 :             :             /* Store data into beginning of memory target.  */
    9822                 :           0 :             store_expr (treeop0,
    9823                 :           0 :                         adjust_address (target, TYPE_MODE (valtype), 0),
    9824                 :             :                         modifier == EXPAND_STACK_PARM,
    9825                 :           0 :                         false, TYPE_REVERSE_STORAGE_ORDER (type));
    9826                 :             : 
    9827                 :             :           else
    9828                 :             :             {
    9829                 :           0 :               gcc_assert (REG_P (target)
    9830                 :             :                           && !TYPE_REVERSE_STORAGE_ORDER (type));
    9831                 :             : 
    9832                 :             :               /* Store this field into a union of the proper type.  */
    9833                 :           0 :               poly_uint64 op0_size
    9834                 :           0 :                 = tree_to_poly_uint64 (TYPE_SIZE (TREE_TYPE (treeop0)));
    9835                 :           0 :               poly_uint64 union_size = GET_MODE_BITSIZE (mode);
    9836                 :           0 :               store_field (target,
    9837                 :             :                            /* The conversion must be constructed so that
    9838                 :             :                               we know at compile time how many bits
    9839                 :             :                               to preserve.  */
    9840                 :           0 :                            ordered_min (op0_size, union_size),
    9841                 :           0 :                            0, 0, 0, TYPE_MODE (valtype), treeop0, 0,
    9842                 :             :                            false, false);
    9843                 :             :             }
    9844                 :             : 
    9845                 :             :           /* Return the entire union.  */
    9846                 :           0 :           return target;
    9847                 :             :         }
    9848                 :             : 
    9849                 :     3546360 :       if (mode == TYPE_MODE (TREE_TYPE (treeop0)))
    9850                 :             :         {
    9851                 :     2035848 :           op0 = expand_expr (treeop0, target, VOIDmode,
    9852                 :             :                              modifier);
    9853                 :             : 
    9854                 :     2035848 :           return REDUCE_BIT_FIELD (op0);
    9855                 :             :         }
    9856                 :             : 
    9857                 :     1861580 :       op0 = expand_expr (treeop0, NULL_RTX, mode,
    9858                 :             :                          modifier == EXPAND_SUM ? EXPAND_NORMAL : modifier);
    9859                 :     1510512 :       if (GET_MODE (op0) == mode)
    9860                 :             :         ;
    9861                 :             : 
    9862                 :             :       /* If OP0 is a constant, just convert it into the proper mode.  */
    9863                 :     1470678 :       else if (CONSTANT_P (op0))
    9864                 :             :         {
    9865                 :         895 :           tree inner_type = TREE_TYPE (treeop0);
    9866                 :         895 :           machine_mode inner_mode = GET_MODE (op0);
    9867                 :             : 
    9868                 :         895 :           if (inner_mode == VOIDmode)
    9869                 :          11 :             inner_mode = TYPE_MODE (inner_type);
    9870                 :             : 
    9871                 :         895 :           if (modifier == EXPAND_INITIALIZER)
    9872                 :           0 :             op0 = force_lowpart_subreg (mode, op0, inner_mode);
    9873                 :             :           else
    9874                 :         895 :             op0 = convert_modes (mode, inner_mode, op0,
    9875                 :         895 :                                  TYPE_UNSIGNED (inner_type));
    9876                 :             :         }
    9877                 :             : 
    9878                 :     1469783 :       else if (modifier == EXPAND_INITIALIZER)
    9879                 :          24 :         op0 = gen_rtx_fmt_e (TYPE_UNSIGNED (TREE_TYPE (treeop0))
    9880                 :             :                              ? ZERO_EXTEND : SIGN_EXTEND, mode, op0);
    9881                 :             : 
    9882                 :     1469771 :       else if (target == 0)
    9883                 :      921978 :         op0 = convert_to_mode (mode, op0,
    9884                 :      921978 :                                TYPE_UNSIGNED (TREE_TYPE
    9885                 :             :                                               (treeop0)));
    9886                 :             :       else
    9887                 :             :         {
    9888                 :     1095586 :           convert_move (target, op0,
    9889                 :      547793 :                         TYPE_UNSIGNED (TREE_TYPE (treeop0)));
    9890                 :      547793 :           op0 = target;
    9891                 :             :         }
    9892                 :             : 
    9893                 :     1510512 :       return REDUCE_BIT_FIELD (op0);
    9894                 :             : 
    9895                 :           0 :     case ADDR_SPACE_CONVERT_EXPR:
    9896                 :           0 :       {
    9897                 :           0 :         tree treeop0_type = TREE_TYPE (treeop0);
    9898                 :             : 
    9899                 :           0 :         gcc_assert (POINTER_TYPE_P (type));
    9900                 :           0 :         gcc_assert (POINTER_TYPE_P (treeop0_type));
    9901                 :             : 
    9902                 :           0 :         addr_space_t as_to = TYPE_ADDR_SPACE (TREE_TYPE (type));
    9903                 :           0 :         addr_space_t as_from = TYPE_ADDR_SPACE (TREE_TYPE (treeop0_type));
    9904                 :             : 
    9905                 :             :         /* Conversions between pointers to the same address space should
    9906                 :             :            have been implemented via CONVERT_EXPR / NOP_EXPR.  */
    9907                 :           0 :         gcc_assert (as_to != as_from);
    9908                 :             : 
    9909                 :           0 :         op0 = expand_expr (treeop0, NULL_RTX, VOIDmode, modifier);
    9910                 :             : 
    9911                 :             :         /* Ask target code to handle conversion between pointers
    9912                 :             :            to overlapping address spaces.  */
    9913                 :           0 :         if (targetm.addr_space.subset_p (as_to, as_from)
    9914                 :           0 :             || targetm.addr_space.subset_p (as_from, as_to))
    9915                 :             :           {
    9916                 :           0 :             op0 = targetm.addr_space.convert (op0, treeop0_type, type);
    9917                 :             :           }
    9918                 :             :         else
    9919                 :             :           {
    9920                 :             :             /* For disjoint address spaces, converting anything but a null
    9921                 :             :                pointer invokes undefined behavior.  We truncate or extend the
    9922                 :             :                value as if we'd converted via integers, which handles 0 as
    9923                 :             :                required, and all others as the programmer likely expects.  */
    9924                 :             : #ifndef POINTERS_EXTEND_UNSIGNED
    9925                 :             :             const int POINTERS_EXTEND_UNSIGNED = 1;
    9926                 :             : #endif
    9927                 :           0 :             op0 = convert_modes (mode, TYPE_MODE (treeop0_type),
    9928                 :             :                                  op0, POINTERS_EXTEND_UNSIGNED);
    9929                 :             :           }
    9930                 :           0 :         gcc_assert (op0);
    9931                 :             :         return op0;
    9932                 :             :       }
    9933                 :             : 
    9934                 :     1297100 :     case POINTER_PLUS_EXPR:
    9935                 :             :       /* Even though the sizetype mode and the pointer's mode can be different
    9936                 :             :          expand is able to handle this correctly and get the correct result out
    9937                 :             :          of the PLUS_EXPR code.  */
    9938                 :             :       /* Make sure to sign-extend the sizetype offset in a POINTER_PLUS_EXPR
    9939                 :             :          if sizetype precision is smaller than pointer precision.  */
    9940                 :     1297100 :       if (TYPE_PRECISION (sizetype) < TYPE_PRECISION (type))
    9941                 :           0 :         treeop1 = fold_convert_loc (loc, type,
    9942                 :             :                                     fold_convert_loc (loc, ssizetype,
    9943                 :             :                                                       treeop1));
    9944                 :             :       /* If sizetype precision is larger than pointer precision, truncate the
    9945                 :             :          offset to have matching modes.  */
    9946                 :     1297100 :       else if (TYPE_PRECISION (sizetype) > TYPE_PRECISION (type))
    9947                 :           0 :         treeop1 = fold_convert_loc (loc, type, treeop1);
    9948                 :             :       /* FALLTHRU */
    9949                 :             : 
    9950                 :     4906237 :     case PLUS_EXPR:
    9951                 :             :       /* If we are adding a constant, a VAR_DECL that is sp, fp, or ap, and
    9952                 :             :          something else, make sure we add the register to the constant and
    9953                 :             :          then to the other thing.  This case can occur during strength
    9954                 :             :          reduction and doing it this way will produce better code if the
    9955                 :             :          frame pointer or argument pointer is eliminated.
    9956                 :             : 
    9957                 :             :          fold-const.cc will ensure that the constant is always in the inner
    9958                 :             :          PLUS_EXPR, so the only case we need to do anything about is if
    9959                 :             :          sp, ap, or fp is our second argument, in which case we must swap
    9960                 :             :          the innermost first argument and our second argument.  */
    9961                 :             : 
    9962                 :     4906237 :       if (TREE_CODE (treeop0) == PLUS_EXPR
    9963                 :        6478 :           && TREE_CODE (TREE_OPERAND (treeop0, 1)) == INTEGER_CST
    9964                 :           0 :           && VAR_P (treeop1)
    9965                 :     4906237 :           && (DECL_RTL (treeop1) == frame_pointer_rtx
    9966                 :           0 :               || DECL_RTL (treeop1) == stack_pointer_rtx
    9967                 :           0 :               || DECL_RTL (treeop1) == arg_pointer_rtx))
    9968                 :             :         {
    9969                 :           0 :           gcc_unreachable ();
    9970                 :             :         }
    9971                 :             : 
    9972                 :             :       /* If the result is to be ptr_mode and we are adding an integer to
    9973                 :             :          something, we might be forming a constant.  So try to use
    9974                 :             :          plus_constant.  If it produces a sum and we can't accept it,
    9975                 :             :          use force_operand.  This allows P = &ARR[const] to generate
    9976                 :             :          efficient code on machines where a SYMBOL_REF is not a valid
    9977                 :             :          address.
    9978                 :             : 
    9979                 :             :          If this is an EXPAND_SUM call, always return the sum.  */
    9980                 :     4906237 :       if (modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER
    9981                 :     4906237 :           || (mode == ptr_mode && (unsignedp || ! flag_trapv)))
    9982                 :             :         {
    9983                 :     3165726 :           if (modifier == EXPAND_STACK_PARM)
    9984                 :       18695 :             target = 0;
    9985                 :     3165726 :           if (TREE_CODE (treeop0) == INTEGER_CST
    9986                 :     3166733 :               && HWI_COMPUTABLE_MODE_P (mode)
    9987                 :     3166737 :               && TREE_CONSTANT (treeop1))
    9988                 :             :             {
    9989                 :           4 :               rtx constant_part;
    9990                 :           4 :               HOST_WIDE_INT wc;
    9991                 :           4 :               machine_mode wmode = TYPE_MODE (TREE_TYPE (treeop1));
    9992                 :             : 
    9993                 :           4 :               op1 = expand_expr (treeop1, subtarget, VOIDmode,
    9994                 :             :                                  EXPAND_SUM);
    9995                 :             :               /* Use wi::shwi to ensure that the constant is
    9996                 :             :                  truncated according to the mode of OP1, then sign extended
    9997                 :             :                  to a HOST_WIDE_INT.  Using the constant directly can result
    9998                 :             :                  in non-canonical RTL in a 64x32 cross compile.  */
    9999                 :           4 :               wc = TREE_INT_CST_LOW (treeop0);
   10000                 :           4 :               constant_part =
   10001                 :           4 :                 immed_wide_int_const (wi::shwi (wc, wmode), wmode);
   10002                 :           4 :               op1 = plus_constant (mode, op1, INTVAL (constant_part));
   10003                 :           4 :               if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
   10004                 :           1 :                 op1 = force_operand (op1, target);
   10005                 :           4 :               return REDUCE_BIT_FIELD (op1);
   10006                 :             :             }
   10007                 :             : 
   10008                 :     3165722 :           else if (TREE_CODE (treeop1) == INTEGER_CST
   10009                 :     6778825 :                    && HWI_COMPUTABLE_MODE_P (mode)
   10010                 :     5304573 :                    && TREE_CONSTANT (treeop0))
   10011                 :             :             {
   10012                 :      266259 :               rtx constant_part;
   10013                 :      266259 :               HOST_WIDE_INT wc;
   10014                 :      266259 :               machine_mode wmode = TYPE_MODE (TREE_TYPE (treeop0));
   10015                 :             : 
   10016                 :      465121 :               op0 = expand_expr (treeop0, subtarget, VOIDmode,
   10017                 :             :                                  (modifier == EXPAND_INITIALIZER
   10018                 :             :                                  ? EXPAND_INITIALIZER : EXPAND_SUM));
   10019                 :      266259 :               if (! CONSTANT_P (op0))
   10020                 :             :                 {
   10021                 :           6 :                   op1 = expand_expr (treeop1, NULL_RTX,
   10022                 :             :                                      VOIDmode, modifier);
   10023                 :             :                   /* Return a PLUS if modifier says it's OK.  */
   10024                 :           6 :                   if (modifier == EXPAND_SUM
   10025                 :             :                       || modifier == EXPAND_INITIALIZER)
   10026                 :           6 :                     return simplify_gen_binary (PLUS, mode, op0, op1);
   10027                 :           0 :                   goto binop2;
   10028                 :             :                 }
   10029                 :             :               /* Use wi::shwi to ensure that the constant is
   10030                 :             :                  truncated according to the mode of OP1, then sign extended
   10031                 :             :                  to a HOST_WIDE_INT.  Using the constant directly can result
   10032                 :             :                  in non-canonical RTL in a 64x32 cross compile.  */
   10033                 :      266253 :               wc = TREE_INT_CST_LOW (treeop1);
   10034                 :      266253 :               constant_part
   10035                 :      266253 :                 = immed_wide_int_const (wi::shwi (wc, wmode), wmode);
   10036                 :      266253 :               op0 = plus_constant (mode, op0, INTVAL (constant_part));
   10037                 :      266253 :               if (modifier != EXPAND_SUM && modifier != EXPAND_INITIALIZER)
   10038                 :      198064 :                 op0 = force_operand (op0, target);
   10039                 :      266253 :               return REDUCE_BIT_FIELD (op0);
   10040                 :             :             }
   10041                 :             :         }
   10042                 :             : 
   10043                 :             :       /* Use TER to expand pointer addition of a negated value
   10044                 :             :          as pointer subtraction.  */
   10045                 :     8268752 :       if ((POINTER_TYPE_P (TREE_TYPE (treeop0))
   10046                 :     3609124 :            || (TREE_CODE (TREE_TYPE (treeop0)) == VECTOR_TYPE
   10047                 :       74324 :                && POINTER_TYPE_P (TREE_TYPE (TREE_TYPE (treeop0)))))
   10048                 :     1030850 :           && TREE_CODE (treeop1) == SSA_NAME
   10049                 :     5709560 :           && TYPE_MODE (TREE_TYPE (treeop0))
   10050                 :      534793 :              == TYPE_MODE (TREE_TYPE (treeop1)))
   10051                 :             :         {
   10052                 :      534793 :           gimple *def = get_def_for_expr (treeop1, NEGATE_EXPR);
   10053                 :      534793 :           if (def)
   10054                 :             :             {
   10055                 :        2893 :               treeop1 = gimple_assign_rhs1 (def);
   10056                 :        2893 :               code = MINUS_EXPR;
   10057                 :        2893 :               goto do_minus;
   10058                 :             :             }
   10059                 :             :         }
   10060                 :             : 
   10061                 :             :       /* No sense saving up arithmetic to be done
   10062                 :             :          if it's all in the wrong mode to form part of an address.
   10063                 :             :          And force_operand won't know whether to sign-extend or
   10064                 :             :          zero-extend.  */
   10065                 :     4637081 :       if (modifier != EXPAND_INITIALIZER
   10066                 :     4637081 :           && (modifier != EXPAND_SUM || mode != ptr_mode))
   10067                 :             :         {
   10068                 :     4104946 :           expand_operands (treeop0, treeop1,
   10069                 :             :                            subtarget, &op0, &op1, modifier);
   10070                 :     4104946 :           if (op0 == const0_rtx)
   10071                 :        6502 :             return op1;
   10072                 :     4098444 :           if (op1 == const0_rtx)
   10073                 :             :             return op0;
   10074                 :     4098193 :           goto binop2;
   10075                 :             :         }
   10076                 :             : 
   10077                 :      532135 :       expand_operands (treeop0, treeop1,
   10078                 :             :                        subtarget, &op0, &op1, modifier);
   10079                 :      532135 :       return REDUCE_BIT_FIELD (simplify_gen_binary (PLUS, mode, op0, op1));
   10080                 :             : 
   10081                 :      459179 :     case MINUS_EXPR:
   10082                 :      459179 :     case POINTER_DIFF_EXPR:
   10083                 :      459179 :     do_minus:
   10084                 :             :       /* For initializers, we are allowed to return a MINUS of two
   10085                 :             :          symbolic constants.  Here we handle all cases when both operands
   10086                 :             :          are constant.  */
   10087                 :             :       /* Handle difference of two symbolic constants,
   10088                 :             :          for the sake of an initializer.  */
   10089                 :      459179 :       if ((modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
   10090                 :        3014 :           && really_constant_p (treeop0)
   10091                 :      459659 :           && really_constant_p (treeop1))
   10092                 :             :         {
   10093                 :          68 :           expand_operands (treeop0, treeop1,
   10094                 :             :                            NULL_RTX, &op0, &op1, modifier);
   10095                 :          68 :           return simplify_gen_binary (MINUS, mode, op0, op1);
   10096                 :             :         }
   10097                 :             : 
   10098                 :             :       /* No sense saving up arithmetic to be done
   10099                 :             :          if it's all in the wrong mode to form part of an address.
   10100                 :             :          And force_operand won't know whether to sign-extend or
   10101                 :             :          zero-extend.  */
   10102                 :      459111 :       if (modifier != EXPAND_INITIALIZER
   10103                 :      459111 :           && (modifier != EXPAND_SUM || mode != ptr_mode))
   10104                 :      456165 :         goto binop;
   10105                 :             : 
   10106                 :        2946 :       expand_operands (treeop0, treeop1,
   10107                 :             :                        subtarget, &op0, &op1, modifier);
   10108                 :             : 
   10109                 :             :       /* Convert A - const to A + (-const).  */
   10110                 :        2946 :       if (CONST_INT_P (op1))
   10111                 :             :         {
   10112                 :           0 :           op1 = negate_rtx (mode, op1);
   10113                 :           0 :           return REDUCE_BIT_FIELD (simplify_gen_binary (PLUS, mode, op0, op1));
   10114                 :             :         }
   10115                 :             : 
   10116                 :        2946 :       goto binop2;
   10117                 :             : 
   10118                 :           0 :     case WIDEN_MULT_PLUS_EXPR:
   10119                 :           0 :     case WIDEN_MULT_MINUS_EXPR:
   10120                 :           0 :       expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
   10121                 :           0 :       op2 = expand_normal (treeop2);
   10122                 :           0 :       target = expand_widen_pattern_expr (ops, op0, op1, op2,
   10123                 :             :                                           target, unsignedp);
   10124                 :           0 :       return target;
   10125                 :             : 
   10126                 :       18637 :     case WIDEN_MULT_EXPR:
   10127                 :             :       /* If first operand is constant, swap them.
   10128                 :             :          Thus the following special case checks need only
   10129                 :             :          check the second operand.  */
   10130                 :       18637 :       if (TREE_CODE (treeop0) == INTEGER_CST)
   10131                 :         368 :         std::swap (treeop0, treeop1);
   10132                 :             : 
   10133                 :             :       /* First, check if we have a multiplication of one signed and one
   10134                 :             :          unsigned operand.  */
   10135                 :       18637 :       if (TREE_CODE (treeop1) != INTEGER_CST
   10136                 :       18637 :           && (TYPE_UNSIGNED (TREE_TYPE (treeop0))
   10137                 :       14246 :               != TYPE_UNSIGNED (TREE_TYPE (treeop1))))
   10138                 :             :         {
   10139                 :           0 :           machine_mode innermode = TYPE_MODE (TREE_TYPE (treeop0));
   10140                 :           0 :           this_optab = usmul_widen_optab;
   10141                 :           0 :           if (find_widening_optab_handler (this_optab, mode, innermode)
   10142                 :             :                 != CODE_FOR_nothing)
   10143                 :             :             {
   10144                 :           0 :               if (TYPE_UNSIGNED (TREE_TYPE (treeop0)))
   10145                 :           0 :                 expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1,
   10146                 :             :                                  EXPAND_NORMAL);
   10147                 :             :               else
   10148                 :           0 :                 expand_operands (treeop0, treeop1, NULL_RTX, &op1, &op0,
   10149                 :             :                                  EXPAND_NORMAL);
   10150                 :             :               /* op0 and op1 might still be constant, despite the above
   10151                 :             :                  != INTEGER_CST check.  Handle it.  */
   10152                 :           0 :               if (GET_MODE (op0) == VOIDmode && GET_MODE (op1) == VOIDmode)
   10153                 :             :                 {
   10154                 :           0 :                   op0 = convert_modes (mode, innermode, op0, true);
   10155                 :           0 :                   op1 = convert_modes (mode, innermode, op1, false);
   10156                 :           0 :                   return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1,
   10157                 :             :                                                         target, unsignedp));
   10158                 :             :                 }
   10159                 :           0 :               goto binop3;
   10160                 :             :             }
   10161                 :             :         }
   10162                 :             :       /* Check for a multiplication with matching signedness.  */
   10163                 :       18637 :       else if ((TREE_CODE (treeop1) == INTEGER_CST
   10164                 :        4391 :                 && int_fits_type_p (treeop1, TREE_TYPE (treeop0)))
   10165                 :       18637 :                || (TYPE_UNSIGNED (TREE_TYPE (treeop1))
   10166                 :       14246 :                    == TYPE_UNSIGNED (TREE_TYPE (treeop0))))
   10167                 :             :         {
   10168                 :       18637 :           tree op0type = TREE_TYPE (treeop0);
   10169                 :       18637 :           machine_mode innermode = TYPE_MODE (op0type);
   10170                 :       18637 :           bool zextend_p = TYPE_UNSIGNED (op0type);
   10171                 :       18637 :           optab other_optab = zextend_p ? smul_widen_optab : umul_widen_optab;
   10172                 :        2584 :           this_optab = zextend_p ? umul_widen_optab : smul_widen_optab;
   10173                 :             : 
   10174                 :       18637 :           if (TREE_CODE (treeop0) != INTEGER_CST)
   10175                 :             :             {
   10176                 :       18637 :               if (find_widening_optab_handler (this_optab, mode, innermode)
   10177                 :             :                   != CODE_FOR_nothing)
   10178                 :             :                 {
   10179                 :       18637 :                   expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1,
   10180                 :             :                                    EXPAND_NORMAL);
   10181                 :             :                   /* op0 and op1 might still be constant, despite the above
   10182                 :             :                      != INTEGER_CST check.  Handle it.  */
   10183                 :       18637 :                   if (GET_MODE (op0) == VOIDmode && GET_MODE (op1) == VOIDmode)
   10184                 :             :                     {
   10185                 :           0 :                      widen_mult_const:
   10186                 :           0 :                       op0 = convert_modes (mode, innermode, op0, zextend_p);
   10187                 :           0 :                       op1
   10188                 :           0 :                         = convert_modes (mode, innermode, op1,
   10189                 :           0 :                                          TYPE_UNSIGNED (TREE_TYPE (treeop1)));
   10190                 :           0 :                       return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1,
   10191                 :             :                                                             target,
   10192                 :             :                                                             unsignedp));
   10193                 :             :                     }
   10194                 :       18637 :                   temp = expand_widening_mult (mode, op0, op1, target,
   10195                 :             :                                                unsignedp, this_optab);
   10196                 :       18637 :                   return REDUCE_BIT_FIELD (temp);
   10197                 :             :                 }
   10198                 :           0 :               if (find_widening_optab_handler (other_optab, mode, innermode)
   10199                 :             :                   != CODE_FOR_nothing
   10200                 :           0 :                   && innermode == word_mode)
   10201                 :             :                 {
   10202                 :           0 :                   rtx htem, hipart;
   10203                 :           0 :                   op0 = expand_normal (treeop0);
   10204                 :           0 :                   op1 = expand_normal (treeop1);
   10205                 :             :                   /* op0 and op1 might be constants, despite the above
   10206                 :             :                      != INTEGER_CST check.  Handle it.  */
   10207                 :           0 :                   if (GET_MODE (op0) == VOIDmode && GET_MODE (op1) == VOIDmode)
   10208                 :           0 :                     goto widen_mult_const;
   10209                 :           0 :                   temp = expand_binop (mode, other_optab, op0, op1, target,
   10210                 :             :                                        unsignedp, OPTAB_LIB_WIDEN);
   10211                 :           0 :                   hipart = gen_highpart (word_mode, temp);
   10212                 :           0 :                   htem = expand_mult_highpart_adjust (word_mode, hipart,
   10213                 :             :                                                       op0, op1, hipart,
   10214                 :             :                                                       zextend_p);
   10215                 :           0 :                   if (htem != hipart)
   10216                 :           0 :                     emit_move_insn (hipart, htem);
   10217                 :           0 :                   return REDUCE_BIT_FIELD (temp);
   10218                 :             :                 }
   10219                 :             :             }
   10220                 :             :         }
   10221                 :           0 :       treeop0 = fold_build1 (CONVERT_EXPR, type, treeop0);
   10222                 :           0 :       treeop1 = fold_build1 (CONVERT_EXPR, type, treeop1);
   10223                 :           0 :       expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
   10224                 :           0 :       return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1, target, unsignedp));
   10225                 :             : 
   10226                 :     1267725 :     case MULT_EXPR:
   10227                 :             :       /* If this is a fixed-point operation, then we cannot use the code
   10228                 :             :          below because "expand_mult" doesn't support sat/no-sat fixed-point
   10229                 :             :          multiplications.   */
   10230                 :     1267725 :       if (ALL_FIXED_POINT_MODE_P (mode))
   10231                 :           0 :         goto binop;
   10232                 :             : 
   10233                 :             :       /* If first operand is constant, swap them.
   10234                 :             :          Thus the following special case checks need only
   10235                 :             :          check the second operand.  */
   10236                 :     1267725 :       if (TREE_CODE (treeop0) == INTEGER_CST)
   10237                 :         686 :         std::swap (treeop0, treeop1);
   10238                 :             : 
   10239                 :             :       /* Attempt to return something suitable for generating an
   10240                 :             :          indexed address, for machines that support that.  */
   10241                 :             : 
   10242                 :      511771 :       if (modifier == EXPAND_SUM && mode == ptr_mode
   10243                 :     1779496 :           && tree_fits_shwi_p (treeop1))
   10244                 :             :         {
   10245                 :      506279 :           tree exp1 = treeop1;
   10246                 :             : 
   10247                 :      506279 :           op0 = expand_expr (treeop0, subtarget, VOIDmode,
   10248                 :             :                              EXPAND_SUM);
   10249                 :             : 
   10250                 :      506279 :           if (!REG_P (op0))
   10251                 :      239430 :             op0 = force_operand (op0, NULL_RTX);
   10252                 :      506279 :           if (!REG_P (op0))
   10253                 :        1644 :             op0 = copy_to_mode_reg (mode, op0);
   10254                 :             : 
   10255                 :      506279 :           op1 = gen_int_mode (tree_to_shwi (exp1),
   10256                 :      506279 :                               TYPE_MODE (TREE_TYPE (exp1)));
   10257                 :      506279 :           return REDUCE_BIT_FIELD (gen_rtx_MULT (mode, op0, op1));
   10258                 :             :         }
   10259                 :             : 
   10260                 :      761446 :       if (modifier == EXPAND_STACK_PARM)
   10261                 :        3006 :         target = 0;
   10262                 :             : 
   10263                 :      761446 :       if (SCALAR_INT_MODE_P (mode) && optimize >= 2)
   10264                 :             :         {
   10265                 :      452085 :           gimple *def_stmt0 = get_def_for_expr (treeop0, TRUNC_DIV_EXPR);
   10266                 :      452085 :           gimple *def_stmt1 = get_def_for_expr (treeop1, TRUNC_DIV_EXPR);
   10267                 :      452085 :           if (def_stmt0
   10268                 :      452085 :               && !operand_equal_p (treeop1, gimple_assign_rhs2 (def_stmt0), 0))
   10269                 :             :             def_stmt0 = NULL;
   10270                 :      452085 :           if (def_stmt1
   10271                 :      452085 :               && !operand_equal_p (treeop0, gimple_assign_rhs2 (def_stmt1), 0))
   10272                 :             :             def_stmt1 = NULL;
   10273                 :             : 
   10274                 :      452085 :           if (def_stmt0 || def_stmt1)
   10275                 :             :             {
   10276                 :             :               /* X / Y * Y can be expanded as X - X % Y too.
   10277                 :             :                  Choose the cheaper sequence of those two.  */
   10278                 :         483 :               if (def_stmt0)
   10279                 :         483 :                 treeop0 = gimple_assign_rhs1 (def_stmt0);
   10280                 :             :               else
   10281                 :             :                 {
   10282                 :           0 :                   treeop1 = treeop0;
   10283                 :           0 :                   treeop0 = gimple_assign_rhs1 (def_stmt1);
   10284                 :             :                 }
   10285                 :         483 :               expand_operands (treeop0, treeop1, subtarget, &op0, &op1,
   10286                 :             :                                EXPAND_NORMAL);
   10287                 :         483 :               bool speed_p = optimize_insn_for_speed_p ();
   10288                 :         483 :               do_pending_stack_adjust ();
   10289                 :         483 :               start_sequence ();
   10290                 :         483 :               rtx divmul_ret
   10291                 :         483 :                 = expand_expr_divmod (TRUNC_DIV_EXPR, mode, treeop0, treeop1,
   10292                 :             :                                       op0, op1, NULL_RTX, unsignedp);
   10293                 :         483 :               divmul_ret = expand_mult (mode, divmul_ret, op1, target,
   10294                 :             :                                         unsignedp);
   10295                 :         483 :               rtx_insn *divmul_insns = get_insns ();
   10296                 :         483 :               end_sequence ();
   10297                 :         483 :               start_sequence ();
   10298                 :         483 :               rtx modsub_ret
   10299                 :         483 :                 = expand_expr_divmod (TRUNC_MOD_EXPR, mode, treeop0, treeop1,
   10300                 :             :                                       op0, op1, NULL_RTX, unsignedp);
   10301                 :         483 :               this_optab = optab_for_tree_code (MINUS_EXPR, type,
   10302                 :             :                                                 optab_default);
   10303                 :         483 :               modsub_ret = expand_binop (mode, this_optab, op0, modsub_ret,
   10304                 :             :                                          target, unsignedp, OPTAB_LIB_WIDEN);
   10305                 :         483 :               rtx_insn *modsub_insns = get_insns ();
   10306                 :         483 :               end_sequence ();
   10307                 :         483 :               unsigned divmul_cost = seq_cost (divmul_insns, speed_p);
   10308                 :         483 :               unsigned modsub_cost = seq_cost (modsub_insns, speed_p);
   10309                 :             :               /* If costs are the same then use as tie breaker the other other
   10310                 :             :                  factor.  */
   10311                 :         483 :               if (divmul_cost == modsub_cost)
   10312                 :             :                 {
   10313                 :          20 :                   divmul_cost = seq_cost (divmul_insns, !speed_p);
   10314                 :          20 :                   modsub_cost = seq_cost (modsub_insns, !speed_p);
   10315                 :             :                 }
   10316                 :             : 
   10317                 :         483 :               if (divmul_cost <= modsub_cost)
   10318                 :             :                 {
   10319                 :         423 :                   emit_insn (divmul_insns);
   10320                 :         423 :                   return REDUCE_BIT_FIELD (divmul_ret);
   10321                 :             :                 }
   10322                 :          60 :               emit_insn (modsub_insns);
   10323                 :          60 :               return REDUCE_BIT_FIELD (modsub_ret);
   10324                 :             :             }
   10325                 :             :         }
   10326                 :             : 
   10327                 :      760963 :       expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
   10328                 :             : 
   10329                 :             :       /* Expand X*Y as X&-Y when Y must be zero or one.  */
   10330                 :      760963 :       if (SCALAR_INT_MODE_P (mode))
   10331                 :             :         {
   10332                 :      630590 :           bool gimple_zero_one_valued_p (tree, tree (*)(tree));
   10333                 :      630590 :           bool bit0_p = gimple_zero_one_valued_p (treeop0, nullptr);
   10334                 :      630590 :           bool bit1_p = gimple_zero_one_valued_p (treeop1, nullptr);
   10335                 :             : 
   10336                 :             :           /* Expand X*Y as X&Y when both X and Y must be zero or one.  */
   10337                 :      630590 :           if (bit0_p && bit1_p)
   10338                 :           2 :             return REDUCE_BIT_FIELD (expand_and (mode, op0, op1, target));
   10339                 :             : 
   10340                 :      630588 :           if (bit0_p || bit1_p)
   10341                 :             :             {
   10342                 :        4313 :               bool speed = optimize_insn_for_speed_p ();
   10343                 :        4313 :               int cost = add_cost (speed, mode) + neg_cost (speed, mode);
   10344                 :        4313 :               struct algorithm algorithm;
   10345                 :        4313 :               enum mult_variant variant;
   10346                 :        4313 :               if (CONST_INT_P (op1)
   10347                 :        4313 :                   ? !choose_mult_variant (mode, INTVAL (op1),
   10348                 :             :                                           &algorithm, &variant, cost)
   10349                 :         625 :                   : cost < mul_cost (speed, mode))
   10350                 :             :                 {
   10351                 :        2051 :                   temp = bit0_p ? expand_and (mode, negate_rtx (mode, op0),
   10352                 :             :                                               op1, target)
   10353                 :         254 :                                 : expand_and (mode, op0,
   10354                 :             :                                               negate_rtx (mode, op1),
   10355                 :             :                                               target);
   10356                 :        2051 :                   return REDUCE_BIT_FIELD (temp);
   10357                 :             :                 }
   10358                 :             :             }
   10359                 :             :         }
   10360                 :             : 
   10361                 :      758910 :       return REDUCE_BIT_FIELD (expand_mult (mode, op0, op1, target, unsignedp));
   10362                 :             : 
   10363                 :      140171 :     case TRUNC_MOD_EXPR:
   10364                 :      140171 :     case FLOOR_MOD_EXPR:
   10365                 :      140171 :     case CEIL_MOD_EXPR:
   10366                 :      140171 :     case ROUND_MOD_EXPR:
   10367                 :             : 
   10368                 :      140171 :     case TRUNC_DIV_EXPR:
   10369                 :      140171 :     case FLOOR_DIV_EXPR:
   10370                 :      140171 :     case CEIL_DIV_EXPR:
   10371                 :      140171 :     case ROUND_DIV_EXPR:
   10372                 :      140171 :     case EXACT_DIV_EXPR:
   10373                 :             :       /* If this is a fixed-point operation, then we cannot use the code
   10374                 :             :          below because "expand_divmod" doesn't support sat/no-sat fixed-point
   10375                 :             :          divisions.   */
   10376                 :      140171 :       if (ALL_FIXED_POINT_MODE_P (mode))
   10377                 :           0 :         goto binop;
   10378                 :             : 
   10379                 :      140171 :       if (modifier == EXPAND_STACK_PARM)
   10380                 :         287 :         target = 0;
   10381                 :             :       /* Possible optimization: compute the dividend with EXPAND_SUM
   10382                 :             :          then if the divisor is constant can optimize the case
   10383                 :             :          where some terms of the dividend have coeffs divisible by it.  */
   10384                 :      140171 :       expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
   10385                 :      140171 :       return expand_expr_divmod (code, mode, treeop0, treeop1, op0, op1,
   10386                 :      140171 :                                  target, unsignedp);
   10387                 :             : 
   10388                 :       28946 :     case RDIV_EXPR:
   10389                 :       28946 :       goto binop;
   10390                 :             : 
   10391                 :        1619 :     case MULT_HIGHPART_EXPR:
   10392                 :        1619 :       expand_operands (treeop0, treeop1, subtarget, &op0, &op1, EXPAND_NORMAL);
   10393                 :        1619 :       temp = expand_mult_highpart (mode, op0, op1, target, unsignedp);
   10394                 :        1619 :       gcc_assert (temp);
   10395                 :             :       return temp;
   10396                 :             : 
   10397                 :           0 :     case FIXED_CONVERT_EXPR:
   10398                 :           0 :       op0 = expand_normal (treeop0);
   10399                 :           0 :       if (target == 0 || modifier == EXPAND_STACK_PARM)
   10400                 :           0 :         target = gen_reg_rtx (mode);
   10401                 :             : 
   10402                 :           0 :       if ((TREE_CODE (TREE_TYPE (treeop0)) == INTEGER_TYPE
   10403                 :           0 :            && TYPE_UNSIGNED (TREE_TYPE (treeop0)))
   10404                 :           0 :           || (TREE_CODE (type) == INTEGER_TYPE && TYPE_UNSIGNED (type)))
   10405                 :           0 :         expand_fixed_convert (target, op0, 1, TYPE_SATURATING (type));
   10406                 :             :       else
   10407                 :           0 :         expand_fixed_convert (target, op0, 0, TYPE_SATURATING (type));
   10408                 :             :       return target;
   10409                 :             : 
   10410                 :       47401 :     case FIX_TRUNC_EXPR:
   10411                 :       47401 :       op0 = expand_normal (treeop0);
   10412                 :       47401 :       if (target == 0 || modifier == EXPAND_STACK_PARM)
   10413                 :        3505 :         target = gen_reg_rtx (mode);
   10414                 :       47401 :       expand_fix (target, op0, unsignedp);
   10415                 :       47401 :       return target;
   10416                 :             : 
   10417                 :      129935 :     case FLOAT_EXPR:
   10418                 :      129935 :       op0 = expand_normal (treeop0);
   10419                 :      129935 :       if (target == 0 || modifier == EXPAND_STACK_PARM)
   10420                 :       60994 :         target = gen_reg_rtx (mode);
   10421                 :             :       /* expand_float can't figure out what to do if FROM has VOIDmode.
   10422                 :             :          So give it the correct mode.  With -O, cse will optimize this.  */
   10423                 :      129935 :       if (GET_MODE (op0) == VOIDmode)
   10424                 :          94 :         op0 = copy_to_mode_reg (TYPE_MODE (TREE_TYPE (treeop0)),
   10425                 :             :                                 op0);
   10426                 :      259870 :       expand_float (target, op0,
   10427                 :      129935 :                     TYPE_UNSIGNED (TREE_TYPE (treeop0)));
   10428                 :      129935 :       return target;
   10429                 :             : 
   10430                 :       48351 :     case NEGATE_EXPR:
   10431                 :       48351 :       op0 = expand_expr (treeop0, subtarget,
   10432                 :             :                          VOIDmode, EXPAND_NORMAL);
   10433                 :       48351 :       if (modifier == EXPAND_STACK_PARM)
   10434                 :         241 :         target = 0;
   10435                 :       48351 :       temp = expand_unop (mode,
   10436                 :             :                           optab_for_tree_code (NEGATE_EXPR, type,
   10437                 :             :                                                optab_default),
   10438                 :             :                           op0, target, 0);
   10439                 :       48351 :       gcc_assert (temp);
   10440                 :       48351 :       return REDUCE_BIT_FIELD (temp);
   10441                 :             : 
   10442                 :       23324 :     case ABS_EXPR:
   10443                 :       23324 :     case ABSU_EXPR:
   10444                 :       23324 :       op0 = expand_expr (treeop0, subtarget,
   10445                 :             :                          VOIDmode, EXPAND_NORMAL);
   10446                 :       23324 :       if (modifier == EXPAND_STACK_PARM)
   10447                 :          50 :         target = 0;
   10448                 :             : 
   10449                 :             :       /* ABS_EXPR is not valid for complex arguments.  */
   10450                 :       23324 :       gcc_assert (GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
   10451                 :             :                   && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT);
   10452                 :             : 
   10453                 :             :       /* Unsigned abs is simply the operand.  Testing here means we don't
   10454                 :             :          risk generating incorrect code below.  */
   10455                 :       23324 :       if (TYPE_UNSIGNED (TREE_TYPE (treeop0)))
   10456                 :             :         return op0;
   10457                 :             : 
   10458                 :       23324 :       return expand_abs (mode, op0, target, unsignedp,
   10459                 :       46648 :                          safe_from_p (target, treeop0, 1));
   10460                 :             : 
   10461                 :       97510 :     case MAX_EXPR:
   10462                 :       97510 :     case MIN_EXPR:
   10463                 :       97510 :       target = original_target;
   10464                 :       97510 :       if (target == 0
   10465                 :       97510 :           || modifier == EXPAND_STACK_PARM
   10466                 :       56151 :           || (MEM_P (target) && MEM_VOLATILE_P (target))
   10467                 :       56151 :           || GET_MODE (target) != mode
   10468                 :      153661 :           || (REG_P (target)
   10469                 :       49732 :               && REGNO (target) < FIRST_PSEUDO_REGISTER))
   10470                 :       41359 :         target = gen_reg_rtx (mode);
   10471                 :       97510 :       expand_operands (treeop0, treeop1,
   10472                 :             :                        target, &op0, &op1, EXPAND_NORMAL);
   10473                 :             : 
   10474                 :             :       /* First try to do it with a special MIN or MAX instruction.
   10475                 :             :          If that does not win, use a conditional jump to select the proper
   10476                 :             :          value.  */
   10477                 :       97510 :       this_optab = optab_for_tree_code (code, type, optab_default);
   10478                 :       97510 :       temp = expand_binop (mode, this_optab, op0, op1, target, unsignedp,
   10479                 :             :                            OPTAB_WIDEN);
   10480                 :       97510 :       if (temp != 0)
   10481                 :             :         return temp;
   10482                 :             : 
   10483                 :         122 :       if (VECTOR_TYPE_P (type))
   10484                 :           0 :         gcc_unreachable ();
   10485                 :             : 
   10486                 :             :       /* At this point, a MEM target is no longer useful; we will get better
   10487                 :             :          code without it.  */
   10488                 :             : 
   10489                 :         122 :       if (! REG_P (target))
   10490                 :           1 :         target = gen_reg_rtx (mode);
   10491                 :             : 
   10492                 :             :       /* If op1 was placed in target, swap op0 and op1.  */
   10493                 :         122 :       if (target != op0 && target == op1)
   10494                 :           0 :         std::swap (op0, op1);
   10495                 :             : 
   10496                 :             :       /* We generate better code and avoid problems with op1 mentioning
   10497                 :             :          target by forcing op1 into a pseudo if it isn't a constant.  */
   10498                 :         122 :       if (! CONSTANT_P (op1))
   10499                 :          42 :         op1 = force_reg (mode, op1);
   10500                 :             : 
   10501                 :         122 :       {
   10502                 :         122 :         enum rtx_code comparison_code;
   10503                 :         122 :         rtx cmpop1 = op1;
   10504                 :             : 
   10505                 :         122 :         if (code == MAX_EXPR)
   10506                 :          62 :           comparison_code = unsignedp ? GEU : GE;
   10507                 :             :         else
   10508                 :          60 :           comparison_code = unsignedp ? LEU : LE;
   10509                 :             : 
   10510                 :             :         /* Canonicalize to comparisons against 0.  */
   10511                 :         122 :         if (op1 == const1_rtx)
   10512                 :             :           {
   10513                 :             :             /* Converting (a >= 1 ? a : 1) into (a > 0 ? a : 1)
   10514                 :             :                or (a != 0 ? a : 1) for unsigned.
   10515                 :             :                For MIN we are safe converting (a <= 1 ? a : 1)
   10516                 :             :                into (a <= 0 ? a : 1)  */
   10517                 :           0 :             cmpop1 = const0_rtx;
   10518                 :           0 :             if (code == MAX_EXPR)
   10519                 :           0 :               comparison_code = unsignedp ? NE : GT;
   10520                 :             :           }
   10521                 :         122 :         if (op1 == constm1_rtx && !unsignedp)
   10522                 :             :           {
   10523                 :             :             /* Converting (a >= -1 ? a : -1) into (a >= 0 ? a : -1)
   10524                 :             :                and (a <= -1 ? a : -1) into (a < 0 ? a : -1) */
   10525                 :           0 :             cmpop1 = const0_rtx;
   10526                 :           0 :             if (code == MIN_EXPR)
   10527                 :           0 :               comparison_code = LT;
   10528                 :             :           }
   10529                 :             : 
   10530                 :             :         /* Use a conditional move if possible.  */
   10531                 :         122 :         if (can_conditionally_move_p (mode))
   10532                 :             :           {
   10533                 :          75 :             rtx insn;
   10534                 :             : 
   10535                 :          75 :             start_sequence ();
   10536                 :             : 
   10537                 :             :             /* Try to emit the conditional move.  */
   10538                 :          75 :             insn = emit_conditional_move (target,
   10539                 :             :                                           { comparison_code,
   10540                 :             :                                             op0, cmpop1, mode },
   10541                 :             :                                           op0, op1, mode,
   10542                 :             :                                           unsignedp);
   10543                 :             : 
   10544                 :             :             /* If we could do the conditional move, emit the sequence,
   10545                 :             :                and return.  */
   10546                 :          75 :             if (insn)
   10547                 :             :               {
   10548                 :          41 :                 rtx_insn *seq = get_insns ();
   10549                 :          41 :                 end_sequence ();
   10550                 :          41 :                 emit_insn (seq);
   10551                 :          41 :                 return target;
   10552                 :             :               }
   10553                 :             : 
   10554                 :             :             /* Otherwise discard the sequence and fall back to code with
   10555                 :             :                branches.  */
   10556                 :          34 :             end_sequence ();
   10557                 :             :           }
   10558                 :             : 
   10559                 :          81 :         if (target != op0)
   10560                 :          52 :           emit_move_insn (target, op0);
   10561                 :             : 
   10562                 :          81 :         lab = gen_label_rtx ();
   10563                 :          81 :         do_compare_rtx_and_jump (target, cmpop1, comparison_code,
   10564                 :             :                                  unsignedp, mode, NULL_RTX, NULL, lab,
   10565                 :             :                                  profile_probability::uninitialized ());
   10566                 :             :       }
   10567                 :          81 :       emit_move_insn (target, op1);
   10568                 :          81 :       emit_label (lab);
   10569                 :          81 :       return target;
   10570                 :             : 
   10571                 :       51764 :     case BIT_NOT_EXPR:
   10572                 :       51764 :       op0 = expand_expr (treeop0, subtarget,
   10573                 :             :                          VOIDmode, EXPAND_NORMAL);
   10574                 :       51764 :       if (modifier == EXPAND_STACK_PARM)
   10575                 :          86 :         target = 0;
   10576                 :             :       /* In case we have to reduce the result to bitfield precision
   10577                 :             :          for unsigned bitfield expand this as XOR with a proper constant
   10578                 :             :          instead.  */
   10579                 :       51764 :       if (reduce_bit_field && TYPE_UNSIGNED (type))
   10580                 :             :         {
   10581                 :       19680 :           int_mode = SCALAR_INT_TYPE_MODE (type);
   10582                 :       19680 :           wide_int mask = wi::mask (TYPE_PRECISION (type),
   10583                 :       39360 :                                     false, GET_MODE_PRECISION (int_mode));
   10584                 :             : 
   10585                 :       39360 :           temp = expand_binop (int_mode, xor_optab, op0,
   10586                 :       39360 :                                immed_wide_int_const (mask, int_mode),
   10587                 :             :                                target, 1, OPTAB_LIB_WIDEN);
   10588                 :       19680 :         }
   10589                 :             :       else
   10590                 :       32084 :         temp = expand_unop (mode, one_cmpl_optab, op0, target, 1);
   10591                 :       51764 :       gcc_assert (temp);
   10592                 :             :       return temp;
   10593                 :             : 
   10594                 :             :       /* ??? Can optimize bitwise operations with one arg constant.
   10595                 :             :          Can optimize (a bitwise1 n) bitwise2 (a bitwise3 b)
   10596                 :             :          and (a bitwise1 b) bitwise2 b (etc)
   10597                 :             :          but that is probably not worth while.  */
   10598                 :             : 
   10599                 :      588809 :     case BIT_AND_EXPR:
   10600                 :      588809 :     case BIT_IOR_EXPR:
   10601                 :      588809 :     case BIT_XOR_EXPR:
   10602                 :      588809 :       goto binop;
   10603                 :             : 
   10604                 :        7183 :     case LROTATE_EXPR:
   10605                 :        7183 :     case RROTATE_EXPR:
   10606                 :        7183 :       gcc_assert (VECTOR_MODE_P (TYPE_MODE (type))
   10607                 :             :                   || type_has_mode_precision_p (type));
   10608                 :             :       /* fall through */
   10609                 :             : 
   10610                 :      252750 :     case LSHIFT_EXPR:
   10611                 :      252750 :     case RSHIFT_EXPR:
   10612                 :      252750 :       {
   10613                 :             :         /* If this is a fixed-point operation, then we cannot use the code
   10614                 :             :            below because "expand_shift" doesn't support sat/no-sat fixed-point
   10615                 :             :            shifts.  */
   10616                 :      252750 :         if (ALL_FIXED_POINT_MODE_P (mode))
   10617                 :           0 :           goto binop;
   10618                 :             : 
   10619                 :      252750 :         if (! safe_from_p (subtarget, treeop1, 1))
   10620                 :        5113 :           subtarget = 0;
   10621                 :      252750 :         if (modifier == EXPAND_STACK_PARM)
   10622                 :        2551 :           target = 0;
   10623                 :      252750 :         op0 = expand_expr (treeop0, subtarget,
   10624                 :             :                            VOIDmode, EXPAND_NORMAL);
   10625                 :             : 
   10626                 :             :         /* Left shift optimization when shifting across word_size boundary.
   10627                 :             : 
   10628                 :             :            If mode == GET_MODE_WIDER_MODE (word_mode), then normally
   10629                 :             :            there isn't native instruction to support this wide mode
   10630                 :             :            left shift.  Given below scenario:
   10631                 :             : 
   10632                 :             :             Type A = (Type) B  << C
   10633                 :             : 
   10634                 :             :             |<                T          >|
   10635                 :             :             | dest_high  |  dest_low |
   10636                 :             : 
   10637                 :             :                          | word_size |
   10638                 :             : 
   10639                 :             :            If the shift amount C caused we shift B to across the word
   10640                 :             :            size boundary, i.e part of B shifted into high half of
   10641                 :             :            destination register, and part of B remains in the low
   10642                 :             :            half, then GCC will use the following left shift expand
   10643                 :             :            logic:
   10644                 :             : 
   10645                 :             :            1. Initialize dest_low to B.
   10646                 :             :            2. Initialize every bit of dest_high to the sign bit of B.
   10647                 :             :            3. Logic left shift dest_low by C bit to finalize dest_low.
   10648                 :             :               The value of dest_low before this shift is kept in a temp D.
   10649                 :             :            4. Logic left shift dest_high by C.
   10650                 :             :            5. Logic right shift D by (word_size - C).
   10651                 :             :            6. Or the result of 4 and 5 to finalize dest_high.
   10652                 :             : 
   10653                 :             :            While, by checking gimple statements, if operand B is
   10654                 :             :            coming from signed extension, then we can simplify above
   10655                 :             :            expand logic into:
   10656                 :             : 
   10657                 :             :               1. dest_high = src_low >> (word_size - C).
   10658                 :             :               2. dest_low = src_low << C.
   10659                 :             : 
   10660                 :             :            We can use one arithmetic right shift to finish all the
   10661                 :             :            purpose of steps 2, 4, 5, 6, thus we reduce the steps
   10662                 :             :            needed from 6 into 2.
   10663                 :             : 
   10664                 :             :            The case is similar for zero extension, except that we
   10665                 :             :            initialize dest_high to zero rather than copies of the sign
   10666                 :             :            bit from B.  Furthermore, we need to use a logical right shift
   10667                 :             :            in this case.
   10668                 :             : 
   10669                 :             :            The choice of sign-extension versus zero-extension is
   10670                 :             :            determined entirely by whether or not B is signed and is
   10671                 :             :            independent of the current setting of unsignedp.  */
   10672                 :             : 
   10673                 :      252750 :         temp = NULL_RTX;
   10674                 :      252750 :         if (code == LSHIFT_EXPR
   10675                 :      252750 :             && target
   10676                 :       31117 :             && REG_P (target)
   10677                 :      281793 :             && GET_MODE_2XWIDER_MODE (word_mode).exists (&int_mode)
   10678                 :       29108 :             && mode == int_mode
   10679                 :        1482 :             && TREE_CONSTANT (treeop1)
   10680                 :      253564 :             && TREE_CODE (treeop0) == SSA_NAME)
   10681                 :             :           {
   10682                 :         814 :             gimple *def = SSA_NAME_DEF_STMT (treeop0);
   10683                 :         814 :             if (is_gimple_assign (def)
   10684                 :         814 :                 && gimple_assign_rhs_code (def) == NOP_EXPR)
   10685                 :             :               {
   10686                 :         315 :                 scalar_int_mode rmode = SCALAR_INT_TYPE_MODE
   10687                 :             :                   (TREE_TYPE (gimple_assign_rhs1 (def)));
   10688                 :             : 
   10689                 :         630 :                 if (GET_MODE_SIZE (rmode) < GET_MODE_SIZE (int_mode)
   10690                 :         584 :                     && TREE_INT_CST_LOW (treeop1) < GET_MODE_BITSIZE (word_mode)
   10691                 :         453 :                     && ((TREE_INT_CST_LOW (treeop1) + GET_MODE_BITSIZE (rmode))
   10692                 :          69 :                         >= GET_MODE_BITSIZE (word_mode)))
   10693                 :             :                   {
   10694                 :          65 :                     rtx_insn *seq, *seq_old;
   10695                 :          65 :                     poly_uint64 high_off = subreg_highpart_offset (word_mode,
   10696                 :             :                                                                    int_mode);
   10697                 :          65 :                     bool extend_unsigned
   10698                 :          65 :                       = TYPE_UNSIGNED (TREE_TYPE (gimple_assign_rhs1 (def)));
   10699                 :          65 :                     rtx low = lowpart_subreg (word_mode, op0, int_mode);
   10700                 :          65 :                     rtx dest_low = lowpart_subreg (word_mode, target, int_mode);
   10701                 :          65 :                     rtx dest_high = simplify_gen_subreg (word_mode, target,
   10702                 :             :                                                          int_mode, high_off);
   10703                 :          65 :                     HOST_WIDE_INT ramount = (BITS_PER_WORD
   10704                 :          65 :                                              - TREE_INT_CST_LOW (treeop1));
   10705                 :          65 :                     tree rshift = build_int_cst (TREE_TYPE (treeop1), ramount);
   10706                 :             : 
   10707                 :          65 :                     start_sequence ();
   10708                 :             :                     /* dest_high = src_low >> (word_size - C).  */
   10709                 :          65 :                     temp = expand_variable_shift (RSHIFT_EXPR, word_mode, low,
   10710                 :             :                                                   rshift, dest_high,
   10711                 :             :                                                   extend_unsigned);
   10712                 :          65 :                     if (temp != dest_high)
   10713                 :           0 :                       emit_move_insn (dest_high, temp);
   10714                 :             : 
   10715                 :             :                     /* dest_low = src_low << C.  */
   10716                 :          65 :                     temp = expand_variable_shift (LSHIFT_EXPR, word_mode, low,
   10717                 :             :                                                   treeop1, dest_low, unsignedp);
   10718                 :          65 :                     if (temp != dest_low)
   10719                 :           0 :                       emit_move_insn (dest_low, temp);
   10720                 :             : 
   10721                 :          65 :                     seq = get_insns ();
   10722                 :          65 :                     end_sequence ();
   10723                 :          65 :                     temp = target ;
   10724                 :             : 
   10725                 :          65 :                     if (have_insn_for (ASHIFT, int_mode))
   10726                 :             :                       {
   10727                 :          65 :                         bool speed_p = optimize_insn_for_speed_p ();
   10728                 :          65 :                         start_sequence ();
   10729                 :          65 :                         rtx ret_old = expand_variable_shift (code, int_mode,
   10730                 :             :                                                              op0, treeop1,
   10731                 :             :                                                              target,
   10732                 :             :                                                              unsignedp);
   10733                 :             : 
   10734                 :          65 :                         seq_old = get_insns ();
   10735                 :          65 :                         end_sequence ();
   10736                 :         130 :                         if (seq_cost (seq, speed_p)
   10737                 :          65 :                             >= seq_cost (seq_old, speed_p))
   10738                 :             :                           {
   10739                 :          65 :                             seq = seq_old;
   10740                 :          65 :                             temp = ret_old;
   10741                 :             :                           }
   10742                 :             :                       }
   10743                 :          65 :                       emit_insn (seq);
   10744                 :             :                   }
   10745                 :             :               }
   10746                 :             :           }
   10747                 :             : 
   10748                 :          65 :         if (temp == NULL_RTX)
   10749                 :      252685 :           temp = expand_variable_shift (code, mode, op0, treeop1, target,
   10750                 :             :                                         unsignedp);
   10751                 :      252750 :         if (code == LSHIFT_EXPR)
   10752                 :       73034 :           temp = REDUCE_BIT_FIELD (temp);
   10753                 :             :         return temp;
   10754                 :             :       }
   10755                 :             : 
   10756                 :             :       /* Could determine the answer when only additive constants differ.  Also,
   10757                 :             :          the addition of one can be handled by changing the condition.  */
   10758                 :      512785 :     case LT_EXPR:
   10759                 :      512785 :     case LE_EXPR:
   10760                 :      512785 :     case GT_EXPR:
   10761                 :      512785 :     case GE_EXPR:
   10762                 :      512785 :     case EQ_EXPR:
   10763                 :      512785 :     case NE_EXPR:
   10764                 :      512785 :     case UNORDERED_EXPR:
   10765                 :      512785 :     case ORDERED_EXPR:
   10766                 :      512785 :     case UNLT_EXPR:
   10767                 :      512785 :     case UNLE_EXPR:
   10768                 :      512785 :     case UNGT_EXPR:
   10769                 :      512785 :     case UNGE_EXPR:
   10770                 :      512785 :     case UNEQ_EXPR:
   10771                 :      512785 :     case LTGT_EXPR:
   10772                 :      512785 :       {
   10773                 :      817645 :         temp = do_store_flag (ops,
   10774                 :             :                               modifier != EXPAND_STACK_PARM ? target : NULL_RTX,
   10775                 :             :                               tmode != VOIDmode ? tmode : mode);
   10776                 :      512785 :         if (temp)
   10777                 :             :           return temp;
   10778                 :             : 
   10779                 :             :         /* Use a compare and a jump for BLKmode comparisons, or for function
   10780                 :             :            type comparisons is have_canonicalize_funcptr_for_compare.  */
   10781                 :             : 
   10782                 :           0 :         if ((target == 0
   10783                 :           0 :              || modifier == EXPAND_STACK_PARM
   10784                 :           0 :              || ! safe_from_p (target, treeop0, 1)
   10785                 :           0 :              || ! safe_from_p (target, treeop1, 1)
   10786                 :             :              /* Make sure we don't have a hard reg (such as function's return
   10787                 :             :                 value) live across basic blocks, if not optimizing.  */
   10788                 :           0 :              || (!optimize && REG_P (target)
   10789                 :           0 :                  && REGNO (target) < FIRST_PSEUDO_REGISTER)))
   10790                 :           0 :           target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
   10791                 :             : 
   10792                 :           0 :         emit_move_insn (target, const0_rtx);
   10793                 :             : 
   10794                 :           0 :         rtx_code_label *lab1 = gen_label_rtx ();
   10795                 :           0 :         jumpifnot_1 (code, treeop0, treeop1, lab1,
   10796                 :             :                      profile_probability::uninitialized ());
   10797                 :             : 
   10798                 :           0 :         if (TYPE_PRECISION (type) == 1 && !TYPE_UNSIGNED (type))
   10799                 :           0 :           emit_move_insn (target, constm1_rtx);
   10800                 :             :         else
   10801                 :           0 :           emit_move_insn (target, const1_rtx);
   10802                 :             : 
   10803                 :           0 :         emit_label (lab1);
   10804                 :           0 :         return target;
   10805                 :             :       }
   10806                 :       25057 :     case COMPLEX_EXPR:
   10807                 :             :       /* Get the rtx code of the operands.  */
   10808                 :       25057 :       op0 = expand_normal (treeop0);
   10809                 :       25057 :       op1 = expand_normal (treeop1);
   10810                 :             : 
   10811                 :       25057 :       if (!target)
   10812                 :        2540 :         target = gen_reg_rtx (TYPE_MODE (type));
   10813                 :             :       else
   10814                 :             :         /* If target overlaps with op1, then either we need to force
   10815                 :             :            op1 into a pseudo (if target also overlaps with op0),
   10816                 :             :            or write the complex parts in reverse order.  */
   10817                 :       22517 :         switch (GET_CODE (target))
   10818                 :             :           {
   10819                 :       22192 :           case CONCAT:
   10820                 :       22192 :             if (reg_overlap_mentioned_p (XEXP (target, 0), op1))
   10821                 :             :               {
   10822                 :           0 :                 if (reg_overlap_mentioned_p (XEXP (target, 1), op0))
   10823                 :             :                   {
   10824                 :           0 :                   complex_expr_force_op1:
   10825                 :         296 :                     temp = gen_reg_rtx (GET_MODE_INNER (GET_MODE (target)));
   10826                 :         148 :                     emit_move_insn (temp, op1);
   10827                 :         148 :                     op1 = temp;
   10828                 :         148 :                     break;
   10829                 :             :                   }
   10830                 :           0 :               complex_expr_swap_order:
   10831                 :             :                 /* Move the imaginary (op1) and real (op0) parts to their
   10832                 :             :                    location.  */
   10833                 :           1 :                 write_complex_part (target, op1, true, true);
   10834                 :           1 :                 write_complex_part (target, op0, false, false);
   10835                 :             : 
   10836                 :           1 :                 return target;
   10837                 :             :               }
   10838                 :             :             break;
   10839                 :         325 :           case MEM:
   10840                 :         650 :             temp = adjust_address_nv (target,
   10841                 :             :                                       GET_MODE_INNER (GET_MODE (target)), 0);
   10842                 :         325 :             if (reg_overlap_mentioned_p (temp, op1))
   10843                 :             :               {
   10844                 :         149 :                 scalar_mode imode = GET_MODE_INNER (GET_MODE (target));
   10845                 :         298 :                 temp = adjust_address_nv (target, imode,
   10846                 :             :                                           GET_MODE_SIZE (imode));
   10847                 :         149 :                 if (reg_overlap_mentioned_p (temp, op0))
   10848                 :         148 :                   goto complex_expr_force_op1;
   10849                 :           1 :                 goto complex_expr_swap_order;
   10850                 :             :               }
   10851                 :             :             break;
   10852                 :           0 :           default:
   10853                 :           0 :             if (reg_overlap_mentioned_p (target, op1))
   10854                 :             :               {
   10855                 :           0 :                 if (reg_overlap_mentioned_p (target, op0))
   10856                 :           0 :                   goto complex_expr_force_op1;
   10857                 :           0 :                 goto complex_expr_swap_order;
   10858                 :             :               }
   10859                 :             :             break;
   10860                 :             :           }
   10861                 :             : 
   10862                 :             :       /* Move the real (op0) and imaginary (op1) parts to their location.  */
   10863                 :       25056 :       write_complex_part (target, op0, false, true);
   10864                 :       25056 :       write_complex_part (target, op1, true, false);
   10865                 :             : 
   10866                 :       25056 :       return target;
   10867                 :             : 
   10868                 :           0 :     case WIDEN_SUM_EXPR:
   10869                 :           0 :       {
   10870                 :           0 :         tree oprnd0 = treeop0;
   10871                 :           0 :         tree oprnd1 = treeop1;
   10872                 :             : 
   10873                 :           0 :         expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
   10874                 :           0 :         target = expand_widen_pattern_expr (ops, op0, NULL_RTX, op1,
   10875                 :             :                                             target, unsignedp);
   10876                 :           0 :         return target;
   10877                 :             :       }
   10878                 :             : 
   10879                 :       15121 :     case VEC_UNPACK_HI_EXPR:
   10880                 :       15121 :     case VEC_UNPACK_LO_EXPR:
   10881                 :       15121 :     case VEC_UNPACK_FIX_TRUNC_HI_EXPR:
   10882                 :       15121 :     case VEC_UNPACK_FIX_TRUNC_LO_EXPR:
   10883                 :       15121 :       {
   10884                 :       15121 :         op0 = expand_normal (treeop0);
   10885                 :       15121 :         temp = expand_widen_pattern_expr (ops, op0, NULL_RTX, NULL_RTX,
   10886                 :             :                                           target, unsignedp);
   10887                 :       15121 :         gcc_assert (temp);
   10888                 :             :         return temp;
   10889                 :             :       }
   10890                 :             : 
   10891                 :        1710 :     case VEC_UNPACK_FLOAT_HI_EXPR:
   10892                 :        1710 :     case VEC_UNPACK_FLOAT_LO_EXPR:
   10893                 :        1710 :       {
   10894                 :        1710 :         op0 = expand_normal (treeop0);
   10895                 :             :         /* The signedness is determined from input operand.  */
   10896                 :        1710 :         temp = expand_widen_pattern_expr
   10897                 :        3420 :           (ops, op0, NULL_RTX, NULL_RTX,
   10898                 :        1710 :            target, TYPE_UNSIGNED (TREE_TYPE (treeop0)));
   10899                 :             : 
   10900                 :        1710 :         gcc_assert (temp);
   10901                 :             :         return temp;
   10902                 :             :       }
   10903                 :             : 
   10904                 :         881 :     case VEC_WIDEN_MULT_HI_EXPR:
   10905                 :         881 :     case VEC_WIDEN_MULT_LO_EXPR:
   10906                 :         881 :     case VEC_WIDEN_MULT_EVEN_EXPR:
   10907                 :         881 :     case VEC_WIDEN_MULT_ODD_EXPR:
   10908                 :         881 :     case VEC_WIDEN_LSHIFT_HI_EXPR:
   10909                 :         881 :     case VEC_WIDEN_LSHIFT_LO_EXPR:
   10910                 :         881 :       expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
   10911                 :         881 :       target = expand_widen_pattern_expr (ops, op0, op1, NULL_RTX,
   10912                 :             :                                           target, unsignedp);
   10913                 :         881 :       gcc_assert (target);
   10914                 :             :       return target;
   10915                 :             : 
   10916                 :         324 :     case VEC_PACK_SAT_EXPR:
   10917                 :         324 :     case VEC_PACK_FIX_TRUNC_EXPR:
   10918                 :         324 :       mode = TYPE_MODE (TREE_TYPE (treeop0));
   10919                 :         324 :       subtarget = NULL_RTX;
   10920                 :         324 :       goto binop;
   10921                 :             : 
   10922                 :       10015 :     case VEC_PACK_TRUNC_EXPR:
   10923                 :       10015 :       if (VECTOR_BOOLEAN_TYPE_P (type)
   10924                 :        1446 :           && VECTOR_BOOLEAN_TYPE_P (TREE_TYPE (treeop0))
   10925                 :        1446 :           && mode == TYPE_MODE (TREE_TYPE (treeop0))
   10926                 :       10449 :           && SCALAR_INT_MODE_P (mode))
   10927                 :             :         {
   10928                 :         434 :           class expand_operand eops[4];
   10929                 :         434 :           machine_mode imode = TYPE_MODE (TREE_TYPE (treeop0));
   10930                 :         434 :           expand_operands (treeop0, treeop1,
   10931                 :             :                            subtarget, &op0, &op1, EXPAND_NORMAL);
   10932                 :         434 :           this_optab = vec_pack_sbool_trunc_optab;
   10933                 :         434 :           enum insn_code icode = optab_handler (this_optab, imode);
   10934                 :         434 :           create_output_operand (&eops[0], target, mode);
   10935                 :         434 :           create_convert_operand_from (&eops[1], op0, imode, false);
   10936                 :         434 :           create_convert_operand_from (&eops[2], op1, imode, false);
   10937                 :         434 :           temp = GEN_INT (TYPE_VECTOR_SUBPARTS (type).to_constant ());
   10938                 :         434 :           create_input_operand (&eops[3], temp, imode);
   10939                 :         434 :           expand_insn (icode, 4, eops);
   10940                 :         434 :           return eops[0].value;
   10941                 :             :         }
   10942                 :        9581 :       mode = TYPE_MODE (TREE_TYPE (treeop0));
   10943                 :        9581 :       subtarget = NULL_RTX;
   10944                 :        9581 :       goto binop;
   10945                 :             : 
   10946                 :          23 :     case VEC_PACK_FLOAT_EXPR:
   10947                 :          23 :       mode = TYPE_MODE (TREE_TYPE (treeop0));
   10948                 :          23 :       expand_operands (treeop0, treeop1,
   10949                 :             :                        subtarget, &op0, &op1, EXPAND_NORMAL);
   10950                 :          23 :       this_optab = optab_for_tree_code (code, TREE_TYPE (treeop0),
   10951                 :             :                                         optab_default);
   10952                 :          69 :       target = expand_binop (mode, this_optab, op0, op1, target,
   10953                 :          23 :                              TYPE_UNSIGNED (TREE_TYPE (treeop0)),
   10954                 :             :                              OPTAB_LIB_WIDEN);
   10955                 :          23 :       gcc_assert (target);
   10956                 :             :       return target;
   10957                 :             : 
   10958                 :       62914 :     case VEC_PERM_EXPR:
   10959                 :       62914 :       {
   10960                 :       62914 :         expand_operands (treeop0, treeop1, target, &op0, &op1, EXPAND_NORMAL);
   10961                 :       62914 :         vec_perm_builder sel;
   10962                 :       62914 :         if (TREE_CODE (treeop2) == VECTOR_CST
   10963                 :       62914 :             && tree_to_vec_perm_builder (&sel, treeop2))
   10964                 :             :           {
   10965                 :       62904 :             machine_mode sel_mode = TYPE_MODE (TREE_TYPE (treeop2));
   10966                 :       62904 :             temp = expand_vec_perm_const (mode, op0, op1, sel,
   10967                 :             :                                           sel_mode, target);
   10968                 :             :           }
   10969                 :             :         else
   10970                 :             :           {
   10971                 :          10 :             op2 = expand_normal (treeop2);
   10972                 :          10 :             temp = expand_vec_perm_var (mode, op0, op1, op2, target);
   10973                 :             :           }
   10974                 :       62914 :         gcc_assert (temp);
   10975                 :       62914 :         return temp;
   10976                 :       62914 :       }
   10977                 :             : 
   10978                 :         236 :     case DOT_PROD_EXPR:
   10979                 :         236 :       {
   10980                 :         236 :         tree oprnd0 = treeop0;
   10981                 :         236 :         tree oprnd1 = treeop1;
   10982                 :         236 :         tree oprnd2 = treeop2;
   10983                 :             : 
   10984                 :         236 :         expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
   10985                 :         236 :         op2 = expand_normal (oprnd2);
   10986                 :         236 :         target = expand_widen_pattern_expr (ops, op0, op1, op2,
   10987                 :             :                                             target, unsignedp);
   10988                 :         236 :         return target;
   10989                 :             :       }
   10990                 :             : 
   10991                 :         108 :       case SAD_EXPR:
   10992                 :         108 :       {
   10993                 :         108 :         tree oprnd0 = treeop0;
   10994                 :         108 :         tree oprnd1 = treeop1;
   10995                 :         108 :         tree oprnd2 = treeop2;
   10996                 :             : 
   10997                 :         108 :         expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
   10998                 :         108 :         op2 = expand_normal (oprnd2);
   10999                 :         108 :         target = expand_widen_pattern_expr (ops, op0, op1, op2,
   11000                 :             :                                             target, unsignedp);
   11001                 :         108 :         return target;
   11002                 :             :       }
   11003                 :             : 
   11004                 :           0 :     case REALIGN_LOAD_EXPR:
   11005                 :           0 :       {
   11006                 :           0 :         tree oprnd0 = treeop0;
   11007                 :           0 :         tree oprnd1 = treeop1;
   11008                 :           0 :         tree oprnd2 = treeop2;
   11009                 :             : 
   11010                 :           0 :         this_optab = optab_for_tree_code (code, type, optab_default);
   11011                 :           0 :         expand_operands (oprnd0, oprnd1, NULL_RTX, &op0, &op1, EXPAND_NORMAL);
   11012                 :           0 :         op2 = expand_normal (oprnd2);
   11013                 :           0 :         temp = expand_ternary_op (mode, this_optab, op0, op1, op2,
   11014                 :             :                                   target, unsignedp);
   11015                 :           0 :         gcc_assert (temp);
   11016                 :             :         return temp;
   11017                 :             :       }
   11018                 :             : 
   11019                 :       16915 :     case COND_EXPR:
   11020                 :       16915 :       {
   11021                 :             :         /* A COND_EXPR with its type being VOID_TYPE represents a
   11022                 :             :            conditional jump and is handled in
   11023                 :             :            expand_gimple_cond_expr.  */
   11024                 :       16915 :         gcc_assert (!VOID_TYPE_P (type));
   11025                 :             : 
   11026                 :             :         /* Note that COND_EXPRs whose type is a structure or union
   11027                 :             :            are required to be constructed to contain assignments of
   11028                 :             :            a temporary variable, so that we can evaluate them here
   11029                 :             :            for side effect only.  If type is void, we must do likewise.  */
   11030                 :             : 
   11031                 :       16915 :         gcc_assert (!TREE_ADDRESSABLE (type)
   11032                 :             :                     && !ignore
   11033                 :             :                     && TREE_TYPE (treeop1) != void_type_node
   11034                 :             :                     && TREE_TYPE (treeop2) != void_type_node);
   11035                 :             : 
   11036                 :       16915 :         temp = expand_cond_expr_using_cmove (treeop0, treeop1, treeop2);
   11037                 :       16915 :         if (temp)
   11038                 :             :           return temp;
   11039                 :             : 
   11040                 :             :         /* If we are not to produce a result, we have no target.  Otherwise,
   11041                 :             :            if a target was specified use it; it will not be used as an
   11042                 :             :            intermediate target unless it is safe.  If no target, use a
   11043                 :             :            temporary.  */
   11044                 :             : 
   11045                 :        3552 :         if (modifier != EXPAND_STACK_PARM
   11046                 :        3552 :             && original_target
   11047                 :        1967 :             && safe_from_p (original_target, treeop0, 1)
   11048                 :           0 :             && GET_MODE (original_target) == mode
   11049                 :        3552 :             && !MEM_P (original_target))
   11050                 :             :           temp = original_target;
   11051                 :             :         else
   11052                 :        3552 :           temp = assign_temp (type, 0, 1);
   11053                 :             : 
   11054                 :        3552 :         do_pending_stack_adjust ();
   11055                 :        3552 :         NO_DEFER_POP;
   11056                 :        3552 :         rtx_code_label *lab0 = gen_label_rtx ();
   11057                 :        3552 :         rtx_code_label *lab1 = gen_label_rtx ();
   11058                 :        3552 :         jumpifnot (treeop0, lab0,
   11059                 :             :                    profile_probability::uninitialized ());
   11060                 :        3552 :         store_expr (treeop1, temp,
   11061                 :             :                     modifier == EXPAND_STACK_PARM,
   11062                 :             :                     false, false);
   11063                 :             : 
   11064                 :        3552 :         emit_jump_insn (targetm.gen_jump (lab1));
   11065                 :        3552 :         emit_barrier ();
   11066                 :        3552 :         emit_label (lab0);
   11067                 :        3552 :         store_expr (treeop2, temp,
   11068                 :             :                     modifier == EXPAND_STACK_PARM,
   11069                 :             :                     false, false);
   11070                 :             : 
   11071                 :        3552 :         emit_label (lab1);
   11072                 :        3552 :         OK_DEFER_POP;
   11073                 :        3552 :         return temp;
   11074                 :             :       }
   11075                 :             : 
   11076                 :           0 :     case VEC_DUPLICATE_EXPR:
   11077                 :           0 :       op0 = expand_expr (treeop0, NULL_RTX, VOIDmode, modifier);
   11078                 :           0 :       target = expand_vector_broadcast (mode, op0);
   11079                 :           0 :       gcc_assert (target);
   11080                 :             :       return target;
   11081                 :             : 
   11082                 :           0 :     case VEC_SERIES_EXPR:
   11083                 :           0 :       expand_operands (treeop0, treeop1, NULL_RTX, &op0, &op1, modifier);
   11084                 :           0 :       return expand_vec_series_expr (mode, op0, op1, target);
   11085                 :             : 
   11086                 :         835 :     case BIT_INSERT_EXPR:
   11087                 :         835 :       {
   11088                 :         835 :         unsigned bitpos = tree_to_uhwi (treeop2);
   11089                 :         835 :         unsigned bitsize;
   11090                 :         835 :         if (INTEGRAL_TYPE_P (TREE_TYPE (treeop1)))
   11091                 :         530 :           bitsize = TYPE_PRECISION (TREE_TYPE (treeop1));
   11092                 :             :         else
   11093                 :         305 :           bitsize = tree_to_uhwi (TYPE_SIZE (TREE_TYPE (treeop1)));
   11094                 :         835 :         op0 = expand_normal (treeop0);
   11095                 :         835 :         op1 = expand_normal (treeop1);
   11096                 :         835 :         rtx dst = gen_reg_rtx (mode);
   11097                 :         835 :         emit_move_insn (dst, op0);
   11098                 :         835 :         store_bit_field (dst, bitsize, bitpos, 0, 0,
   11099                 :         835 :                          TYPE_MODE (TREE_TYPE (treeop1)), op1, false, false);
   11100                 :         835 :         return dst;
   11101                 :             :       }
   11102                 :             : 
   11103                 :           0 :     default:
   11104                 :           0 :       gcc_unreachable ();
   11105                 :             :     }
   11106                 :             : 
   11107                 :             :   /* Here to do an ordinary binary operator.  */
   11108                 :     1083825 :  binop:
   11109                 :     1083825 :   expand_operands (treeop0, treeop1,
   11110                 :             :                    subtarget, &op0, &op1, EXPAND_NORMAL);
   11111                 :     5184964 :  binop2:
   11112                 :     5184964 :   this_optab = optab_for_tree_code (code, type, optab_default);
   11113                 :     5184964 :  binop3:
   11114                 :     5184964 :   if (modifier == EXPAND_STACK_PARM)
   11115                 :       25032 :     target = 0;
   11116                 :     5184964 :   temp = expand_binop (mode, this_optab, op0, op1, target,
   11117                 :             :                        unsignedp, OPTAB_LIB_WIDEN);
   11118                 :     5184964 :   gcc_assert (temp);
   11119                 :             :   /* Bitwise operations do not need bitfield reduction as we expect their
   11120                 :             :      operands being properly truncated.  */
   11121                 :     5184964 :   if (code == BIT_XOR_EXPR
   11122                 :             :       || code == BIT_AND_EXPR
   11123                 :     5184964 :       || code == BIT_IOR_EXPR)
   11124                 :             :     return temp;
   11125                 :     4596155 :   return REDUCE_BIT_FIELD (temp);
   11126                 :             : }
   11127                 :             : #undef REDUCE_BIT_FIELD
   11128                 :             : 
   11129                 :             : 
   11130                 :             : /* Return TRUE if expression STMT is suitable for replacement.
   11131                 :             :    Never consider memory loads as replaceable, because those don't ever lead
   11132                 :             :    into constant expressions.  */
   11133                 :             : 
   11134                 :             : static bool
   11135                 :           8 : stmt_is_replaceable_p (gimple *stmt)
   11136                 :             : {
   11137                 :           8 :   if (ssa_is_replaceable_p (stmt))
   11138                 :             :     {
   11139                 :             :       /* Don't move around loads.  */
   11140                 :           7 :       if (!gimple_assign_single_p (stmt)
   11141                 :           7 :           || is_gimple_val (gimple_assign_rhs1 (stmt)))
   11142                 :           6 :         return true;
   11143                 :             :     }
   11144                 :             :   return false;
   11145                 :             : }
   11146                 :             : 
   11147                 :             : /* A subroutine of expand_expr_real_1.  Expand gimple assignment G,
   11148                 :             :    which is known to set an SSA_NAME result.  The other arguments are
   11149                 :             :    as for expand_expr_real_1.  */
   11150                 :             : 
   11151                 :             : rtx
   11152                 :    13635055 : expand_expr_real_gassign (gassign *g, rtx target, machine_mode tmode,
   11153                 :             :                           enum expand_modifier modifier, rtx *alt_rtl,
   11154                 :             :                           bool inner_reference_p)
   11155                 :             : {
   11156                 :    13635055 :   separate_ops ops;
   11157                 :    13635055 :   rtx r;
   11158                 :    13635055 :   location_t saved_loc = curr_insn_location ();
   11159                 :    13635055 :   auto loc = gimple_location (g);
   11160                 :    13635055 :   if (loc != UNKNOWN_LOCATION)
   11161                 :    10886284 :     set_curr_insn_location (loc);
   11162                 :    13635055 :   tree lhs = gimple_assign_lhs (g);
   11163                 :    13635055 :   ops.code = gimple_assign_rhs_code (g);
   11164                 :    13635055 :   ops.type = TREE_TYPE (lhs);
   11165                 :    13635055 :   switch (get_gimple_rhs_class (ops.code))
   11166                 :             :     {
   11167                 :       80979 :     case GIMPLE_TERNARY_RHS:
   11168                 :      161958 :       ops.op2 = gimple_assign_rhs3 (g);
   11169                 :             :       /* Fallthru */
   11170                 :     7171495 :     case GIMPLE_BINARY_RHS:
   11171                 :     7171495 :       ops.op1 = gimple_assign_rhs2 (g);
   11172                 :             : 
   11173                 :             :       /* Try to expand conditonal compare.  */
   11174                 :     7171495 :       if (targetm.have_ccmp ())
   11175                 :             :         {
   11176                 :         977 :           gcc_checking_assert (targetm.gen_ccmp_next != NULL);
   11177                 :         977 :           r = expand_ccmp_expr (g, TYPE_MODE (ops.type));
   11178                 :         977 :           if (r)
   11179                 :             :             break;
   11180                 :             :         }
   11181                 :             :       /* Fallthru */
   11182                 :    10458338 :     case GIMPLE_UNARY_RHS:
   11183                 :    10458338 :       ops.op0 = gimple_assign_rhs1 (g);
   11184                 :    10458338 :       ops.location = loc;
   11185                 :    10458338 :       r = expand_expr_real_2 (&ops, target, tmode, modifier);
   11186                 :    10458338 :       break;
   11187                 :     3176699 :     case GIMPLE_SINGLE_RHS:
   11188                 :     3176699 :       {
   11189                 :     3176699 :         r = expand_expr_real (gimple_assign_rhs1 (g), target,
   11190                 :             :                               tmode, modifier, alt_rtl,
   11191                 :             :                               inner_reference_p);
   11192                 :     3176699 :         break;
   11193                 :             :       }
   11194                 :           0 :     default:
   11195                 :           0 :       gcc_unreachable ();
   11196                 :             :     }
   11197                 :    13635055 :   set_curr_insn_location (saved_loc);
   11198                 :    13635055 :   if (REG_P (r) && !REG_EXPR (r))
   11199                 :     3470737 :     set_reg_attrs_for_decl_rtl (lhs, r);
   11200                 :    13635055 :   return r;
   11201                 :             : }
   11202                 :             : 
   11203                 :             : rtx
   11204                 :   145815722 : expand_expr_real_1 (tree exp, rtx target, machine_mode tmode,
   11205                 :             :                     enum expand_modifier modifier, rtx *alt_rtl,
   11206                 :             :                     bool inner_reference_p)
   11207                 :             : {
   11208                 :   145815722 :   rtx op0, op1, temp, decl_rtl;
   11209                 :   145815722 :   tree type;
   11210                 :   145815722 :   int unsignedp;
   11211                 :   145815722 :   machine_mode mode, dmode;
   11212                 :   145815722 :   enum tree_code code = TREE_CODE (exp);
   11213                 :   145815722 :   rtx subtarget, original_target;
   11214                 :   145815722 :   int ignore;
   11215                 :   145815722 :   bool reduce_bit_field;
   11216                 :   145815722 :   location_t loc = EXPR_LOCATION (exp);
   11217                 :   145815722 :   struct separate_ops ops;
   11218                 :   145815722 :   tree treeop0, treeop1, treeop2;
   11219                 :   145815722 :   tree ssa_name = NULL_TREE;
   11220                 :   145815722 :   gimple *g;
   11221                 :             : 
   11222                 :             :   /* Some ABIs define padding bits in _BitInt uninitialized.  Normally, RTL
   11223                 :             :      expansion sign/zero extends integral types with less than mode precision
   11224                 :             :      when reading from bit-fields and after arithmetic operations (see
   11225                 :             :      REDUCE_BIT_FIELD in expand_expr_real_2) and on subsequent loads relies
   11226                 :             :      on those extensions to have been already performed, but because of the
   11227                 :             :      above for _BitInt they need to be sign/zero extended when reading from
   11228                 :             :      locations that could be exposed to ABI boundaries (when loading from
   11229                 :             :      objects in memory, or function arguments, return value).  Because we
   11230                 :             :      internally extend after arithmetic operations, we can avoid doing that
   11231                 :             :      when reading from SSA_NAMEs of vars.  */
   11232                 :             : #define EXTEND_BITINT(expr) \
   11233                 :             :   ((TREE_CODE (type) == BITINT_TYPE                                     \
   11234                 :             :     && reduce_bit_field                                                 \
   11235                 :             :     && mode != BLKmode                                                  \
   11236                 :             :     && modifier != EXPAND_MEMORY                                        \
   11237                 :             :     && modifier != EXPAND_WRITE                                         \
   11238                 :             :     && modifier != EXPAND_INITIALIZER                                   \
   11239                 :             :     && modifier != EXPAND_CONST_ADDRESS)                                \
   11240                 :             :    ? reduce_to_bit_field_precision ((expr), NULL_RTX, type) : (expr))
   11241                 :             : 
   11242                 :   145815722 :   type = TREE_TYPE (exp);
   11243                 :   145815722 :   mode = TYPE_MODE (type);
   11244                 :   145815722 :   unsignedp = TYPE_UNSIGNED (type);
   11245                 :             : 
   11246                 :   145815722 :   treeop0 = treeop1 = treeop2 = NULL_TREE;
   11247                 :   145815722 :   if (!VL_EXP_CLASS_P (exp))
   11248                 :   139520190 :     switch (TREE_CODE_LENGTH (code))
   11249                 :             :       {
   11250                 :     5304286 :         default:
   11251                 :     5304286 :         case 3: treeop2 = TREE_OPERAND (exp, 2); /* FALLTHRU */
   11252                 :    12366186 :         case 2: treeop1 = TREE_OPERAND (exp, 1); /* FALLTHRU */
   11253                 :    25890261 :         case 1: treeop0 = TREE_OPERAND (exp, 0); /* FALLTHRU */
   11254                 :             :         case 0: break;
   11255                 :             :       }
   11256                 :   145815722 :   ops.code = code;
   11257                 :   145815722 :   ops.type = type;
   11258                 :   145815722 :   ops.op0 = treeop0;
   11259                 :   145815722 :   ops.op1 = treeop1;
   11260                 :   145815722 :   ops.op2 = treeop2;
   11261                 :   145815722 :   ops.location = loc;
   11262                 :             : 
   11263                 :   291631444 :   ignore = (target == const0_rtx
   11264                 :   145815722 :             || ((CONVERT_EXPR_CODE_P (code)
   11265                 :   141098965 :                  || code == COND_EXPR || code == VIEW_CONVERT_EXPR)
   11266                 :      900686 :                 && TREE_CODE (type) == VOID_TYPE));
   11267                 :             : 
   11268                 :             :   /* An operation in what may be a bit-field type needs the
   11269                 :             :      result to be reduced to the precision of the bit-field type,
   11270                 :             :      which is narrower than that of the type's mode.  */
   11271                 :   291631155 :   reduce_bit_field = (!ignore
   11272                 :   141675352 :                       && INTEGRAL_TYPE_P (type)
   11273                 :    74162365 :                       && !type_has_mode_precision_p (type));
   11274                 :             : 
   11275                 :             :   /* If we are going to ignore this result, we need only do something
   11276                 :             :      if there is a side-effect somewhere in the expression.  If there
   11277                 :             :      is, short-circuit the most common cases here.  Note that we must
   11278                 :             :      not call expand_expr with anything but const0_rtx in case this
   11279                 :             :      is an initial expansion of a size that contains a PLACEHOLDER_EXPR.  */
   11280                 :             : 
   11281                 :     4140370 :   if (ignore)
   11282                 :             :     {
   11283                 :     4140370 :       if (! TREE_SIDE_EFFECTS (exp))
   11284                 :             :         return const0_rtx;
   11285                 :             : 
   11286                 :             :       /* Ensure we reference a volatile object even if value is ignored, but
   11287                 :             :          don't do this if all we are doing is taking its address.  */
   11288                 :     4140081 :       if (TREE_THIS_VOLATILE (exp)
   11289                 :           0 :           && TREE_CODE (exp) != FUNCTION_DECL
   11290                 :           0 :           && mode != VOIDmode && mode != BLKmode
   11291                 :           0 :           && modifier != EXPAND_CONST_ADDRESS)
   11292                 :             :         {
   11293                 :           0 :           temp = expand_expr (exp, NULL_RTX, VOIDmode, modifier);
   11294                 :           0 :           if (MEM_P (temp))
   11295                 :           0 :             copy_to_reg (temp);
   11296                 :           0 :           return const0_rtx;
   11297                 :             :         }
   11298                 :             : 
   11299                 :     4140081 :       if (TREE_CODE_CLASS (code) == tcc_unary
   11300                 :             :           || code == BIT_FIELD_REF
   11301                 :     4140081 :           || code == COMPONENT_REF
   11302                 :     4140081 :           || code == INDIRECT_REF)
   11303                 :           0 :         return expand_expr (treeop0, const0_rtx, VOIDmode,
   11304                 :           0 :                             modifier);
   11305                 :             : 
   11306                 :     4140081 :       else if (TREE_CODE_CLASS (code) == tcc_binary
   11307                 :     4140081 :                || TREE_CODE_CLASS (code) == tcc_comparison
   11308                 :     4140081 :                || code == ARRAY_REF || code == ARRAY_RANGE_REF)
   11309                 :             :         {
   11310                 :           0 :           expand_expr (treeop0, const0_rtx, VOIDmode, modifier);
   11311                 :           0 :           expand_expr (treeop1, const0_rtx, VOIDmode, modifier);
   11312                 :           0 :           return const0_rtx;
   11313                 :             :         }
   11314                 :             : 
   11315                 :             :       target = 0;
   11316                 :             :     }
   11317                 :             : 
   11318                 :   145815433 :   if (reduce_bit_field && modifier == EXPAND_STACK_PARM)
   11319                 :       29902 :     target = 0;
   11320                 :             : 
   11321                 :             :   /* Use subtarget as the target for operand 0 of a binary operation.  */
   11322                 :   145815433 :   subtarget = get_subtarget (target);
   11323                 :   145815433 :   original_target = target;
   11324                 :             : 
   11325                 :   145815433 :   switch (code)
   11326                 :             :     {
   11327                 :       10792 :     case LABEL_DECL:
   11328                 :       10792 :       {
   11329                 :       10792 :         tree function = decl_function_context (exp);
   11330                 :             : 
   11331                 :       10792 :         temp = label_rtx (exp);
   11332                 :       10792 :         temp = gen_rtx_LABEL_REF (Pmode, temp);
   11333                 :             : 
   11334                 :       10792 :         if (function != current_function_decl
   11335                 :        1262 :             && function != 0)
   11336                 :        1262 :           LABEL_REF_NONLOCAL_P (temp) = 1;
   11337                 :             : 
   11338                 :       10792 :         temp = gen_rtx_MEM (FUNCTION_MODE, temp);
   11339                 :       10792 :         return temp;
   11340                 :             :       }
   11341                 :             : 
   11342                 :    52107719 :     case SSA_NAME:
   11343                 :             :       /* ??? ivopts calls expander, without any preparation from
   11344                 :             :          out-of-ssa.  So fake instructions as if this was an access to the
   11345                 :             :          base variable.  This unnecessarily allocates a pseudo, see how we can
   11346                 :             :          reuse it, if partition base vars have it set already.  */
   11347                 :    52107719 :       if (!currently_expanding_to_rtl)
   11348                 :             :         {
   11349                 :           0 :           tree var = SSA_NAME_VAR (exp);
   11350                 :           0 :           if (var && DECL_RTL_SET_P (var))
   11351                 :           0 :             return DECL_RTL (var);
   11352                 :           0 :           return gen_raw_REG (TYPE_MODE (TREE_TYPE (exp)),
   11353                 :           0 :                               LAST_VIRTUAL_REGISTER + 1);
   11354                 :             :         }
   11355                 :             : 
   11356                 :    52107719 :       g = get_gimple_for_ssa_name (exp);
   11357                 :             :       /* For EXPAND_INITIALIZER try harder to get something simpler.  */
   11358                 :    52107719 :       if (g == NULL
   11359                 :    52107719 :           && modifier == EXPAND_INITIALIZER
   11360                 :          26 :           && !SSA_NAME_IS_DEFAULT_DEF (exp)
   11361                 :          11 :           && (optimize || !SSA_NAME_VAR (exp)
   11362                 :           1 :               || DECL_IGNORED_P (SSA_NAME_VAR (exp)))
   11363                 :          10 :           && is_gimple_assign (SSA_NAME_DEF_STMT (exp))
   11364                 :    52107727 :           && stmt_is_replaceable_p (SSA_NAME_DEF_STMT (exp)))
   11365                 :           6 :         g = SSA_NAME_DEF_STMT (exp);
   11366                 :    52107719 :       if (safe_is_a <gassign *> (g))
   11367                 :     8170932 :         return expand_expr_real_gassign (as_a<gassign *> (g), target, tmode,
   11368                 :     8170932 :                                          modifier, alt_rtl, inner_reference_p);
   11369                 :    43936787 :       else if (safe_is_a <gcall *> (g))
   11370                 :             :         {
   11371                 :             :           /* ???  internal call expansion doesn't follow the usual API
   11372                 :             :              of returning the destination RTX and being passed a desired
   11373                 :             :              target.  */
   11374                 :       39518 :           rtx dest = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
   11375                 :       39518 :           tree tmplhs = make_tree (TREE_TYPE (exp), dest);
   11376                 :       39518 :           gimple_call_set_lhs (g, tmplhs);
   11377                 :       39518 :           expand_internal_call (as_a <gcall *> (g));
   11378                 :       39518 :           gimple_call_set_lhs (g, exp);
   11379                 :       39518 :           return dest;
   11380                 :             :         }
   11381                 :             : 
   11382                 :    43897269 :       ssa_name = exp;
   11383                 :    43897269 :       decl_rtl = get_rtx_for_ssa_name (ssa_name);
   11384                 :    43897269 :       exp = SSA_NAME_VAR (ssa_name);
   11385                 :             :       /* Optimize and avoid to EXTEND_BITINIT doing anything if it is an
   11386                 :             :          SSA_NAME computed within the current function.  In such case the
   11387                 :             :          value have been already extended before.  While if it is a function
   11388                 :             :          parameter, result or some memory location, we need to be prepared
   11389                 :             :          for some other compiler leaving the bits uninitialized.  */
   11390                 :    17213184 :       if (!exp || VAR_P (exp))
   11391                 :             :         reduce_bit_field = false;
   11392                 :    43897269 :       goto expand_decl_rtl;
   11393                 :             : 
   11394                 :    18932238 :     case VAR_DECL:
   11395                 :             :       /* Allow accel compiler to handle variables that require special
   11396                 :             :          treatment, e.g. if they have been modified in some way earlier in
   11397                 :             :          compilation by the adjust_private_decl OpenACC hook.  */
   11398                 :    18932238 :       if (flag_openacc && targetm.goacc.expand_var_decl)
   11399                 :             :         {
   11400                 :           0 :           temp = targetm.goacc.expand_var_decl (exp);
   11401                 :           0 :           if (temp)
   11402                 :             :             return temp;
   11403                 :             :         }
   11404                 :             :       /* Expand const VAR_DECLs with CONSTRUCTOR initializers that
   11405                 :             :          have scalar integer modes to a reg via store_constructor.  */
   11406                 :    18932238 :       if (TREE_READONLY (exp)
   11407                 :     3331094 :           && !TREE_SIDE_EFFECTS (exp)
   11408                 :     3308680 :           && (modifier == EXPAND_NORMAL || modifier == EXPAND_STACK_PARM)
   11409                 :       14905 :           && immediate_const_ctor_p (DECL_INITIAL (exp))
   11410                 :          89 :           && SCALAR_INT_MODE_P (TYPE_MODE (TREE_TYPE (exp)))
   11411                 :          57 :           && crtl->emit.regno_pointer_align_length
   11412                 :    18932295 :           && !target)
   11413                 :             :         {
   11414                 :          31 :           target = gen_reg_rtx (TYPE_MODE (TREE_TYPE (exp)));
   11415                 :          31 :           store_constructor (DECL_INITIAL (exp), target, 0,
   11416                 :          31 :                              int_expr_size (DECL_INITIAL (exp)), false);
   11417                 :          31 :           return target;
   11418                 :             :         }
   11419                 :             :       /* ... fall through ...  */
   11420                 :             : 
   11421                 :    19516130 :     case PARM_DECL:
   11422                 :             :       /* If a static var's type was incomplete when the decl was written,
   11423                 :             :          but the type is complete now, lay out the decl now.  */
   11424                 :    19516130 :       if (DECL_SIZE (exp) == 0
   11425                 :       42508 :           && COMPLETE_OR_UNBOUND_ARRAY_TYPE_P (TREE_TYPE (exp))
   11426                 :    19558529 :           && (TREE_STATIC (exp) || DECL_EXTERNAL (exp)))
   11427                 :       42399 :         layout_decl (exp, 0);
   11428                 :             : 
   11429                 :             :       /* fall through */
   11430                 :             : 
   11431                 :    20918452 :     case FUNCTION_DECL:
   11432                 :    20918452 :     case RESULT_DECL:
   11433                 :    20918452 :       decl_rtl = DECL_RTL (exp);
   11434                 :    64815721 :     expand_decl_rtl:
   11435                 :    64815721 :       gcc_assert (decl_rtl);
   11436                 :             : 
   11437                 :             :       /* DECL_MODE might change when TYPE_MODE depends on attribute target
   11438                 :             :          settings for VECTOR_TYPE_P that might switch for the function.  */
   11439                 :    64815721 :       if (currently_expanding_to_rtl
   11440                 :    61178367 :           && code == VAR_DECL && MEM_P (decl_rtl)
   11441                 :    78803049 :           && VECTOR_TYPE_P (type) && exp && DECL_MODE (exp) != mode)
   11442                 :          57 :         decl_rtl = change_address (decl_rtl, TYPE_MODE (type), 0);
   11443                 :             :       else
   11444                 :    64815664 :         decl_rtl = copy_rtx (decl_rtl);
   11445                 :             : 
   11446                 :             :       /* Record writes to register variables.  */
   11447                 :    64815721 :       if (modifier == EXPAND_WRITE
   11448                 :    20663548 :           && REG_P (decl_rtl)
   11449                 :    79847307 :           && HARD_REGISTER_P (decl_rtl))
   11450                 :        2024 :         add_to_hard_reg_set (&crtl->asm_clobbers,
   11451                 :        2024 :                              GET_MODE (decl_rtl), REGNO (decl_rtl));
   11452                 :             : 
   11453                 :             :       /* Ensure variable marked as used even if it doesn't go through
   11454                 :             :          a parser.  If it hasn't be used yet, write out an external
   11455                 :             :          definition.  */
   11456                 :    64815721 :       if (exp)
   11457                 :    38131636 :         TREE_USED (exp) = 1;
   11458                 :             : 
   11459                 :             :       /* Show we haven't gotten RTL for this yet.  */
   11460                 :   102947357 :       temp = 0;
   11461                 :             : 
   11462                 :             :       /* Variables inherited from containing functions should have
   11463                 :             :          been lowered by this point.  */
   11464                 :    38131636 :       if (exp)
   11465                 :             :         {
   11466                 :    38131636 :           tree context = decl_function_context (exp);
   11467                 :    38131636 :           gcc_assert (SCOPE_FILE_SCOPE_P (context)
   11468                 :             :                       || context == current_function_decl
   11469                 :             :                       || TREE_STATIC (exp)
   11470                 :             :                       || DECL_EXTERNAL (exp)
   11471                 :             :                       /* ??? C++ creates functions that are not
   11472                 :             :                          TREE_STATIC.  */
   11473                 :             :                       || TREE_CODE (exp) == FUNCTION_DECL);
   11474                 :             :         }
   11475                 :             : 
   11476                 :             :       /* This is the case of an array whose size is to be determined
   11477                 :             :          from its initializer, while the initializer is still being parsed.
   11478                 :             :          ??? We aren't parsing while expanding anymore.  */
   11479                 :             : 
   11480                 :    64815721 :       if (MEM_P (decl_rtl) && REG_P (XEXP (decl_rtl, 0)))
   11481                 :      384946 :         temp = validize_mem (decl_rtl);
   11482                 :             : 
   11483                 :             :       /* If DECL_RTL is memory, we are in the normal case and the
   11484                 :             :          address is not valid, get the address into a register.  */
   11485                 :             : 
   11486                 :    64430775 :       else if (MEM_P (decl_rtl) && modifier != EXPAND_INITIALIZER)
   11487                 :             :         {
   11488                 :    17749322 :           if (alt_rtl)
   11489                 :     2014407 :             *alt_rtl = decl_rtl;
   11490                 :    17749322 :           decl_rtl = use_anchored_address (decl_rtl);
   11491                 :    17749322 :           if (modifier != EXPAND_CONST_ADDRESS
   11492                 :    17749322 :               && modifier != EXPAND_SUM
   11493                 :    29668090 :               && !memory_address_addr_space_p (exp ? DECL_MODE (exp)
   11494                 :       16947 :                                                : GET_MODE (decl_rtl),
   11495                 :             :                                                XEXP (decl_rtl, 0),
   11496                 :    11918768 :                                                MEM_ADDR_SPACE (decl_rtl)))
   11497                 :      133746 :             temp = replace_equiv_address (decl_rtl,
   11498                 :             :                                           copy_rtx (XEXP (decl_rtl, 0)));
   11499                 :             :         }
   11500                 :             : 
   11501                 :             :       /* If we got something, return it.  But first, set the alignment
   11502                 :             :          if the address is a register.  */
   11503                 :    18134268 :       if (temp != 0)
   11504                 :             :         {
   11505                 :      518692 :           if (exp && MEM_P (temp) && REG_P (XEXP (temp, 0)))
   11506                 :      489274 :             mark_reg_pointer (XEXP (temp, 0), DECL_ALIGN (exp));
   11507                 :             :         }
   11508                 :    64297029 :       else if (MEM_P (decl_rtl))
   11509                 :             :         temp = decl_rtl;
   11510                 :             : 
   11511                 :    43690051 :       if (temp != 0)
   11512                 :             :         {
   11513                 :    21614954 :           if (MEM_P (temp)
   11514                 :             :               && modifier != EXPAND_WRITE
   11515                 :    21614954 :               && modifier != EXPAND_MEMORY
   11516                 :             :               && modifier != EXPAND_INITIALIZER
   11517                 :    15877673 :               && modifier != EXPAND_CONST_ADDRESS
   11518                 :     6722858 :               && modifier != EXPAND_SUM
   11519                 :     6722858 :               && !inner_reference_p
   11520                 :     4371188 :               && mode != BLKmode
   11521                 :    25618850 :               && MEM_ALIGN (temp) < GET_MODE_ALIGNMENT (mode))
   11522                 :       18571 :             temp = expand_misaligned_mem_ref (temp, mode, unsignedp,
   11523                 :       18571 :                                               MEM_ALIGN (temp), NULL_RTX, NULL);
   11524                 :             : 
   11525                 :    21614954 :           return EXTEND_BITINT (temp);
   11526                 :             :         }
   11527                 :             : 
   11528                 :    43200767 :       if (exp)
   11529                 :    16533639 :         dmode = DECL_MODE (exp);
   11530                 :             :       else
   11531                 :    26667128 :         dmode = TYPE_MODE (TREE_TYPE (ssa_name));
   11532                 :             : 
   11533                 :             :       /* If the mode of DECL_RTL does not match that of the decl,
   11534                 :             :          there are two cases: we are dealing with a BLKmode value
   11535                 :             :          that is returned in a register, or we are dealing with
   11536                 :             :          a promoted value.  In the latter case, return a SUBREG
   11537                 :             :          of the wanted mode, but mark it so that we know that it
   11538                 :             :          was already extended.  */
   11539                 :    43200767 :       if (REG_P (decl_rtl)
   11540                 :    42686244 :           && dmode != BLKmode
   11541                 :    42686244 :           && GET_MODE (decl_rtl) != dmode)
   11542                 :             :         {
   11543                 :          69 :           machine_mode pmode;
   11544                 :             : 
   11545                 :             :           /* Get the signedness to be used for this variable.  Ensure we get
   11546                 :             :              the same mode we got when the variable was declared.  */
   11547                 :          69 :           if (code != SSA_NAME)
   11548                 :           0 :             pmode = promote_decl_mode (exp, &unsignedp);
   11549                 :          69 :           else if ((g = SSA_NAME_DEF_STMT (ssa_name))
   11550                 :          69 :                    && gimple_code (g) == GIMPLE_CALL
   11551                 :          71 :                    && !gimple_call_internal_p (g))
   11552                 :           2 :             pmode = promote_function_mode (type, mode, &unsignedp,
   11553                 :           2 :                                            gimple_call_fntype (g),
   11554                 :             :                                            2);
   11555                 :             :           else
   11556                 :          67 :             pmode = promote_ssa_mode (ssa_name, &unsignedp);
   11557                 :          69 :           gcc_assert (GET_MODE (decl_rtl) == pmode);
   11558                 :             : 
   11559                 :             :           /* Some ABIs require scalar floating point modes to be passed
   11560                 :             :              in a wider scalar integer mode.  We need to explicitly
   11561                 :             :              truncate to an integer mode of the correct precision before
   11562                 :             :              using a SUBREG to reinterpret as a floating point value.  */
   11563                 :          69 :           if (SCALAR_FLOAT_MODE_P (mode)
   11564                 :           0 :               && SCALAR_INT_MODE_P (pmode)
   11565                 :          69 :               && known_lt (GET_MODE_SIZE (mode), GET_MODE_SIZE (pmode)))
   11566                 :           0 :             return convert_wider_int_to_float (mode, pmode, decl_rtl);
   11567                 :             : 
   11568                 :          69 :           temp = gen_lowpart_SUBREG (mode, decl_rtl);
   11569                 :          69 :           SUBREG_PROMOTED_VAR_P (temp) = 1;
   11570                 :          69 :           SUBREG_PROMOTED_SET (temp, unsignedp);
   11571                 :          69 :           return EXTEND_BITINT (temp);
   11572                 :             :         }
   11573                 :             : 
   11574                 :    43200698 :       return EXTEND_BITINT (decl_rtl);
   11575                 :             : 
   11576                 :    38883075 :     case INTEGER_CST:
   11577                 :    38883075 :       {
   11578                 :    38883075 :         if (TREE_CODE (type) == BITINT_TYPE)
   11579                 :             :           {
   11580                 :       10232 :             unsigned int prec = TYPE_PRECISION (type);
   11581                 :       10232 :             struct bitint_info info;
   11582                 :       10232 :             bool ok = targetm.c.bitint_type_info (prec, &info);
   11583                 :       10232 :             gcc_assert (ok);
   11584                 :       10232 :             scalar_int_mode limb_mode
   11585                 :       10232 :               = as_a <scalar_int_mode> (info.limb_mode);
   11586                 :       10232 :             unsigned int limb_prec = GET_MODE_PRECISION (limb_mode);
   11587                 :       16920 :             if (prec > limb_prec && prec > MAX_FIXED_MODE_SIZE)
   11588                 :             :               {
   11589                 :             :                 /* Emit large/huge _BitInt INTEGER_CSTs into memory.  */
   11590                 :        4268 :                 exp = tree_output_constant_def (exp);
   11591                 :        4268 :                 return expand_expr (exp, target, VOIDmode, modifier);
   11592                 :             :               }
   11593                 :             :           }
   11594                 :             : 
   11595                 :             :         /* Given that TYPE_PRECISION (type) is not always equal to
   11596                 :             :            GET_MODE_PRECISION (TYPE_MODE (type)), we need to extend from
   11597                 :             :            the former to the latter according to the signedness of the
   11598                 :             :            type.  */
   11599                 :    38878807 :         scalar_int_mode int_mode = SCALAR_INT_TYPE_MODE (type);
   11600                 :    38878807 :         temp = immed_wide_int_const
   11601                 :    38878807 :           (wi::to_wide (exp, GET_MODE_PRECISION (int_mode)), int_mode);
   11602                 :    38878807 :         return temp;
   11603                 :             :       }
   11604                 :             : 
   11605                 :      524163 :     case VECTOR_CST:
   11606                 :      524163 :       {
   11607                 :      524163 :         tree tmp = NULL_TREE;
   11608                 :      524163 :         if (VECTOR_MODE_P (mode))
   11609                 :      522302 :           return const_vector_from_tree (exp);
   11610                 :        1861 :         scalar_int_mode int_mode;
   11611                 :        1861 :         if (is_int_mode (mode, &int_mode))
   11612                 :             :           {
   11613                 :         183 :             tree type_for_mode = lang_hooks.types.type_for_mode (int_mode, 1);
   11614                 :         183 :             if (type_for_mode)
   11615                 :         183 :               tmp = fold_unary_loc (loc, VIEW_CONVERT_EXPR,
   11616                 :             :                                     type_for_mode, exp);
   11617                 :             :           }
   11618                 :         183 :         if (!tmp)
   11619                 :             :           {
   11620                 :        1678 :             vec<constructor_elt, va_gc> *v;
   11621                 :             :             /* Constructors need to be fixed-length.  FIXME.  */
   11622                 :        1678 :             unsigned int nunits = VECTOR_CST_NELTS (exp).to_constant ();
   11623                 :        1678 :             vec_alloc (v, nunits);
   11624                 :       24229 :             for (unsigned int i = 0; i < nunits; ++i)
   11625                 :       22551 :               CONSTRUCTOR_APPEND_ELT (v, NULL_TREE, VECTOR_CST_ELT (exp, i));
   11626                 :        1678 :             tmp = build_constructor (type, v);
   11627                 :             :           }
   11628                 :        1861 :         return expand_expr (tmp, ignore ? const0_rtx : target,
   11629                 :        1861 :                             tmode, modifier);
   11630                 :             :       }
   11631                 :             : 
   11632                 :         127 :     case CONST_DECL:
   11633                 :         127 :       if (modifier == EXPAND_WRITE)
   11634                 :             :         {
   11635                 :             :           /* Writing into CONST_DECL is always invalid, but handle it
   11636                 :             :              gracefully.  */
   11637                 :           2 :           addr_space_t as = TYPE_ADDR_SPACE (TREE_TYPE (exp));
   11638                 :           2 :           scalar_int_mode address_mode = targetm.addr_space.address_mode (as);
   11639                 :           2 :           op0 = expand_expr_addr_expr_1 (exp, NULL_RTX, address_mode,
   11640                 :             :                                          EXPAND_NORMAL, as);
   11641                 :           2 :           op0 = memory_address_addr_space (mode, op0, as);
   11642                 :           2 :           temp = gen_rtx_MEM (mode, op0);
   11643                 :           2 :           set_mem_addr_space (temp, as);
   11644                 :           2 :           return temp;
   11645                 :             :         }
   11646                 :         125 :       return expand_expr (DECL_INITIAL (exp), target, VOIDmode, modifier);
   11647                 :             : 
   11648                 :      849409 :     case REAL_CST:
   11649                 :             :       /* If optimized, generate immediate CONST_DOUBLE
   11650                 :             :          which will be turned into memory by reload if necessary.
   11651                 :             : 
   11652                 :             :          We used to force a register so that loop.c could see it.  But
   11653                 :             :          this does not allow gen_* patterns to perform optimizations with
   11654                 :             :          the constants.  It also produces two insns in cases like "x = 1.0;".
   11655                 :             :          On most machines, floating-point constants are not permitted in
   11656                 :             :          many insns, so we'd end up copying it to a register in any case.
   11657                 :             : 
   11658                 :             :          Now, we do the copying in expand_binop, if appropriate.  */
   11659                 :      849409 :       return const_double_from_real_value (TREE_REAL_CST (exp),
   11660                 :     1698818 :                                            TYPE_MODE (TREE_TYPE (exp)));
   11661                 :             : 
   11662                 :           0 :     case FIXED_CST:
   11663                 :           0 :       return CONST_FIXED_FROM_FIXED_VALUE (TREE_FIXED_CST (exp),
   11664                 :             :                                            TYPE_MODE (TREE_TYPE (exp)));
   11665                 :             : 
   11666                 :       18354 :     case COMPLEX_CST:
   11667                 :             :       /* Handle evaluating a complex constant in a CONCAT target.  */
   11668                 :       18354 :       if (original_target && GET_CODE (original_target) == CONCAT)
   11669                 :             :         {
   11670                 :         218 :           rtx rtarg, itarg;
   11671                 :             : 
   11672                 :         218 :           mode = TYPE_MODE (TREE_TYPE (TREE_TYPE (exp)));
   11673                 :         218 :           rtarg = XEXP (original_target, 0);
   11674                 :         218 :           itarg = XEXP (original_target, 1);
   11675                 :             : 
   11676                 :             :           /* Move the real and imaginary parts separately.  */
   11677                 :         218 :           op0 = expand_expr (TREE_REALPART (exp), rtarg, mode, EXPAND_NORMAL);
   11678                 :         218 :           op1 = expand_expr (TREE_IMAGPART (exp), itarg, mode, EXPAND_NORMAL);
   11679                 :             : 
   11680                 :         218 :           if (op0 != rtarg)
   11681                 :         218 :             emit_move_insn (rtarg, op0);
   11682                 :         218 :           if (op1 != itarg)
   11683                 :         218 :             emit_move_insn (itarg, op1);
   11684                 :             : 
   11685                 :         218 :           return original_target;
   11686                 :             :         }
   11687                 :             : 
   11688                 :             :       /* fall through */
   11689                 :             : 
   11690                 :      155351 :     case STRING_CST:
   11691                 :      155351 :       temp = expand_expr_constant (exp, 1, modifier);
   11692                 :             : 
   11693                 :             :       /* temp contains a constant address.
   11694                 :             :          On RISC machines where a constant address isn't valid,
   11695                 :             :          make some insns to get that address into a register.  */
   11696                 :      155351 :       if (modifier != EXPAND_CONST_ADDRESS
   11697                 :             :           && modifier != EXPAND_INITIALIZER
   11698                 :      155351 :           && modifier != EXPAND_SUM
   11699                 :      173921 :           && ! memory_address_addr_space_p (mode, XEXP (temp, 0),
   11700                 :       18570 :                                             MEM_ADDR_SPACE (temp)))
   11701                 :          12 :         return replace_equiv_address (temp,
   11702                 :          12 :                                       copy_rtx (XEXP (temp, 0)));
   11703                 :             :       return temp;
   11704                 :             : 
   11705                 :           0 :     case POLY_INT_CST:
   11706                 :           0 :       return immed_wide_int_const (poly_int_cst_value (exp), mode);
   11707                 :             : 
   11708                 :        1333 :     case SAVE_EXPR:
   11709                 :        1333 :       {
   11710                 :        1333 :         tree val = treeop0;
   11711                 :        1333 :         rtx ret = expand_expr_real_1 (val, target, tmode, modifier, alt_rtl,
   11712                 :             :                                       inner_reference_p);
   11713                 :             : 
   11714                 :        1333 :         if (!SAVE_EXPR_RESOLVED_P (exp))
   11715                 :             :           {
   11716                 :             :             /* We can indeed still hit this case, typically via builtin
   11717                 :             :                expanders calling save_expr immediately before expanding
   11718                 :             :                something.  Assume this means that we only have to deal
   11719                 :             :                with non-BLKmode values.  */
   11720                 :        1309 :             gcc_assert (GET_MODE (ret) != BLKmode);
   11721                 :             : 
   11722                 :        1309 :             val = build_decl (curr_insn_location (),
   11723                 :        1309 :                               VAR_DECL, NULL, TREE_TYPE (exp));
   11724                 :        1309 :             DECL_ARTIFICIAL (val) = 1;
   11725                 :        1309 :             DECL_IGNORED_P (val) = 1;
   11726                 :        1309 :             treeop0 = val;
   11727                 :        1309 :             TREE_OPERAND (exp, 0) = treeop0;
   11728                 :        1309 :             SAVE_EXPR_RESOLVED_P (exp) = 1;
   11729                 :             : 
   11730                 :        1309 :             if (!CONSTANT_P (ret))
   11731                 :        1309 :               ret = copy_to_reg (ret);
   11732                 :        1309 :             SET_DECL_RTL (val, ret);
   11733                 :             :           }
   11734                 :             : 
   11735                 :             :         return ret;
   11736                 :             :       }
   11737                 :             : 
   11738                 :             : 
   11739                 :      180498 :     case CONSTRUCTOR:
   11740                 :             :       /* If we don't need the result, just ensure we evaluate any
   11741                 :             :          subexpressions.  */
   11742                 :      180498 :       if (ignore)
   11743                 :             :         {
   11744                 :             :           unsigned HOST_WIDE_INT idx;
   11745                 :             :           tree value;
   11746                 :             : 
   11747                 :           0 :           FOR_EACH_CONSTRUCTOR_VALUE (CONSTRUCTOR_ELTS (exp), idx, value)
   11748                 :           0 :             expand_expr (value, const0_rtx, VOIDmode, EXPAND_NORMAL);
   11749                 :             : 
   11750                 :           0 :           return const0_rtx;
   11751                 :             :         }
   11752                 :             : 
   11753                 :      180498 :       return expand_constructor (exp, target, modifier, false);
   11754                 :             : 
   11755                 :      769628 :     case TARGET_MEM_REF:
   11756                 :      769628 :       {
   11757                 :      769628 :         addr_space_t as
   11758                 :      769628 :           = TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))));
   11759                 :      769628 :         unsigned int align;
   11760                 :             : 
   11761                 :      769628 :         op0 = addr_for_mem_ref (exp, as, true);
   11762                 :      769628 :         op0 = memory_address_addr_space (mode, op0, as);
   11763                 :      769628 :         temp = gen_rtx_MEM (mode, op0);
   11764                 :      769628 :         set_mem_attributes (temp, exp, 0);
   11765                 :      769628 :         set_mem_addr_space (temp, as);
   11766                 :      769628 :         align = get_object_alignment (exp);
   11767                 :      769628 :         if (modifier != EXPAND_WRITE
   11768                 :      769628 :             && modifier != EXPAND_MEMORY
   11769                 :      536021 :             && mode != BLKmode
   11770                 :     1300409 :             && align < GET_MODE_ALIGNMENT (mode))
   11771                 :       45836 :           temp = expand_misaligned_mem_ref (temp, mode, unsignedp,
   11772                 :             :                                             align, NULL_RTX, NULL);
   11773                 :      769628 :         return EXTEND_BITINT (temp);
   11774                 :             :       }
   11775                 :             : 
   11776                 :     5820527 :     case MEM_REF:
   11777                 :     5820527 :       {
   11778                 :     5820527 :         const bool reverse = REF_REVERSE_STORAGE_ORDER (exp);
   11779                 :     5820527 :         addr_space_t as
   11780                 :     5820527 :           = TYPE_ADDR_SPACE (TREE_TYPE (TREE_TYPE (TREE_OPERAND (exp, 0))));
   11781                 :     5820527 :         machine_mode address_mode;
   11782                 :     5820527 :         tree base = TREE_OPERAND (exp, 0);
   11783                 :     5820527 :         gimple *def_stmt;
   11784                 :     5820527 :         unsigned align;
   11785                 :             :         /* Handle expansion of non-aliased memory with non-BLKmode.  That
   11786                 :             :            might end up in a register.  */
   11787                 :     5820527 :         if (mem_ref_refers_to_non_mem_p (exp))
   11788                 :             :           {
   11789                 :       56757 :             poly_int64 offset = mem_ref_offset (exp).force_shwi ();
   11790                 :       56757 :             base = TREE_OPERAND (base, 0);
   11791                 :       56757 :             poly_uint64 type_size;
   11792                 :       56757 :             if (known_eq (offset, 0)
   11793                 :       31636 :                 && !reverse
   11794                 :       31636 :                 && poly_int_tree_p (TYPE_SIZE (type), &type_size)
   11795                 :      120029 :                 && known_eq (GET_MODE_BITSIZE (DECL_MODE (base)), type_size))
   11796                 :       13450 :               return expand_expr (build1 (VIEW_CONVERT_EXPR, type, base),
   11797                 :       13450 :                                   target, tmode, modifier);
   11798                 :       43307 :             if (TYPE_MODE (type) == BLKmode)
   11799                 :             :               {
   11800                 :         191 :                 temp = assign_stack_temp (DECL_MODE (base),
   11801                 :         382 :                                           GET_MODE_SIZE (DECL_MODE (base)));
   11802                 :         191 :                 store_expr (base, temp, 0, false, false);
   11803                 :         191 :                 temp = adjust_address (temp, BLKmode, offset);
   11804                 :         191 :                 set_mem_size (temp, int_size_in_bytes (type));
   11805                 :         191 :                 return temp;
   11806                 :             :               }
   11807                 :       43116 :             exp = build3 (BIT_FIELD_REF, type, base, TYPE_SIZE (type),
   11808                 :             :                           bitsize_int (offset * BITS_PER_UNIT));
   11809                 :       43116 :             REF_REVERSE_STORAGE_ORDER (exp) = reverse;
   11810                 :       43116 :             return expand_expr (exp, target, tmode, modifier);
   11811                 :             :           }
   11812                 :     5763770 :         address_mode = targetm.addr_space.address_mode (as);
   11813                 :     5763770 :         if ((def_stmt = get_def_for_expr (base, BIT_AND_EXPR)))
   11814                 :             :           {
   11815                 :          39 :             tree mask = gimple_assign_rhs2 (def_stmt);
   11816                 :          39 :             base = build2 (BIT_AND_EXPR, TREE_TYPE (base),
   11817                 :             :                            gimple_assign_rhs1 (def_stmt), mask);
   11818                 :          39 :             TREE_OPERAND (exp, 0) = base;
   11819                 :             :           }
   11820                 :     5763770 :         align = get_object_alignment (exp);
   11821                 :     5763770 :         op0 = expand_expr (base, NULL_RTX, VOIDmode, EXPAND_SUM);
   11822                 :     5763770 :         op0 = memory_address_addr_space (mode, op0, as);
   11823                 :     5763770 :         if (!integer_zerop (TREE_OPERAND (exp, 1)))
   11824                 :             :           {
   11825                 :     1641307 :             rtx off = immed_wide_int_const (mem_ref_offset (exp), address_mode);
   11826                 :     1641307 :             op0 = simplify_gen_binary (PLUS, address_mode, op0, off);
   11827                 :     1641307 :             op0 = memory_address_addr_space (mode, op0, as);
   11828                 :             :           }
   11829                 :     5763770 :         temp = gen_rtx_MEM (mode, op0);
   11830                 :     5763770 :         set_mem_attributes (temp, exp, 0);
   11831                 :     5763770 :         set_mem_addr_space (temp, as);
   11832                 :     5763770 :         if (TREE_THIS_VOLATILE (exp))
   11833                 :       11253 :           MEM_VOLATILE_P (temp) = 1;
   11834                 :     5763770 :         if (modifier == EXPAND_WRITE || modifier == EXPAND_MEMORY)
   11835                 :             :           return temp;
   11836                 :     3528476 :         if (!inner_reference_p
   11837                 :     1767808 :             && mode != BLKmode
   11838                 :     5238279 :             && align < GET_MODE_ALIGNMENT (mode))
   11839                 :      124886 :           temp = expand_misaligned_mem_ref (temp, mode, unsignedp, align,
   11840                 :             :                                             modifier == EXPAND_STACK_PARM
   11841                 :             :                                             ? NULL_RTX : target, alt_rtl);
   11842                 :     3528476 :         if (reverse)
   11843                 :           7 :           temp = flip_storage_order (mode, temp);
   11844                 :     3528476 :         return EXTEND_BITINT (temp);
   11845                 :             :       }
   11846                 :             : 
   11847                 :      587724 :     case ARRAY_REF:
   11848                 :             : 
   11849                 :      587724 :       {
   11850                 :      587724 :         tree array = treeop0;
   11851                 :      587724 :         tree index = treeop1;
   11852                 :      587724 :         tree init;
   11853                 :             : 
   11854                 :             :         /* Fold an expression like: "foo"[2].
   11855                 :             :            This is not done in fold so it won't happen inside &.
   11856                 :             :            Don't fold if this is for wide characters since it's too
   11857                 :             :            difficult to do correctly and this is a very rare case.  */
   11858                 :             : 
   11859                 :      587724 :         if (modifier != EXPAND_CONST_ADDRESS
   11860                 :      587724 :             && modifier != EXPAND_INITIALIZER
   11861                 :      587724 :             && modifier != EXPAND_MEMORY)
   11862                 :             :           {
   11863                 :      587615 :             tree t = fold_read_from_constant_string (exp);
   11864                 :             : 
   11865                 :      587615 :             if (t)
   11866                 :           0 :               return expand_expr (t, target, tmode, modifier);
   11867                 :             :           }
   11868                 :             : 
   11869                 :             :         /* If this is a constant index into a constant array,
   11870                 :             :            just get the value from the array.  Handle both the cases when
   11871                 :             :            we have an explicit constructor and when our operand is a variable
   11872                 :             :            that was declared const.  */
   11873                 :             : 
   11874                 :      587724 :         if (modifier != EXPAND_CONST_ADDRESS
   11875                 :             :             && modifier != EXPAND_INITIALIZER
   11876                 :             :             && modifier != EXPAND_MEMORY
   11877                 :      587615 :             && TREE_CODE (array) == CONSTRUCTOR
   11878                 :           0 :             && ! TREE_SIDE_EFFECTS (array)
   11879                 :      587724 :             && TREE_CODE (index) == INTEGER_CST)
   11880                 :             :           {
   11881                 :             :             unsigned HOST_WIDE_INT ix;
   11882                 :             :             tree field, value;
   11883                 :             : 
   11884                 :           0 :             FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (array), ix,
   11885                 :             :                                       field, value)
   11886                 :           0 :               if (tree_int_cst_equal (field, index))
   11887                 :             :                 {
   11888                 :           0 :                   if (!TREE_SIDE_EFFECTS (value)
   11889                 :           0 :                       && TREE_CODE (value) != RAW_DATA_CST)
   11890                 :           0 :                     return expand_expr (fold (value), target, tmode, modifier);
   11891                 :             :                   break;
   11892                 :             :                 }
   11893                 :             :           }
   11894                 :             : 
   11895                 :      587724 :         else if (optimize >= 1
   11896                 :             :                  && modifier != EXPAND_CONST_ADDRESS
   11897                 :      326017 :                  && modifier != EXPAND_INITIALIZER
   11898                 :      326017 :                  && modifier != EXPAND_MEMORY
   11899                 :      325912 :                  && TREE_READONLY (array) && ! TREE_SIDE_EFFECTS (array)
   11900                 :        7611 :                  && TREE_CODE (index) == INTEGER_CST
   11901                 :        1580 :                  && (VAR_P (array) || TREE_CODE (array) == CONST_DECL)
   11902                 :      587868 :                  && (init = ctor_for_folding (array)) != error_mark_node)
   11903                 :             :           {
   11904                 :          98 :             if (init == NULL_TREE)
   11905                 :             :               {
   11906                 :           5 :                 tree value = build_zero_cst (type);
   11907                 :           5 :                 if (TREE_CODE (value) == CONSTRUCTOR)
   11908                 :             :                   {
   11909                 :             :                     /* If VALUE is a CONSTRUCTOR, this optimization is only
   11910                 :             :                        useful if this doesn't store the CONSTRUCTOR into
   11911                 :             :                        memory.  If it does, it is more efficient to just
   11912                 :             :                        load the data from the array directly.  */
   11913                 :           5 :                     rtx ret = expand_constructor (value, target,
   11914                 :             :                                                   modifier, true);
   11915                 :           5 :                     if (ret == NULL_RTX)
   11916                 :             :                       value = NULL_TREE;
   11917                 :             :                   }
   11918                 :             : 
   11919                 :             :                 if (value)
   11920                 :           0 :                   return expand_expr (value, target, tmode, modifier);
   11921                 :             :               }
   11922                 :          93 :             else if (TREE_CODE (init) == CONSTRUCTOR)
   11923                 :             :               {
   11924                 :             :                 unsigned HOST_WIDE_INT ix;
   11925                 :             :                 tree field, value;
   11926                 :             : 
   11927                 :         190 :                 FOR_EACH_CONSTRUCTOR_ELT (CONSTRUCTOR_ELTS (init), ix,
   11928                 :             :                                           field, value)
   11929                 :         165 :                   if (tree_int_cst_equal (field, index))
   11930                 :             :                     {
   11931                 :          67 :                       if (TREE_SIDE_EFFECTS (value)
   11932                 :          67 :                           || TREE_CODE (value) == RAW_DATA_CST)
   11933                 :             :                         break;
   11934                 :             : 
   11935                 :          67 :                       if (TREE_CODE (value) == CONSTRUCTOR)
   11936                 :             :                         {
   11937                 :             :                           /* If VALUE is a CONSTRUCTOR, this
   11938                 :             :                              optimization is only useful if
   11939                 :             :                              this doesn't store the CONSTRUCTOR
   11940                 :             :                              into memory.  If it does, it is more
   11941                 :             :                              efficient to just load the data from
   11942                 :             :                              the array directly.  */
   11943                 :          62 :                           rtx ret = expand_constructor (value, target,
   11944                 :             :                                                         modifier, true);
   11945                 :          62 :                           if (ret == NULL_RTX)
   11946                 :             :                             break;
   11947                 :             :                         }
   11948                 :             : 
   11949                 :          29 :                       return expand_expr (fold (value), target, tmode,
   11950                 :          29 :                                           modifier);
   11951                 :             :                     }
   11952                 :             :               }
   11953                 :           1 :             else if (TREE_CODE (init) == STRING_CST)
   11954                 :             :               {
   11955                 :           1 :                 tree low_bound = array_ref_low_bound (exp);
   11956                 :           1 :                 tree index1 = fold_convert_loc (loc, sizetype, treeop1);
   11957                 :             : 
   11958                 :             :                 /* Optimize the special case of a zero lower bound.
   11959                 :             : 
   11960                 :             :                    We convert the lower bound to sizetype to avoid problems
   11961                 :             :                    with constant folding.  E.g. suppose the lower bound is
   11962                 :             :                    1 and its mode is QI.  Without the conversion
   11963                 :             :                       (ARRAY + (INDEX - (unsigned char)1))
   11964                 :             :                    becomes
   11965                 :             :                       (ARRAY + (-(unsigned char)1) + INDEX)
   11966                 :             :                    which becomes
   11967                 :             :                       (ARRAY + 255 + INDEX).  Oops!  */
   11968                 :           1 :                 if (!integer_zerop (low_bound))
   11969                 :           0 :                   index1 = size_diffop_loc (loc, index1,
   11970                 :             :                                             fold_convert_loc (loc, sizetype,
   11971                 :             :                                                               low_bound));
   11972                 :             : 
   11973                 :           1 :                 if (tree_fits_uhwi_p (index1)
   11974                 :           2 :                     && compare_tree_int (index1, TREE_STRING_LENGTH (init)) < 0)
   11975                 :             :                   {
   11976                 :           0 :                     tree char_type = TREE_TYPE (TREE_TYPE (init));
   11977                 :           0 :                     scalar_int_mode char_mode;
   11978                 :             : 
   11979                 :      587695 :                     if (is_int_mode (TYPE_MODE (char_type), &char_mode)
   11980                 :           0 :                         && GET_MODE_SIZE (char_mode) == 1)
   11981                 :           0 :                       return gen_int_mode (TREE_STRING_POINTER (init)
   11982                 :           0 :                                            [TREE_INT_CST_LOW (index1)],
   11983                 :             :                                            char_mode);
   11984                 :             :                   }
   11985                 :             :               }
   11986                 :             :           }
   11987                 :             :       }
   11988                 :      587695 :       goto normal_inner_ref;
   11989                 :             : 
   11990                 :     3652983 :     case COMPONENT_REF:
   11991                 :     3652983 :       gcc_assert (TREE_CODE (treeop0) != CONSTRUCTOR);
   11992                 :             :       /* Fall through.  */
   11993                 :     4473191 :     case BIT_FIELD_REF:
   11994                 :     4473191 :     case ARRAY_RANGE_REF:
   11995                 :     3652983 :     normal_inner_ref:
   11996                 :     4473191 :       {
   11997                 :     4473191 :         machine_mode mode1, mode2;
   11998                 :     4473191 :         poly_int64 bitsize, bitpos, bytepos;
   11999                 :     4473191 :         tree offset;
   12000                 :     4473191 :         int reversep, volatilep = 0;
   12001                 :     4473191 :         tree tem
   12002                 :     4473191 :           = get_inner_reference (exp, &bitsize, &bitpos, &offset, &mode1,
   12003                 :             :                                  &unsignedp, &reversep, &volatilep);
   12004                 :     4473191 :         rtx orig_op0, memloc;
   12005                 :     4473191 :         bool clear_mem_expr = false;
   12006                 :     4473191 :         bool must_force_mem;
   12007                 :             : 
   12008                 :             :         /* If we got back the original object, something is wrong.  Perhaps
   12009                 :             :            we are evaluating an expression too early.  In any event, don't
   12010                 :             :            infinitely recurse.  */
   12011                 :     4473191 :         gcc_assert (tem != exp);
   12012                 :             : 
   12013                 :             :         /* Make sure bitpos is not negative, this can wreak havoc later.  */
   12014                 :     4473191 :         if (maybe_lt (bitpos, 0))
   12015                 :             :           {
   12016                 :         256 :             gcc_checking_assert (offset == NULL_TREE);
   12017                 :         256 :             offset = size_int (bits_to_bytes_round_down (bitpos));
   12018                 :         256 :             bitpos = num_trailing_bits (bitpos);
   12019                 :             :           }
   12020                 :             : 
   12021                 :             :         /* If we have either an offset, a BLKmode result, or a reference
   12022                 :             :            outside the underlying object, we must force it to memory.
   12023                 :             :            Such a case can occur in Ada if we have unchecked conversion
   12024                 :             :            of an expression from a scalar type to an aggregate type or
   12025                 :             :            for an ARRAY_RANGE_REF whose type is BLKmode, or if we were
   12026                 :             :            passed a partially uninitialized object or a view-conversion
   12027                 :             :            to a larger size.  */
   12028                 :     8946382 :         must_force_mem = offset != NULL_TREE
   12029                 :     4207213 :                          || mode1 == BLKmode
   12030                 :     8609081 :                          || (mode == BLKmode
   12031                 :           0 :                              && !int_mode_for_size (bitsize, 1).exists ());
   12032                 :             : 
   12033                 :      337301 :         const enum expand_modifier tem_modifier
   12034                 :             :           = must_force_mem
   12035                 :             :             ? EXPAND_MEMORY
   12036                 :     4135890 :             : modifier == EXPAND_SUM ? EXPAND_NORMAL : modifier;
   12037                 :             : 
   12038                 :             :         /* If TEM's type is a union of variable size, pass TARGET to the inner
   12039                 :             :            computation, since it will need a temporary and TARGET is known
   12040                 :             :            to have to do.  This occurs in unchecked conversion in Ada.  */
   12041                 :     4473191 :         const rtx tem_target
   12042                 :     4473191 :           = TREE_CODE (TREE_TYPE (tem)) == UNION_TYPE
   12043                 :       33543 :             && COMPLETE_TYPE_P (TREE_TYPE (tem))
   12044                 :       33538 :             && TREE_CODE (TYPE_SIZE (TREE_TYPE (tem))) != INTEGER_CST
   12045                 :           0 :             && modifier != EXPAND_STACK_PARM
   12046                 :     4473191 :             ? target
   12047                 :     4473191 :             : NULL_RTX;
   12048                 :             : 
   12049                 :     8946382 :         orig_op0 = op0
   12050                 :     4473191 :           = expand_expr_real (tem, tem_target, VOIDmode, tem_modifier, NULL,
   12051                 :             :                               true);
   12052                 :             : 
   12053                 :             :         /* If the field has a mode, we want to access it in the
   12054                 :             :            field's mode, not the computed mode.
   12055                 :             :            If a MEM has VOIDmode (external with incomplete type),
   12056                 :             :            use BLKmode for it instead.  */
   12057                 :     4473191 :         if (MEM_P (op0))
   12058                 :             :           {
   12059                 :     4104840 :             if (mode1 != VOIDmode)
   12060                 :     3936800 :               op0 = adjust_address (op0, mode1, 0);
   12061                 :      168040 :             else if (GET_MODE (op0) == VOIDmode)
   12062                 :           0 :               op0 = adjust_address (op0, BLKmode, 0);
   12063                 :             :           }
   12064                 :             : 
   12065                 :     4473191 :         mode2
   12066                 :     4473191 :           = CONSTANT_P (op0) ? TYPE_MODE (TREE_TYPE (tem)) : GET_MODE (op0);
   12067                 :             : 
   12068                 :             :         /* See above for the rationale.  */
   12069                 :     8946382 :         if (maybe_gt (bitpos + bitsize, GET_MODE_BITSIZE (mode2)))
   12070                 :     2791616 :           must_force_mem = true;
   12071                 :             : 
   12072                 :             :         /* Handle CONCAT first.  */
   12073                 :     4473191 :         if (GET_CODE (op0) == CONCAT && !must_force_mem)
   12074                 :             :           {
   12075                 :         120 :             if (known_eq (bitpos, 0)
   12076                 :         218 :                 && known_eq (bitsize, GET_MODE_BITSIZE (GET_MODE (op0)))
   12077                 :         106 :                 && COMPLEX_MODE_P (mode1)
   12078                 :         101 :                 && COMPLEX_MODE_P (GET_MODE (op0))
   12079                 :         423 :                 && (GET_MODE_PRECISION (GET_MODE_INNER (mode1))
   12080                 :         202 :                     == GET_MODE_PRECISION (GET_MODE_INNER (GET_MODE (op0)))))
   12081                 :             :               {
   12082                 :         101 :                 if (reversep)
   12083                 :           0 :                   op0 = flip_storage_order (GET_MODE (op0), op0);
   12084                 :         101 :                 if (mode1 != GET_MODE (op0))
   12085                 :             :                   {
   12086                 :             :                     rtx parts[2];
   12087                 :           0 :                     for (int i = 0; i < 2; i++)
   12088                 :             :                       {
   12089                 :           0 :                         rtx op = read_complex_part (op0, i != 0);
   12090                 :           0 :                         if (GET_CODE (op) == SUBREG)
   12091                 :           0 :                           op = force_reg (GET_MODE (op), op);
   12092                 :           0 :                         temp = gen_lowpart_common (GET_MODE_INNER (mode1), op);
   12093                 :           0 :                         if (temp)
   12094                 :             :                           op = temp;
   12095                 :             :                         else
   12096                 :             :                           {
   12097                 :           0 :                             if (!REG_P (op) && !MEM_P (op))
   12098                 :           0 :                               op = force_reg (GET_MODE (op), op);
   12099                 :           0 :                             op = gen_lowpart (GET_MODE_INNER (mode1), op);
   12100                 :             :                           }
   12101                 :           0 :                         parts[i] = op;
   12102                 :             :                       }
   12103                 :           0 :                     op0 = gen_rtx_CONCAT (mode1, parts[0], parts[1]);
   12104                 :             :                   }
   12105                 :         101 :                 return op0;
   12106                 :             :               }
   12107                 :          19 :             if (known_eq (bitpos, 0)
   12108                 :          16 :                 && known_eq (bitsize,
   12109                 :             :                              GET_MODE_BITSIZE (GET_MODE (XEXP (op0, 0))))
   12110                 :          19 :                 && maybe_ne (bitsize, 0))
   12111                 :             :               {
   12112                 :             :                 op0 = XEXP (op0, 0);
   12113                 :             :                 mode2 = GET_MODE (op0);
   12114                 :             :               }
   12115                 :          19 :             else if (known_eq (bitpos,
   12116                 :             :                                GET_MODE_BITSIZE (GET_MODE (XEXP (op0, 0))))
   12117                 :           4 :                      && known_eq (bitsize,
   12118                 :             :                                   GET_MODE_BITSIZE (GET_MODE (XEXP (op0, 1))))
   12119                 :           0 :                      && maybe_ne (bitpos, 0)
   12120                 :          19 :                      && maybe_ne (bitsize, 0))
   12121                 :             :               {
   12122                 :           0 :                 op0 = XEXP (op0, 1);
   12123                 :           0 :                 bitpos = 0;
   12124                 :           0 :                 mode2 = GET_MODE (op0);
   12125                 :             :               }
   12126                 :             :             else
   12127                 :             :               /* Otherwise force into memory.  */
   12128                 :             :               must_force_mem = true;
   12129                 :             :           }
   12130                 :             : 
   12131                 :             :         /* If this is a constant, put it in a register if it is a legitimate
   12132                 :             :            constant and we don't need a memory reference.  */
   12133                 :     4473090 :         if (CONSTANT_P (op0)
   12134                 :          45 :             && mode2 != BLKmode
   12135                 :          45 :             && targetm.legitimate_constant_p (mode2, op0)
   12136                 :     4473123 :             && !must_force_mem)
   12137                 :          33 :           op0 = force_reg (mode2, op0);
   12138                 :             : 
   12139                 :             :         /* Otherwise, if this is a constant, try to force it to the constant
   12140                 :             :            pool.  Note that back-ends, e.g. MIPS, may refuse to do so if it
   12141                 :             :            is a legitimate constant.  */
   12142                 :     4473057 :         else if (CONSTANT_P (op0) && (memloc = force_const_mem (mode2, op0)))
   12143                 :          12 :           op0 = validize_mem (memloc);
   12144                 :             : 
   12145                 :             :         /* Otherwise, if this is a constant or the object is not in memory
   12146                 :             :            and need be, put it there.  */
   12147                 :     4473045 :         else if (CONSTANT_P (op0) || (!MEM_P (op0) && must_force_mem))
   12148                 :             :           {
   12149                 :        1167 :             memloc = assign_temp (TREE_TYPE (tem), 1, 1);
   12150                 :        1167 :             emit_move_insn (memloc, op0);
   12151                 :        1167 :             op0 = memloc;
   12152                 :        1167 :             clear_mem_expr = true;
   12153                 :             :           }
   12154                 :             : 
   12155                 :     4473090 :         if (offset)
   12156                 :             :           {
   12157                 :      265978 :             machine_mode address_mode;
   12158                 :      265978 :             rtx offset_rtx = expand_expr (offset, NULL_RTX, VOIDmode,
   12159                 :             :                                           EXPAND_SUM);
   12160                 :             : 
   12161                 :      265978 :             gcc_assert (MEM_P (op0));
   12162                 :             : 
   12163                 :      265978 :             address_mode = get_address_mode (op0);
   12164                 :      265978 :             if (GET_MODE (offset_rtx) != address_mode)
   12165                 :             :               {
   12166                 :             :                 /* We cannot be sure that the RTL in offset_rtx is valid outside
   12167                 :             :                    of a memory address context, so force it into a register
   12168                 :             :                    before attempting to convert it to the desired mode.  */
   12169                 :         423 :                 offset_rtx = force_operand (offset_rtx, NULL_RTX);
   12170                 :         423 :                 offset_rtx = convert_to_mode (address_mode, offset_rtx, 0);
   12171                 :             :               }
   12172                 :             : 
   12173                 :             :             /* See the comment in expand_assignment for the rationale.  */
   12174                 :      265978 :             if (mode1 != VOIDmode
   12175                 :      265731 :                 && maybe_ne (bitpos, 0)
   12176                 :       68503 :                 && maybe_gt (bitsize, 0)
   12177                 :      334481 :                 && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
   12178                 :      333946 :                 && multiple_p (bitpos, bitsize)
   12179                 :      135936 :                 && multiple_p (bitsize, GET_MODE_ALIGNMENT (mode1))
   12180                 :      333946 :                 && MEM_ALIGN (op0) >= GET_MODE_ALIGNMENT (mode1))
   12181                 :             :               {
   12182                 :       67941 :                 op0 = adjust_address (op0, mode1, bytepos);
   12183                 :       67941 :                 bitpos = 0;
   12184                 :             :               }
   12185                 :             : 
   12186                 :      265978 :             op0 = offset_address (op0, offset_rtx,
   12187                 :             :                                   highest_pow2_factor (offset));
   12188                 :             :           }
   12189                 :             : 
   12190                 :             :         /* If OFFSET is making OP0 more aligned than BIGGEST_ALIGNMENT,
   12191                 :             :            record its alignment as BIGGEST_ALIGNMENT.  */
   12192                 :     4473090 :         if (MEM_P (op0)
   12193                 :     4106019 :             && known_eq (bitpos, 0)
   12194                 :     1405826 :             && offset != 0
   12195                 :     4738340 :             && is_aligning_offset (offset, tem))
   12196                 :           0 :           set_mem_align (op0, BIGGEST_ALIGNMENT);
   12197                 :             : 
   12198                 :             :         /* Don't forget about volatility even if this is a bitfield.  */
   12199                 :     4473090 :         if (MEM_P (op0) && volatilep && ! MEM_VOLATILE_P (op0))
   12200                 :             :           {
   12201                 :         416 :             if (op0 == orig_op0)
   12202                 :         123 :               op0 = copy_rtx (op0);
   12203                 :             : 
   12204                 :         416 :             MEM_VOLATILE_P (op0) = 1;
   12205                 :             :           }
   12206                 :             : 
   12207                 :     4473090 :         if (MEM_P (op0) && TREE_CODE (tem) == FUNCTION_DECL)
   12208                 :             :           {
   12209                 :           6 :             if (op0 == orig_op0)
   12210                 :           0 :               op0 = copy_rtx (op0);
   12211                 :             : 
   12212                 :           6 :             set_mem_align (op0, BITS_PER_UNIT);
   12213                 :             :           }
   12214                 :             : 
   12215                 :             :         /* In cases where an aligned union has an unaligned object
   12216                 :             :            as a field, we might be extracting a BLKmode value from
   12217                 :             :            an integer-mode (e.g., SImode) object.  Handle this case
   12218                 :             :            by doing the extract into an object as wide as the field
   12219                 :             :            (which we know to be the width of a basic mode), then
   12220                 :             :            storing into memory, and changing the mode to BLKmode.  */
   12221                 :     4473090 :         if (mode1 == VOIDmode
   12222                 :     4246542 :             || REG_P (op0) || GET_CODE (op0) == SUBREG
   12223                 :     3937853 :             || (mode1 != BLKmode && ! direct_load[(int) mode1]
   12224                 :       26371 :                 && GET_MODE_CLASS (mode) != MODE_COMPLEX_INT
   12225                 :       22221 :                 && GET_MODE_CLASS (mode) != MODE_COMPLEX_FLOAT
   12226                 :             :                 && modifier != EXPAND_CONST_ADDRESS
   12227                 :       15299 :                 && modifier != EXPAND_INITIALIZER
   12228                 :       15299 :                 && modifier != EXPAND_MEMORY)
   12229                 :             :             /* If the bitfield is volatile and the bitsize
   12230                 :             :                is narrower than the access size of the bitfield,
   12231                 :             :                we need to extract bitfields from the access.  */
   12232                 :     3922554 :             || (volatilep && TREE_CODE (exp) == COMPONENT_REF
   12233                 :        1309 :                 && DECL_BIT_FIELD_TYPE (TREE_OPERAND (exp, 1))
   12234                 :          10 :                 && mode1 != BLKmode
   12235                 :          20 :                 && maybe_lt (bitsize, GET_MODE_SIZE (mode1) * BITS_PER_UNIT))
   12236                 :             :             /* If the field isn't aligned enough to fetch as a memref,
   12237                 :             :                fetch it as a bit field.  */
   12238                 :     3922545 :             || (mode1 != BLKmode
   12239                 :     3850419 :                 && (((MEM_P (op0)
   12240                 :     3850419 :                       ? MEM_ALIGN (op0) < GET_MODE_ALIGNMENT (mode1)
   12241                 :     7561067 :                         || !multiple_p (bitpos, GET_MODE_ALIGNMENT (mode1))
   12242                 :           0 :                       : TYPE_ALIGN (TREE_TYPE (tem)) < GET_MODE_ALIGNMENT (mode)
   12243                 :           0 :                         || !multiple_p (bitpos, GET_MODE_ALIGNMENT (mode)))
   12244                 :       72435 :                      && modifier != EXPAND_MEMORY
   12245                 :       72435 :                      && ((modifier == EXPAND_CONST_ADDRESS
   12246                 :       72435 :                           || modifier == EXPAND_INITIALIZER)
   12247                 :       72435 :                          ? STRICT_ALIGNMENT
   12248                 :       72435 :                          : targetm.slow_unaligned_access (mode1,
   12249                 :       72435 :                                                           MEM_ALIGN (op0))))
   12250                 :     3850419 :                     || !multiple_p (bitpos, BITS_PER_UNIT)))
   12251                 :             :             /* If the type and the field are a constant size and the
   12252                 :             :                size of the type isn't the same size as the bitfield,
   12253                 :             :                we must use bitfield operations.  */
   12254                 :    12246054 :             || (known_size_p (bitsize)
   12255                 :     3922545 :                 && TYPE_SIZE (TREE_TYPE (exp))
   12256                 :     3922545 :                 && poly_int_tree_p (TYPE_SIZE (TREE_TYPE (exp)))
   12257                 :     3922545 :                 && maybe_ne (wi::to_poly_offset (TYPE_SIZE (TREE_TYPE (exp))),
   12258                 :             :                              bitsize)))
   12259                 :             :           {
   12260                 :      550558 :             machine_mode ext_mode = mode;
   12261                 :             : 
   12262                 :      550558 :             if (ext_mode == BLKmode
   12263                 :      550558 :                 && ! (target != 0 && MEM_P (op0)
   12264                 :           6 :                       && MEM_P (target)
   12265                 :           6 :                       && multiple_p (bitpos, BITS_PER_UNIT)))
   12266                 :           3 :               ext_mode = int_mode_for_size (bitsize, 1).else_blk ();
   12267                 :             : 
   12268                 :      550558 :             if (ext_mode == BLKmode)
   12269                 :             :               {
   12270                 :           9 :                 if (target == 0)
   12271                 :           3 :                   target = assign_temp (type, 1, 1);
   12272                 :             : 
   12273                 :             :                 /* ??? Unlike the similar test a few lines below, this one is
   12274                 :             :                    very likely obsolete.  */
   12275                 :           9 :                 if (known_eq (bitsize, 0))
   12276                 :             :                   return target;
   12277                 :             : 
   12278                 :             :                 /* In this case, BITPOS must start at a byte boundary and
   12279                 :             :                    TARGET, if specified, must be a MEM.  */
   12280                 :           9 :                 gcc_assert (MEM_P (op0)
   12281                 :             :                             && (!target || MEM_P (target)));
   12282                 :             : 
   12283                 :           9 :                 bytepos = exact_div (bitpos, BITS_PER_UNIT);
   12284                 :           9 :                 poly_int64 bytesize = bits_to_bytes_round_up (bitsize);
   12285                 :          18 :                 emit_block_move (target,
   12286                 :           9 :                                  adjust_address (op0, VOIDmode, bytepos),
   12287                 :           9 :                                  gen_int_mode (bytesize, Pmode),
   12288                 :             :                                  (modifier == EXPAND_STACK_PARM
   12289                 :             :                                   ? BLOCK_OP_CALL_PARM : BLOCK_OP_NORMAL));
   12290                 :             : 
   12291                 :           9 :                 return target;
   12292                 :             :               }
   12293                 :             : 
   12294                 :             :             /* If we have nothing to extract, the result will be 0 for targets
   12295                 :             :                with SHIFT_COUNT_TRUNCATED == 0 and garbage otherwise.  Always
   12296                 :             :                return 0 for the sake of consistency, as reading a zero-sized
   12297                 :             :                bitfield is valid in Ada and the value is fully specified.  */
   12298                 :      550549 :             if (known_eq (bitsize, 0))
   12299                 :           0 :               return const0_rtx;
   12300                 :             : 
   12301                 :      550549 :             op0 = validize_mem (op0);
   12302                 :             : 
   12303                 :      550549 :             if (MEM_P (op0) && REG_P (XEXP (op0, 0)))
   12304                 :       55491 :               mark_reg_pointer (XEXP (op0, 0), MEM_ALIGN (op0));
   12305                 :             : 
   12306                 :             :             /* If the result has aggregate type and the extraction is done in
   12307                 :             :                an integral mode, then the field may be not aligned on a byte
   12308                 :             :                boundary; in this case, if it has reverse storage order, it
   12309                 :             :                needs to be extracted as a scalar field with reverse storage
   12310                 :             :                order and put back into memory order afterwards.  */
   12311                 :      550549 :             if (AGGREGATE_TYPE_P (type)
   12312                 :         762 :                 && GET_MODE_CLASS (ext_mode) == MODE_INT)
   12313                 :         685 :               reversep = TYPE_REVERSE_STORAGE_ORDER (type);
   12314                 :             : 
   12315                 :      550549 :             gcc_checking_assert (known_ge (bitpos, 0));
   12316                 :      563214 :             op0 = extract_bit_field (op0, bitsize, bitpos, unsignedp,
   12317                 :             :                                      (modifier == EXPAND_STACK_PARM
   12318                 :             :                                       ? NULL_RTX : target),
   12319                 :             :                                      ext_mode, ext_mode, reversep, alt_rtl);
   12320                 :             : 
   12321                 :             :             /* If the result has aggregate type and the mode of OP0 is an
   12322                 :             :                integral mode then, if BITSIZE is narrower than this mode
   12323                 :             :                and this is for big-endian data, we must put the field
   12324                 :             :                into the high-order bits.  And we must also put it back
   12325                 :             :                into memory order if it has been previously reversed.  */
   12326                 :      550549 :             scalar_int_mode op0_mode;
   12327                 :      550549 :             if (AGGREGATE_TYPE_P (type)
   12328                 :      550549 :                 && is_int_mode (GET_MODE (op0), &op0_mode))
   12329                 :             :               {
   12330                 :         685 :                 HOST_WIDE_INT size = GET_MODE_BITSIZE (op0_mode);
   12331                 :             : 
   12332                 :         685 :                 gcc_checking_assert (known_le (bitsize, size));
   12333                 :         685 :                 if (maybe_lt (bitsize, size)
   12334                 :         685 :                     && reversep ? !BYTES_BIG_ENDIAN : BYTES_BIG_ENDIAN)
   12335                 :           0 :                   op0 = expand_shift (LSHIFT_EXPR, op0_mode, op0,
   12336                 :             :                                       size - bitsize, op0, 1);
   12337                 :             : 
   12338                 :         685 :                 if (reversep)
   12339                 :           0 :                   op0 = flip_storage_order (op0_mode, op0);
   12340                 :             :               }
   12341                 :             : 
   12342                 :             :             /* If the result type is BLKmode, store the data into a temporary
   12343                 :             :                of the appropriate type, but with the mode corresponding to the
   12344                 :             :                mode for the data we have (op0's mode).  */
   12345                 :      550549 :             if (mode == BLKmode)
   12346                 :             :               {
   12347                 :           0 :                 rtx new_rtx
   12348                 :           0 :                   = assign_stack_temp_for_type (ext_mode,
   12349                 :           0 :                                                 GET_MODE_BITSIZE (ext_mode),
   12350                 :             :                                                 type);
   12351                 :           0 :                 emit_move_insn (new_rtx, op0);
   12352                 :           0 :                 op0 = copy_rtx (new_rtx);
   12353                 :           0 :                 PUT_MODE (op0, BLKmode);
   12354                 :             :               }
   12355                 :             : 
   12356                 :      550549 :             return op0;
   12357                 :             :           }
   12358                 :             : 
   12359                 :             :         /* If the result is BLKmode, use that to access the object
   12360                 :             :            now as well.  */
   12361                 :     3922532 :         if (mode == BLKmode)
   12362                 :       72117 :           mode1 = BLKmode;
   12363                 :             : 
   12364                 :             :         /* Get a reference to just this component.  */
   12365                 :     3922532 :         bytepos = bits_to_bytes_round_down (bitpos);
   12366                 :     3922532 :         if (modifier == EXPAND_CONST_ADDRESS
   12367                 :     3922532 :             || modifier == EXPAND_SUM || modifier == EXPAND_INITIALIZER)
   12368                 :      164963 :           op0 = adjust_address_nv (op0, mode1, bytepos);
   12369                 :             :         else
   12370                 :     3757569 :           op0 = adjust_address (op0, mode1, bytepos);
   12371                 :             : 
   12372                 :     3922532 :         if (op0 == orig_op0)
   12373                 :      118449 :           op0 = copy_rtx (op0);
   12374                 :             : 
   12375                 :             :         /* Don't set memory attributes if the base expression is
   12376                 :             :            SSA_NAME that got expanded as a MEM or a CONSTANT.  In that case,
   12377                 :             :            we should just honor its original memory attributes.  */
   12378                 :     3922532 :         if (!(TREE_CODE (tem) == SSA_NAME
   12379                 :        8349 :               && (MEM_P (orig_op0) || CONSTANT_P (orig_op0))))
   12380                 :     3914183 :           set_mem_attributes (op0, exp, 0);
   12381                 :             : 
   12382                 :     3922532 :         if (REG_P (XEXP (op0, 0)))
   12383                 :      612902 :           mark_reg_pointer (XEXP (op0, 0), MEM_ALIGN (op0));
   12384                 :             : 
   12385                 :             :         /* If op0 is a temporary because the original expressions was forced
   12386                 :             :            to memory, clear MEM_EXPR so that the original expression cannot
   12387                 :             :            be marked as addressable through MEM_EXPR of the temporary.  */
   12388                 :     3922532 :         if (clear_mem_expr)
   12389                 :        1041 :           set_mem_expr (op0, NULL_TREE);
   12390                 :             : 
   12391                 :     3922532 :         MEM_VOLATILE_P (op0) |= volatilep;
   12392                 :             : 
   12393                 :     3922532 :         if (reversep
   12394                 :             :             && modifier != EXPAND_MEMORY
   12395                 :         439 :             && modifier != EXPAND_WRITE)
   12396                 :         439 :           op0 = flip_storage_order (mode1, op0);
   12397                 :             : 
   12398                 :     3922532 :         op0 = EXTEND_BITINT (op0);
   12399                 :             : 
   12400                 :     3922532 :         if (mode == mode1 || mode1 == BLKmode || mode1 == tmode
   12401                 :             :             || modifier == EXPAND_CONST_ADDRESS
   12402                 :           0 :             || modifier == EXPAND_INITIALIZER)
   12403                 :             :           return op0;
   12404                 :             : 
   12405                 :           0 :         if (target == 0)
   12406                 :           0 :           target = gen_reg_rtx (tmode != VOIDmode ? tmode : mode);
   12407                 :             : 
   12408                 :           0 :         convert_move (target, op0, unsignedp);
   12409                 :           0 :         return target;
   12410                 :             :       }
   12411                 :             : 
   12412                 :       61409 :     case OBJ_TYPE_REF:
   12413                 :       61409 :       return expand_expr (OBJ_TYPE_REF_EXPR (exp), target, tmode, modifier);
   12414                 :             : 
   12415                 :     6295337 :     case CALL_EXPR:
   12416                 :             :       /* All valid uses of __builtin_va_arg_pack () are removed during
   12417                 :             :          inlining.  */
   12418                 :     6295337 :       if (CALL_EXPR_VA_ARG_PACK (exp))
   12419                 :           6 :         error ("invalid use of %<__builtin_va_arg_pack ()%>");
   12420                 :     6295337 :       {
   12421                 :     6295337 :         tree fndecl = get_callee_fndecl (exp), attr;
   12422                 :             : 
   12423                 :     6295337 :         if (fndecl
   12424                 :             :             /* Don't diagnose the error attribute in thunks, those are
   12425                 :             :                artificially created.  */
   12426                 :     6114763 :             && !CALL_FROM_THUNK_P (exp)
   12427                 :    12406036 :             && (attr = lookup_attribute ("error",
   12428                 :     6110699 :                                          DECL_ATTRIBUTES (fndecl))) != NULL)
   12429                 :             :           {
   12430                 :           5 :             const char *ident = lang_hooks.decl_printable_name (fndecl, 1);
   12431                 :          10 :             error ("call to %qs declared with attribute error: %s",
   12432                 :             :                    identifier_to_locale (ident),
   12433                 :           5 :                    TREE_STRING_POINTER (TREE_VALUE (TREE_VALUE (attr))));
   12434                 :             :           }
   12435                 :     6295337 :         if (fndecl
   12436                 :             :             /* Don't diagnose the warning attribute in thunks, those are
   12437                 :             :                artificially created.  */
   12438                 :     6114763 :             && !CALL_FROM_THUNK_P (exp)
   12439                 :    12406036 :             && (attr = lookup_attribute ("warning",
   12440                 :     6110699 :                                          DECL_ATTRIBUTES (fndecl))) != NULL)
   12441                 :             :           {
   12442                 :          17 :             const char *ident = lang_hooks.decl_printable_name (fndecl, 1);
   12443                 :          34 :             warning_at (EXPR_LOCATION (exp),
   12444                 :             :                         OPT_Wattribute_warning,
   12445                 :             :                         "call to %qs declared with attribute warning: %s",
   12446                 :             :                         identifier_to_locale (ident),
   12447                 :          17 :                         TREE_STRING_POINTER (TREE_VALUE (TREE_VALUE (attr))));
   12448                 :             :           }
   12449                 :             : 
   12450                 :             :         /* Check for a built-in function.  */
   12451                 :     6295337 :         if (fndecl && fndecl_built_in_p (fndecl))
   12452                 :             :           {
   12453                 :     1872234 :             gcc_assert (DECL_BUILT_IN_CLASS (fndecl) != BUILT_IN_FRONTEND);
   12454                 :     1872234 :             return expand_builtin (exp, target, subtarget, tmode, ignore);
   12455                 :             :           }
   12456                 :             :       }
   12457                 :     4423103 :       temp = expand_call (exp, target, ignore);
   12458                 :     4423103 :       return EXTEND_BITINT (temp);
   12459                 :             : 
   12460                 :      324270 :     case VIEW_CONVERT_EXPR:
   12461                 :      324270 :       op0 = NULL_RTX;
   12462                 :             : 
   12463                 :             :       /* If we are converting to BLKmode, try to avoid an intermediate
   12464                 :             :          temporary by fetching an inner memory reference.  */
   12465                 :      324270 :       if (mode == BLKmode
   12466                 :       73489 :           && poly_int_tree_p (TYPE_SIZE (type))
   12467                 :       73489 :           && TYPE_MODE (TREE_TYPE (treeop0)) != BLKmode
   12468                 :      324270 :           && handled_component_p (treeop0))
   12469                 :             :       {
   12470                 :           0 :         machine_mode mode1;
   12471                 :           0 :         poly_int64 bitsize, bitpos, bytepos;
   12472                 :           0 :         tree offset;
   12473                 :           0 :         int reversep, volatilep = 0;
   12474                 :           0 :         tree tem
   12475                 :           0 :           = get_inner_reference (treeop0, &bitsize, &bitpos, &offset, &mode1,
   12476                 :             :                                  &unsignedp, &reversep, &volatilep);
   12477                 :             : 
   12478                 :             :         /* ??? We should work harder and deal with non-zero offsets.  */
   12479                 :           0 :         if (!offset
   12480                 :           0 :             && multiple_p (bitpos, BITS_PER_UNIT, &bytepos)
   12481                 :           0 :             && !reversep
   12482                 :           0 :             && known_size_p (bitsize)
   12483                 :           0 :             && known_eq (wi::to_poly_offset (TYPE_SIZE (type)), bitsize))
   12484                 :             :           {
   12485                 :             :             /* See the normal_inner_ref case for the rationale.  */
   12486                 :           0 :             rtx orig_op0
   12487                 :           0 :               = expand_expr_real (tem,
   12488                 :           0 :                                   (TREE_CODE (TREE_TYPE (tem)) == UNION_TYPE
   12489                 :           0 :                                    && (TREE_CODE (TYPE_SIZE (TREE_TYPE (tem)))
   12490                 :             :                                        != INTEGER_CST)
   12491                 :           0 :                                    && modifier != EXPAND_STACK_PARM
   12492                 :             :                                    ? target : NULL_RTX),
   12493                 :             :                                   VOIDmode,
   12494                 :             :                                   modifier == EXPAND_SUM ? EXPAND_NORMAL : modifier,
   12495                 :             :                                   NULL, true);
   12496                 :             : 
   12497                 :           0 :             if (MEM_P (orig_op0))
   12498                 :             :               {
   12499                 :           0 :                 op0 = orig_op0;
   12500                 :             : 
   12501                 :             :                 /* Get a reference to just this component.  */
   12502                 :           0 :                 if (modifier == EXPAND_CONST_ADDRESS
   12503                 :             :                     || modifier == EXPAND_SUM
   12504                 :           0 :                     || modifier == EXPAND_INITIALIZER)
   12505                 :           0 :                   op0 = adjust_address_nv (op0, mode, bytepos);
   12506                 :             :                 else
   12507                 :           0 :                   op0 = adjust_address (op0, mode, bytepos);
   12508                 :             : 
   12509                 :           0 :                 if (op0 == orig_op0)
   12510                 :           0 :                   op0 = copy_rtx (op0);
   12511                 :             : 
   12512                 :           0 :                 set_mem_attributes (op0, treeop0, 0);
   12513                 :           0 :                 if (REG_P (XEXP (op0, 0)))
   12514                 :           0 :                   mark_reg_pointer (XEXP (op0, 0), MEM_ALIGN (op0));
   12515                 :             : 
   12516                 :           0 :                 MEM_VOLATILE_P (op0) |= volatilep;
   12517                 :             :               }
   12518                 :             :           }
   12519                 :             :       }
   12520                 :             : 
   12521                 :           0 :       if (!op0)
   12522                 :      324270 :         op0 = expand_expr_real (treeop0, NULL_RTX, VOIDmode, modifier,
   12523                 :      324270 :                                 NULL, inner_reference_p || mode == BLKmode);
   12524                 :             : 
   12525                 :             :       /* If the input and output modes are both the same, we are done.  */
   12526                 :      324270 :       if (mode == GET_MODE (op0))
   12527                 :             :         ;
   12528                 :             :       /* Similarly if the output mode is BLKmode and input is a MEM,
   12529                 :             :          adjust_address done below is all we need.  */
   12530                 :      145411 :       else if (mode == BLKmode && MEM_P (op0))
   12531                 :             :         ;
   12532                 :             :       /* If neither mode is BLKmode, and both modes are the same size
   12533                 :             :          then we can use gen_lowpart.  */
   12534                 :             :       else if (mode != BLKmode
   12535                 :      145384 :                && GET_MODE (op0) != BLKmode
   12536                 :      144071 :                && known_eq (GET_MODE_PRECISION (mode),
   12537                 :             :                             GET_MODE_PRECISION (GET_MODE (op0)))
   12538                 :      140175 :                && !COMPLEX_MODE_P (GET_MODE (op0)))
   12539                 :             :         {
   12540                 :      138774 :           if (GET_CODE (op0) == SUBREG)
   12541                 :         119 :             op0 = force_reg (GET_MODE (op0), op0);
   12542                 :      138774 :           temp = gen_lowpart_common (mode, op0);
   12543                 :      138774 :           if (temp)
   12544                 :             :             op0 = temp;
   12545                 :             :           else
   12546                 :             :             {
   12547                 :       26907 :               if (!REG_P (op0) && !MEM_P (op0))
   12548                 :          16 :                 op0 = force_reg (GET_MODE (op0), op0);
   12549                 :       26907 :               op0 = gen_lowpart (mode, op0);
   12550                 :             :             }
   12551                 :             :         }
   12552                 :             :       /* If both types are integral, convert from one mode to the other.  */
   12553                 :        6635 :       else if (INTEGRAL_TYPE_P (type)
   12554                 :        3140 :                && INTEGRAL_TYPE_P (TREE_TYPE (treeop0))
   12555                 :           0 :                && mode != BLKmode
   12556                 :        6635 :                && GET_MODE (op0) != BLKmode)
   12557                 :           0 :         op0 = convert_modes (mode, GET_MODE (op0), op0,
   12558                 :           0 :                              TYPE_UNSIGNED (TREE_TYPE (treeop0)));
   12559                 :             :       /* If the output type is a bit-field type, do an extraction.  */
   12560                 :        6635 :       else if (reduce_bit_field
   12561                 :           1 :                && mode != BLKmode
   12562                 :           1 :                && (MEM_P (op0) || !COMPLEX_MODE_P (GET_MODE (op0))))
   12563                 :           0 :         return extract_bit_field (op0, TYPE_PRECISION (type), 0,
   12564                 :           0 :                                   TYPE_UNSIGNED (type), NULL_RTX,
   12565                 :             :                                   mode, mode, false, NULL);
   12566                 :             :       /* As a last resort, spill op0 to memory, and reload it in a
   12567                 :             :          different mode.  */
   12568                 :        6635 :       else if (!MEM_P (op0))
   12569                 :             :         {
   12570                 :             :           /* If the operand is not a MEM, force it into memory.  Since we
   12571                 :             :              are going to be changing the mode of the MEM, don't call
   12572                 :             :              force_const_mem for constants because we don't allow pool
   12573                 :             :              constants to change mode.  */
   12574                 :        5317 :           tree inner_type = TREE_TYPE (treeop0);
   12575                 :             : 
   12576                 :        5317 :           gcc_assert (!TREE_ADDRESSABLE (exp));
   12577                 :             : 
   12578                 :        5317 :           if (target == 0 || GET_MODE (target) != TYPE_MODE (inner_type))
   12579                 :        5311 :             target
   12580                 :             :               = assign_stack_temp_for_type
   12581                 :        5311 :                 (TYPE_MODE (inner_type),
   12582                 :       10622 :                  GET_MODE_SIZE (TYPE_MODE (inner_type)), inner_type);
   12583                 :             : 
   12584                 :        5317 :           emit_move_insn (target, op0);
   12585                 :        5317 :           op0 = target;
   12586                 :             : 
   12587                 :        5317 :           if (reduce_bit_field && mode != BLKmode)
   12588                 :           1 :             return extract_bit_field (op0, TYPE_PRECISION (type), 0,
   12589                 :           1 :                                       TYPE_UNSIGNED (type), NULL_RTX,
   12590                 :             :                                       mode, mode, false, NULL);
   12591                 :             :         }
   12592                 :             : 
   12593                 :             :       /* If OP0 is (now) a MEM, we need to deal with alignment issues.  If the
   12594                 :             :          output type is such that the operand is known to be aligned, indicate
   12595                 :             :          that it is.  Otherwise, we need only be concerned about alignment for
   12596                 :             :          non-BLKmode results.  */
   12597                 :      324269 :       if (MEM_P (op0))
   12598                 :             :         {
   12599                 :      123928 :           enum insn_code icode;
   12600                 :             : 
   12601                 :      123928 :           if (modifier != EXPAND_WRITE
   12602                 :      123928 :               && modifier != EXPAND_MEMORY
   12603                 :      123928 :               && !inner_reference_p
   12604                 :      123928 :               && mode != BLKmode
   12605                 :      174367 :               && MEM_ALIGN (op0) < GET_MODE_ALIGNMENT (mode))
   12606                 :             :             {
   12607                 :             :               /* If the target does have special handling for unaligned
   12608                 :             :                  loads of mode then use them.  */
   12609                 :       13809 :               if ((icode = optab_handler (movmisalign_optab, mode))
   12610                 :             :                   != CODE_FOR_nothing)
   12611                 :             :                 {
   12612                 :        1423 :                   rtx reg;
   12613                 :             : 
   12614                 :        1423 :                   op0 = adjust_address (op0, mode, 0);
   12615                 :             :                   /* We've already validated the memory, and we're creating a
   12616                 :             :                      new pseudo destination.  The predicates really can't
   12617                 :             :                      fail.  */
   12618                 :        1423 :                   reg = gen_reg_rtx (mode);
   12619                 :             : 
   12620                 :             :                   /* Nor can the insn generator.  */
   12621                 :        1423 :                   rtx_insn *insn = GEN_FCN (icode) (reg, op0);
   12622                 :        1423 :                   emit_insn (insn);
   12623                 :        1423 :                   return reg;
   12624                 :             :                 }
   12625                 :             :               else if (STRICT_ALIGNMENT)
   12626                 :             :                 {
   12627                 :             :                   poly_uint64 mode_size = GET_MODE_SIZE (mode);
   12628                 :             :                   poly_uint64 temp_size = mode_size;
   12629                 :             :                   if (GET_MODE (op0) != BLKmode)
   12630                 :             :                     temp_size = upper_bound (temp_size,
   12631                 :             :                                              GET_MODE_SIZE (GET_MODE (op0)));
   12632                 :             :                   rtx new_rtx
   12633                 :             :                     = assign_stack_temp_for_type (mode, temp_size, type);
   12634                 :             :                   rtx new_with_op0_mode
   12635                 :             :                     = adjust_address (new_rtx, GET_MODE (op0), 0);
   12636                 :             : 
   12637                 :             :                   gcc_assert (!TREE_ADDRESSABLE (exp));
   12638                 :             : 
   12639                 :             :                   if (GET_MODE (op0) == BLKmode)
   12640                 :             :                     {
   12641                 :             :                       rtx size_rtx = gen_int_mode (mode_size, Pmode);
   12642                 :             :                       emit_block_move (new_with_op0_mode, op0, size_rtx,
   12643                 :             :                                        (modifier == EXPAND_STACK_PARM
   12644                 :             :                                         ? BLOCK_OP_CALL_PARM
   12645                 :             :                                         : BLOCK_OP_NORMAL));
   12646                 :             :                     }
   12647                 :             :                   else
   12648                 :             :                     emit_move_insn (new_with_op0_mode, op0);
   12649                 :             : 
   12650                 :             :                   op0 = new_rtx;
   12651                 :             :                 }
   12652                 :             :             }
   12653                 :             : 
   12654                 :      122505 :           op0 = adjust_address (op0, mode, 0);
   12655                 :             :         }
   12656                 :             : 
   12657                 :             :       return op0;
   12658                 :             : 
   12659                 :       62049 :     case MODIFY_EXPR:
   12660                 :       62049 :       {
   12661                 :       62049 :         tree lhs = treeop0;
   12662                 :       62049 :         tree rhs = treeop1;
   12663                 :       62049 :         gcc_assert (ignore);
   12664                 :             : 
   12665                 :             :         /* Check for |= or &= of a bitfield of size one into another bitfield
   12666                 :             :            of size 1.  In this case, (unless we need the result of the
   12667                 :             :            assignment) we can do this more efficiently with a
   12668                 :             :            test followed by an assignment, if necessary.
   12669                 :             : 
   12670                 :             :            ??? At this point, we can't get a BIT_FIELD_REF here.  But if
   12671                 :             :            things change so we do, this code should be enhanced to
   12672                 :             :            support it.  */
   12673                 :       62049 :         if (TREE_CODE (lhs) == COMPONENT_REF
   12674                 :       59273 :             && (TREE_CODE (rhs) == BIT_IOR_EXPR
   12675                 :       59273 :                 || TREE_CODE (rhs) == BIT_AND_EXPR)
   12676                 :           0 :             && TREE_OPERAND (rhs, 0) == lhs
   12677                 :           0 :             && TREE_CODE (TREE_OPERAND (rhs, 1)) == COMPONENT_REF
   12678                 :           0 :             && integer_onep (DECL_SIZE (TREE_OPERAND (lhs, 1)))
   12679                 :       62049 :             && integer_onep (DECL_SIZE (TREE_OPERAND (TREE_OPERAND (rhs, 1), 1))))
   12680                 :             :           {
   12681                 :           0 :             rtx_code_label *label = gen_label_rtx ();
   12682                 :           0 :             int value = TREE_CODE (rhs) == BIT_IOR_EXPR;
   12683                 :           0 :             profile_probability prob = profile_probability::uninitialized ();
   12684                 :           0 :             if (value)
   12685                 :           0 :               jumpifnot (TREE_OPERAND (rhs, 1), label, prob);
   12686                 :             :             else
   12687                 :           0 :               jumpif (TREE_OPERAND (rhs, 1), label, prob);
   12688                 :           0 :             expand_assignment (lhs, build_int_cst (TREE_TYPE (rhs), value),
   12689                 :             :                                false);
   12690                 :           0 :             do_pending_stack_adjust ();
   12691                 :           0 :             emit_label (label);
   12692                 :           0 :             return const0_rtx;
   12693                 :             :           }
   12694                 :             : 
   12695                 :       62049 :         expand_assignment (lhs, rhs, false);
   12696                 :       62049 :         return const0_rtx;
   12697                 :             :       }
   12698                 :             : 
   12699                 :    12292725 :     case ADDR_EXPR:
   12700                 :    12292725 :       return expand_expr_addr_expr (exp, target, tmode, modifier);
   12701                 :             : 
   12702                 :      152540 :     case REALPART_EXPR:
   12703                 :      152540 :       op0 = expand_normal (treeop0);
   12704                 :      152540 :       return read_complex_part (op0, false);
   12705                 :             : 
   12706                 :      176102 :     case IMAGPART_EXPR:
   12707                 :      176102 :       op0 = expand_normal (treeop0);
   12708                 :      176102 :       return read_complex_part (op0, true);
   12709                 :             : 
   12710                 :           0 :     case RETURN_EXPR:
   12711                 :           0 :     case LABEL_EXPR:
   12712                 :           0 :     case GOTO_EXPR:
   12713                 :           0 :     case SWITCH_EXPR:
   12714                 :           0 :     case ASM_EXPR:
   12715                 :             :       /* Expanded in cfgexpand.cc.  */
   12716                 :           0 :       gcc_unreachable ();
   12717                 :             : 
   12718                 :           0 :     case TRY_CATCH_EXPR:
   12719                 :           0 :     case CATCH_EXPR:
   12720                 :           0 :     case EH_FILTER_EXPR:
   12721                 :           0 :     case TRY_FINALLY_EXPR:
   12722                 :           0 :     case EH_ELSE_EXPR:
   12723                 :             :       /* Lowered by tree-eh.cc.  */
   12724                 :           0 :       gcc_unreachable ();
   12725                 :             : 
   12726                 :           0 :     case WITH_CLEANUP_EXPR:
   12727                 :           0 :     case CLEANUP_POINT_EXPR:
   12728                 :           0 :     case TARGET_EXPR:
   12729                 :           0 :     case CASE_LABEL_EXPR:
   12730                 :           0 :     case VA_ARG_EXPR:
   12731                 :           0 :     case BIND_EXPR:
   12732                 :           0 :     case INIT_EXPR:
   12733                 :           0 :     case CONJ_EXPR:
   12734                 :           0 :     case COMPOUND_EXPR:
   12735                 :           0 :     case PREINCREMENT_EXPR:
   12736                 :           0 :     case PREDECREMENT_EXPR:
   12737                 :           0 :     case POSTINCREMENT_EXPR:
   12738                 :           0 :     case POSTDECREMENT_EXPR:
   12739                 :           0 :     case LOOP_EXPR:
   12740                 :           0 :     case EXIT_EXPR:
   12741                 :           0 :     case COMPOUND_LITERAL_EXPR:
   12742                 :             :       /* Lowered by gimplify.cc.  */
   12743                 :           0 :       gcc_unreachable ();
   12744                 :             : 
   12745                 :           0 :     case FDESC_EXPR:
   12746                 :             :       /* Function descriptors are not valid except for as
   12747                 :             :          initialization constants, and should not be expanded.  */
   12748                 :           0 :       gcc_unreachable ();
   12749                 :             : 
   12750                 :         256 :     case WITH_SIZE_EXPR:
   12751                 :             :       /* WITH_SIZE_EXPR expands to its first argument.  The caller should
   12752                 :             :          have pulled out the size to use in whatever context it needed.  */
   12753                 :         256 :       return expand_expr_real (treeop0, original_target, tmode,
   12754                 :         256 :                                modifier, alt_rtl, inner_reference_p);
   12755                 :             : 
   12756                 :     1756202 :     default:
   12757                 :     1756202 :       return expand_expr_real_2 (&ops, target, tmode, modifier);
   12758                 :             :     }
   12759                 :             : }
   12760                 :             : #undef EXTEND_BITINT
   12761                 :             : 
   12762                 :             : /* Subroutine of above: reduce EXP to the precision of TYPE (in the
   12763                 :             :    signedness of TYPE), possibly returning the result in TARGET.
   12764                 :             :    TYPE is known to be a partial integer type.  */
   12765                 :             : static rtx
   12766                 :       82339 : reduce_to_bit_field_precision (rtx exp, rtx target, tree type)
   12767                 :             : {
   12768                 :       82339 :   scalar_int_mode mode = SCALAR_INT_TYPE_MODE (type);
   12769                 :       82339 :   HOST_WIDE_INT prec = TYPE_PRECISION (type);
   12770                 :       82339 :   gcc_assert ((GET_MODE (exp) == VOIDmode || GET_MODE (exp) == mode)
   12771                 :             :               && (!target || GET_MODE (target) == mode));
   12772                 :             : 
   12773                 :             :   /* For constant values, reduce using wide_int_to_tree. */
   12774                 :       82339 :   if (poly_int_rtx_p (exp))
   12775                 :             :     {
   12776                 :           2 :       auto value = wi::to_poly_wide (exp, mode);
   12777                 :           2 :       tree t = wide_int_to_tree (type, value);
   12778                 :           2 :       return expand_expr (t, target, VOIDmode, EXPAND_NORMAL);
   12779                 :             :     }
   12780                 :       82337 :   else if (TYPE_UNSIGNED (type))
   12781                 :             :     {
   12782                 :       64350 :       rtx mask = immed_wide_int_const
   12783                 :       64350 :         (wi::mask (prec, false, GET_MODE_PRECISION (mode)), mode);
   12784                 :       64350 :       return expand_and (mode, exp, mask, target);
   12785                 :             :     }
   12786                 :             :   else
   12787                 :             :     {
   12788                 :       17987 :       int count = GET_MODE_PRECISION (mode) - prec;
   12789                 :       17987 :       exp = expand_shift (LSHIFT_EXPR, mode, exp, count, target, 0);
   12790                 :       17987 :       return expand_shift (RSHIFT_EXPR, mode, exp, count, target, 0);
   12791                 :             :     }
   12792                 :             : }
   12793                 :             : 
   12794                 :             : /* Subroutine of above: returns true if OFFSET corresponds to an offset that
   12795                 :             :    when applied to the address of EXP produces an address known to be
   12796                 :             :    aligned more than BIGGEST_ALIGNMENT.  */
   12797                 :             : 
   12798                 :             : static bool
   12799                 :      265250 : is_aligning_offset (const_tree offset, const_tree exp)
   12800                 :             : {
   12801                 :             :   /* Strip off any conversions.  */
   12802                 :      282166 :   while (CONVERT_EXPR_P (offset))
   12803                 :       16916 :     offset = TREE_OPERAND (offset, 0);
   12804                 :             : 
   12805                 :             :   /* We must now have a BIT_AND_EXPR with a constant that is one less than
   12806                 :             :      power of 2 and which is larger than BIGGEST_ALIGNMENT.  */
   12807                 :      265250 :   if (TREE_CODE (offset) != BIT_AND_EXPR
   12808                 :           0 :       || !tree_fits_uhwi_p (TREE_OPERAND (offset, 1))
   12809                 :           0 :       || compare_tree_int (TREE_OPERAND (offset, 1),
   12810                 :           0 :                            BIGGEST_ALIGNMENT / BITS_PER_UNIT) <= 0
   12811                 :      265250 :       || !pow2p_hwi (tree_to_uhwi (TREE_OPERAND (offset, 1)) + 1))
   12812                 :      265250 :     return false;
   12813                 :             : 
   12814                 :             :   /* Look at the first operand of BIT_AND_EXPR and strip any conversion.
   12815                 :             :      It must be NEGATE_EXPR.  Then strip any more conversions.  */
   12816                 :           0 :   offset = TREE_OPERAND (offset, 0);
   12817                 :           0 :   while (CONVERT_EXPR_P (offset))
   12818                 :           0 :     offset = TREE_OPERAND (offset, 0);
   12819                 :             : 
   12820                 :           0 :   if (TREE_CODE (offset) != NEGATE_EXPR)
   12821                 :             :     return false;
   12822                 :             : 
   12823                 :           0 :   offset = TREE_OPERAND (offset, 0);
   12824                 :           0 :   while (CONVERT_EXPR_P (offset))
   12825                 :           0 :     offset = TREE_OPERAND (offset, 0);
   12826                 :             : 
   12827                 :             :   /* This must now be the address of EXP.  */
   12828                 :           0 :   return TREE_CODE (offset) == ADDR_EXPR && TREE_OPERAND (offset, 0) == exp;
   12829                 :             : }
   12830                 :             : 
   12831                 :             : /* Return a STRING_CST corresponding to ARG's constant initializer either
   12832                 :             :    if it's a string constant, or, when VALREP is set, any other constant,
   12833                 :             :    or null otherwise.
   12834                 :             :    On success, set *PTR_OFFSET to the (possibly non-constant) byte offset
   12835                 :             :    within the byte string that ARG is references.  If nonnull set *MEM_SIZE
   12836                 :             :    to the size of the byte string.  If nonnull, set *DECL to the constant
   12837                 :             :    declaration ARG refers to.  */
   12838                 :             : 
   12839                 :             : static tree
   12840                 :    15237283 : constant_byte_string (tree arg, tree *ptr_offset, tree *mem_size, tree *decl,
   12841                 :             :                       bool valrep = false)
   12842                 :             : {
   12843                 :    15237283 :   tree dummy = NULL_TREE;
   12844                 :    15237283 :   if (!mem_size)
   12845                 :       10430 :     mem_size = &dummy;
   12846                 :             : 
   12847                 :             :   /* Store the type of the original expression before conversions
   12848                 :             :      via NOP_EXPR or POINTER_PLUS_EXPR to other types have been
   12849                 :             :      removed.  */
   12850                 :    15237283 :   tree argtype = TREE_TYPE (arg);
   12851                 :             : 
   12852                 :    15237283 :   tree array;
   12853                 :    15237283 :   STRIP_NOPS (arg);
   12854                 :             : 
   12855                 :             :   /* Non-constant index into the character array in an ARRAY_REF
   12856                 :             :      expression or null.  */
   12857                 :    15237283 :   tree varidx = NULL_TREE;
   12858                 :             : 
   12859                 :    15237283 :   poly_int64 base_off = 0;
   12860                 :             : 
   12861                 :    15237283 :   if (TREE_CODE (arg) == ADDR_EXPR)
   12862                 :             :     {
   12863                 :     6330301 :       arg = TREE_OPERAND (arg, 0);
   12864                 :     6330301 :       tree ref = arg;
   12865                 :     6330301 :       if (TREE_CODE (arg) == ARRAY_REF)
   12866                 :             :         {
   12867                 :      535320 :           tree idx = TREE_OPERAND (arg, 1);
   12868                 :      535320 :           if (TREE_CODE (idx) != INTEGER_CST)
   12869                 :             :             {
   12870                 :             :               /* From a pointer (but not array) argument extract the variable
   12871                 :             :                  index to prevent get_addr_base_and_unit_offset() from failing
   12872                 :             :                  due to it.  Use it later to compute the non-constant offset
   12873                 :             :                  into the string and return it to the caller.  */
   12874                 :      167315 :               varidx = idx;
   12875                 :      167315 :               ref = TREE_OPERAND (arg, 0);
   12876                 :             : 
   12877                 :      167315 :               if (TREE_CODE (TREE_TYPE (arg)) == ARRAY_TYPE)
   12878                 :             :                 return NULL_TREE;
   12879                 :             : 
   12880                 :       27818 :               if (!integer_zerop (array_ref_low_bound (arg)))
   12881                 :             :                 return NULL_TREE;
   12882                 :             : 
   12883                 :       27080 :               if (!integer_onep (array_ref_element_size (arg)))
   12884                 :             :                 return NULL_TREE;
   12885                 :             :             }
   12886                 :             :         }
   12887                 :     6189090 :       array = get_addr_base_and_unit_offset (ref, &base_off);
   12888                 :     6189090 :       if (!array
   12889                 :     6141444 :           || (TREE_CODE (array) != VAR_DECL
   12890                 :     6141444 :               && TREE_CODE (array) != CONST_DECL
   12891                 :     3752884 :               && TREE_CODE (array) != STRING_CST))
   12892                 :             :         return NULL_TREE;
   12893                 :             :     }
   12894                 :     8906982 :   else if (TREE_CODE (arg) == PLUS_EXPR || TREE_CODE (arg) == POINTER_PLUS_EXPR)
   12895                 :             :     {
   12896                 :       25547 :       tree arg0 = TREE_OPERAND (arg, 0);
   12897                 :       25547 :       tree arg1 = TREE_OPERAND (arg, 1);
   12898                 :             : 
   12899                 :       25547 :       tree offset;
   12900                 :       25547 :       tree str = string_constant (arg0, &offset, mem_size, decl);
   12901                 :       25547 :       if (!str)
   12902                 :             :         {
   12903                 :       17116 :            str = string_constant (arg1, &offset, mem_size, decl);
   12904                 :       17116 :            arg1 = arg0;
   12905                 :             :         }
   12906                 :             : 
   12907                 :       17116 :       if (str)
   12908                 :             :         {
   12909                 :             :           /* Avoid pointers to arrays (see bug 86622).  */
   12910                 :        8431 :           if (POINTER_TYPE_P (TREE_TYPE (arg))
   12911                 :        8431 :               && TREE_CODE (TREE_TYPE (TREE_TYPE (arg))) == ARRAY_TYPE
   12912                 :        2100 :               && !(decl && !*decl)
   12913                 :       11231 :               && !(decl && tree_fits_uhwi_p (DECL_SIZE_UNIT (*decl))
   12914                 :        1400 :                    && tree_fits_uhwi_p (*mem_size)
   12915                 :        1400 :                    && tree_int_cst_equal (*mem_size, DECL_SIZE_UNIT (*decl))))
   12916                 :        2100 :             return NULL_TREE;
   12917                 :             : 
   12918                 :        6331 :           tree type = TREE_TYPE (offset);
   12919                 :        6331 :           arg1 = fold_convert (type, arg1);
   12920                 :        6331 :           *ptr_offset = fold_build2 (PLUS_EXPR, type, offset, arg1);
   12921                 :        6331 :           return str;
   12922                 :             :         }
   12923                 :             :       return NULL_TREE;
   12924                 :             :     }
   12925                 :     8881435 :   else if (TREE_CODE (arg) == SSA_NAME)
   12926                 :             :     {
   12927                 :     3894270 :       gimple *stmt = SSA_NAME_DEF_STMT (arg);
   12928                 :     3894270 :       if (!is_gimple_assign (stmt))
   12929                 :             :         return NULL_TREE;
   12930                 :             : 
   12931                 :      988999 :       tree rhs1 = gimple_assign_rhs1 (stmt);
   12932                 :      988999 :       tree_code code = gimple_assign_rhs_code (stmt);
   12933                 :      988999 :       if (code == ADDR_EXPR)
   12934                 :      223387 :         return string_constant (rhs1, ptr_offset, mem_size, decl);
   12935                 :      765612 :       else if (code != POINTER_PLUS_EXPR)
   12936                 :             :         return NULL_TREE;
   12937                 :             : 
   12938                 :      184548 :       tree offset;
   12939                 :      184548 :       if (tree str = string_constant (rhs1, &offset, mem_size, decl))
   12940                 :             :         {
   12941                 :             :           /* Avoid pointers to arrays (see bug 86622).  */
   12942                 :       19952 :           if (POINTER_TYPE_P (TREE_TYPE (rhs1))
   12943                 :       19952 :               && TREE_CODE (TREE_TYPE (TREE_TYPE (rhs1))) == ARRAY_TYPE
   12944                 :       17171 :               && !(decl && !*decl)
   12945                 :       36158 :               && !(decl && tree_fits_uhwi_p (DECL_SIZE_UNIT (*decl))
   12946                 :        8103 :                    && tree_fits_uhwi_p (*mem_size)
   12947                 :        8103 :                    && tree_int_cst_equal (*mem_size, DECL_SIZE_UNIT (*decl))))
   12948                 :       13582 :             return NULL_TREE;
   12949                 :             : 
   12950                 :        6370 :           tree rhs2 = gimple_assign_rhs2 (stmt);
   12951                 :        6370 :           tree type = TREE_TYPE (offset);
   12952                 :        6370 :           rhs2 = fold_convert (type, rhs2);
   12953                 :        6370 :           *ptr_offset = fold_build2 (PLUS_EXPR, type, offset, rhs2);
   12954                 :        6370 :           return str;
   12955                 :             :         }
   12956                 :             :       return NULL_TREE;
   12957                 :             :     }
   12958                 :     4987165 :   else if (DECL_P (arg))
   12959                 :             :     array = arg;
   12960                 :             :   else
   12961                 :             :     return NULL_TREE;
   12962                 :             : 
   12963                 :     8471419 :   tree offset = wide_int_to_tree (sizetype, base_off);
   12964                 :     8471419 :   if (varidx)
   12965                 :             :     {
   12966                 :        2119 :       if (TREE_CODE (TREE_TYPE (array)) != ARRAY_TYPE)
   12967                 :             :         return NULL_TREE;
   12968                 :             : 
   12969                 :        1608 :       gcc_assert (TREE_CODE (arg) == ARRAY_REF);
   12970                 :        1608 :       tree chartype = TREE_TYPE (TREE_TYPE (TREE_OPERAND (arg, 0)));
   12971                 :        1608 :       if (TREE_CODE (chartype) != INTEGER_TYPE)
   12972                 :             :         return NULL;
   12973                 :             : 
   12974                 :        1451 :       offset = fold_convert (sizetype, varidx);
   12975                 :             :     }
   12976                 :             : 
   12977                 :     8470751 :   if (TREE_CODE (array) == STRING_CST)
   12978                 :             :     {
   12979                 :     3372464 :       *ptr_offset = fold_convert (sizetype, offset);
   12980                 :     3372464 :       *mem_size = TYPE_SIZE_UNIT (TREE_TYPE (array));
   12981                 :     3372464 :       if (decl)
   12982                 :      751426 :         *decl = NULL_TREE;
   12983                 :     3372464 :       gcc_checking_assert (tree_to_shwi (TYPE_SIZE_UNIT (TREE_TYPE (array)))
   12984                 :             :                            >= TREE_STRING_LENGTH (array));
   12985                 :             :       return array;
   12986                 :             :     }
   12987                 :             : 
   12988                 :     5098287 :   tree init = ctor_for_folding (array);
   12989                 :     5098287 :   if (!init || init == error_mark_node)
   12990                 :             :     return NULL_TREE;
   12991                 :             : 
   12992                 :      155779 :   if (valrep)
   12993                 :             :     {
   12994                 :       58779 :       HOST_WIDE_INT cstoff;
   12995                 :       58779 :       if (!base_off.is_constant (&cstoff))
   12996                 :             :         return NULL_TREE;
   12997                 :             : 
   12998                 :             :       /* Check that the host and target are sane.  */
   12999                 :       58779 :       if (CHAR_BIT != 8 || BITS_PER_UNIT != 8)
   13000                 :             :         return NULL_TREE;
   13001                 :             : 
   13002                 :       58779 :       HOST_WIDE_INT typesz = int_size_in_bytes (TREE_TYPE (init));
   13003                 :       58779 :       if (typesz <= 0 || (int) typesz != typesz)
   13004                 :             :         return NULL_TREE;
   13005                 :             : 
   13006                 :       58609 :       HOST_WIDE_INT size = typesz;
   13007                 :       58609 :       if (VAR_P (array)
   13008                 :       58597 :           && DECL_SIZE_UNIT (array)
   13009                 :      117206 :           && tree_fits_shwi_p (DECL_SIZE_UNIT (array)))
   13010                 :             :         {
   13011                 :       58597 :           size = tree_to_shwi (DECL_SIZE_UNIT (array));
   13012                 :       58597 :           gcc_checking_assert (size >= typesz);
   13013                 :             :         }
   13014                 :             : 
   13015                 :             :       /* If value representation was requested convert the initializer
   13016                 :             :          for the whole array or object into a string of bytes forming
   13017                 :             :          its value representation and return it.  */
   13018                 :       58609 :       unsigned char *bytes = XNEWVEC (unsigned char, size);
   13019                 :       58609 :       int r = native_encode_initializer (init, bytes, size);
   13020                 :       58609 :       if (r < typesz)
   13021                 :             :         {
   13022                 :          59 :           XDELETEVEC (bytes);
   13023                 :          59 :           return NULL_TREE;
   13024                 :             :         }
   13025                 :             : 
   13026                 :       58550 :       if (r < size)
   13027                 :           0 :         memset (bytes + r, '\0', size - r);
   13028                 :             : 
   13029                 :       58550 :       const char *p = reinterpret_cast<const char *>(bytes);
   13030                 :       58550 :       init = build_string_literal (size, p, char_type_node);
   13031                 :       58550 :       init = TREE_OPERAND (init, 0);
   13032                 :       58550 :       init = TREE_OPERAND (init, 0);
   13033                 :       58550 :       XDELETE (bytes);
   13034                 :             : 
   13035                 :       58550 :       *mem_size = size_int (TREE_STRING_LENGTH (init));
   13036                 :       58550 :       *ptr_offset = wide_int_to_tree (ssizetype, base_off);
   13037                 :             : 
   13038                 :       58550 :       if (decl)
   13039                 :           0 :         *decl = array;
   13040                 :             : 
   13041                 :       58550 :       return init;
   13042                 :             :     }
   13043                 :             : 
   13044                 :       97000 :   if (TREE_CODE (init) == CONSTRUCTOR)
   13045                 :             :     {
   13046                 :             :       /* Convert the 64-bit constant offset to a wider type to avoid
   13047                 :             :          overflow and use it to obtain the initializer for the subobject
   13048                 :             :          it points into.  */
   13049                 :       78760 :       offset_int wioff;
   13050                 :       78760 :       if (!base_off.is_constant (&wioff))
   13051                 :         158 :         return NULL_TREE;
   13052                 :             : 
   13053                 :       78760 :       wioff *= BITS_PER_UNIT;
   13054                 :       78760 :       if (!wi::fits_uhwi_p (wioff))
   13055                 :             :         return NULL_TREE;
   13056                 :             : 
   13057                 :       78652 :       base_off = wioff.to_uhwi ();
   13058                 :       78652 :       unsigned HOST_WIDE_INT fieldoff = 0;
   13059                 :       78652 :       init = fold_ctor_reference (TREE_TYPE (arg), init, base_off, 0, array,
   13060                 :             :                                   &fieldoff);
   13061                 :       78652 :       if (!init || init == error_mark_node)
   13062                 :             :         return NULL_TREE;
   13063                 :             : 
   13064                 :       78602 :       HOST_WIDE_INT cstoff;
   13065                 :       78602 :       if (!base_off.is_constant (&cstoff))
   13066                 :             :         return NULL_TREE;
   13067                 :             : 
   13068                 :       78602 :       cstoff = (cstoff - fieldoff) / BITS_PER_UNIT;
   13069                 :       78602 :       tree off = build_int_cst (sizetype, cstoff);
   13070                 :       78602 :       if (varidx)
   13071                 :         944 :         offset = fold_build2 (PLUS_EXPR, TREE_TYPE (offset), offset, off);
   13072                 :             :       else
   13073                 :             :         offset = off;
   13074                 :             :     }
   13075                 :             : 
   13076                 :       96842 :   *ptr_offset = offset;
   13077                 :             : 
   13078                 :       96842 :   tree inittype = TREE_TYPE (init);
   13079                 :             : 
   13080                 :       96842 :   if (TREE_CODE (init) == INTEGER_CST
   13081                 :       96842 :       && (TREE_CODE (TREE_TYPE (array)) == INTEGER_TYPE
   13082                 :        1250 :           || TYPE_MAIN_VARIANT (inittype) == char_type_node))
   13083                 :             :     {
   13084                 :             :       /* Check that the host and target are sane.  */
   13085                 :         945 :       if (CHAR_BIT != 8 || BITS_PER_UNIT != 8)
   13086                 :             :         return NULL_TREE;
   13087                 :             : 
   13088                 :             :       /* For a reference to (address of) a single constant character,
   13089                 :             :          store the native representation of the character in CHARBUF.
   13090                 :             :          If the reference is to an element of an array or a member
   13091                 :             :          of a struct, only consider narrow characters until ctors
   13092                 :             :          for wide character arrays are transformed to STRING_CSTs
   13093                 :             :          like those for narrow arrays.  */
   13094                 :         945 :       unsigned char charbuf[MAX_BITSIZE_MODE_ANY_MODE / BITS_PER_UNIT];
   13095                 :         945 :       int len = native_encode_expr (init, charbuf, sizeof charbuf, 0);
   13096                 :         945 :       if (len > 0)
   13097                 :             :         {
   13098                 :             :           /* Construct a string literal with elements of INITTYPE and
   13099                 :             :              the representation above.  Then strip
   13100                 :             :              the ADDR_EXPR (ARRAY_REF (...)) around the STRING_CST.  */
   13101                 :         945 :           init = build_string_literal (len, (char *)charbuf, inittype);
   13102                 :         945 :           init = TREE_OPERAND (TREE_OPERAND (init, 0), 0);
   13103                 :             :         }
   13104                 :             :     }
   13105                 :             : 
   13106                 :       96842 :   tree initsize = TYPE_SIZE_UNIT (inittype);
   13107                 :             : 
   13108                 :       96842 :   if (TREE_CODE (init) == CONSTRUCTOR && initializer_zerop (init))
   13109                 :             :     {
   13110                 :             :       /* Fold an empty/zero constructor for an implicitly initialized
   13111                 :             :          object or subobject into the empty string.  */
   13112                 :             : 
   13113                 :             :       /* Determine the character type from that of the original
   13114                 :             :          expression.  */
   13115                 :        9354 :       tree chartype = argtype;
   13116                 :        9354 :       if (POINTER_TYPE_P (chartype))
   13117                 :        9347 :         chartype = TREE_TYPE (chartype);
   13118                 :       15004 :       while (TREE_CODE (chartype) == ARRAY_TYPE)
   13119                 :        5650 :         chartype = TREE_TYPE (chartype);
   13120                 :             : 
   13121                 :        9354 :       if (INTEGRAL_TYPE_P (chartype)
   13122                 :        9354 :           && TYPE_PRECISION (chartype) == TYPE_PRECISION (char_type_node))
   13123                 :             :         {
   13124                 :             :           /* Convert a char array to an empty STRING_CST having an array
   13125                 :             :              of the expected type and size.  */
   13126                 :        9145 :           if (!initsize)
   13127                 :        3090 :             initsize = integer_zero_node;
   13128                 :             : 
   13129                 :        9145 :           unsigned HOST_WIDE_INT size = tree_to_uhwi (initsize);
   13130                 :        9145 :           if (size > (unsigned HOST_WIDE_INT) INT_MAX)
   13131                 :             :             return NULL_TREE;
   13132                 :             : 
   13133                 :        9145 :           init = build_string_literal (size, NULL, chartype, size);
   13134                 :        9145 :           init = TREE_OPERAND (init, 0);
   13135                 :        9145 :           init = TREE_OPERAND (init, 0);
   13136                 :             : 
   13137                 :        9145 :           *ptr_offset = integer_zero_node;
   13138                 :             :         }
   13139                 :             :     }
   13140                 :             : 
   13141                 :       96842 :   if (decl)
   13142                 :       55017 :     *decl = array;
   13143                 :             : 
   13144                 :       96842 :   if (TREE_CODE (init) != STRING_CST)
   13145                 :             :     return NULL_TREE;
   13146                 :             : 
   13147                 :       67376 :   *mem_size = initsize;
   13148                 :             : 
   13149                 :       67376 :   gcc_checking_assert (tree_to_shwi (initsize) >= TREE_STRING_LENGTH (init));
   13150                 :             : 
   13151                 :             :   return init;
   13152                 :             : }
   13153                 :             : 
   13154                 :             : /* Return STRING_CST if an ARG corresponds to a string constant or zero
   13155                 :             :    if it doesn't.  If we return nonzero, set *PTR_OFFSET to the (possibly
   13156                 :             :    non-constant) offset in bytes within the string that ARG is accessing.
   13157                 :             :    If MEM_SIZE is non-zero the storage size of the memory is returned.
   13158                 :             :    If DECL is non-zero the constant declaration is returned if available.  */
   13159                 :             : 
   13160                 :             : tree
   13161                 :    10417089 : string_constant (tree arg, tree *ptr_offset, tree *mem_size, tree *decl)
   13162                 :             : {
   13163                 :    10417089 :   return constant_byte_string (arg, ptr_offset, mem_size, decl, false);
   13164                 :             : }
   13165                 :             : 
   13166                 :             : /* Similar to string_constant, return a STRING_CST corresponding
   13167                 :             :    to the value representation of the first argument if it's
   13168                 :             :    a constant.  */
   13169                 :             : 
   13170                 :             : tree
   13171                 :     4820194 : byte_representation (tree arg, tree *ptr_offset, tree *mem_size, tree *decl)
   13172                 :             : {
   13173                 :     4820194 :   return constant_byte_string (arg, ptr_offset, mem_size, decl, true);
   13174                 :             : }
   13175                 :             : 
   13176                 :             : /* Optimize x % C1 == C2 for signed modulo if C1 is a power of two and C2
   13177                 :             :    is non-zero and C3 ((1<<(prec-1)) | (C1 - 1)):
   13178                 :             :    for C2 > 0 to x & C3 == C2
   13179                 :             :    for C2 < 0 to x & C3 == (C2 & C3).  */
   13180                 :             : enum tree_code
   13181                 :          35 : maybe_optimize_pow2p_mod_cmp (enum tree_code code, tree *arg0, tree *arg1)
   13182                 :             : {
   13183                 :          35 :   gimple *stmt = get_def_for_expr (*arg0, TRUNC_MOD_EXPR);
   13184                 :          35 :   tree treeop0 = gimple_assign_rhs1 (stmt);
   13185                 :          35 :   tree treeop1 = gimple_assign_rhs2 (stmt);
   13186                 :          35 :   tree type = TREE_TYPE (*arg0);
   13187                 :          35 :   scalar_int_mode mode;
   13188                 :          35 :   if (!is_a <scalar_int_mode> (TYPE_MODE (type), &mode))
   13189                 :             :     return code;
   13190                 :          70 :   if (GET_MODE_BITSIZE (mode) != TYPE_PRECISION (type)
   13191                 :          35 :       || TYPE_PRECISION (type) <= 1
   13192                 :          35 :       || TYPE_UNSIGNED (type)
   13193                 :             :       /* Signed x % c == 0 should have been optimized into unsigned modulo
   13194                 :             :          earlier.  */
   13195                 :          35 :       || integer_zerop (*arg1)
   13196                 :             :       /* If c is known to be non-negative, modulo will be expanded as unsigned
   13197                 :             :          modulo.  */
   13198                 :          70 :       || get_range_pos_neg (treeop0) == 1)
   13199                 :           0 :     return code;
   13200                 :             : 
   13201                 :             :   /* x % c == d where d < 0 && d <= -c should be always false.  */
   13202                 :          35 :   if (tree_int_cst_sgn (*arg1) == -1
   13203                 :          51 :       && -wi::to_widest (treeop1) >= wi::to_widest (*arg1))
   13204                 :             :     return code;
   13205                 :             : 
   13206                 :          35 :   int prec = TYPE_PRECISION (type);
   13207                 :          35 :   wide_int w = wi::to_wide (treeop1) - 1;
   13208                 :          35 :   w |= wi::shifted_mask (0, prec - 1, true, prec);
   13209                 :          35 :   tree c3 = wide_int_to_tree (type, w);
   13210                 :          35 :   tree c4 = *arg1;
   13211                 :          35 :   if (tree_int_cst_sgn (*arg1) == -1)
   13212                 :          16 :     c4 = wide_int_to_tree (type, w & wi::to_wide (*arg1));
   13213                 :             : 
   13214                 :          35 :   rtx op0 = expand_normal (treeop0);
   13215                 :          35 :   treeop0 = make_tree (TREE_TYPE (treeop0), op0);
   13216                 :             : 
   13217                 :          35 :   bool speed_p = optimize_insn_for_speed_p ();
   13218                 :             : 
   13219                 :          35 :   do_pending_stack_adjust ();
   13220                 :             : 
   13221                 :          35 :   location_t loc = gimple_location (stmt);
   13222                 :          35 :   struct separate_ops ops;
   13223                 :          35 :   ops.code = TRUNC_MOD_EXPR;
   13224                 :          35 :   ops.location = loc;
   13225                 :          35 :   ops.type = TREE_TYPE (treeop0);
   13226                 :          35 :   ops.op0 = treeop0;
   13227                 :          35 :   ops.op1 = treeop1;
   13228                 :          35 :   ops.op2 = NULL_TREE;
   13229                 :          35 :   start_sequence ();
   13230                 :          35 :   rtx mor = expand_expr_real_2 (&ops, NULL_RTX, TYPE_MODE (ops.type),
   13231                 :             :                                 EXPAND_NORMAL);
   13232                 :          35 :   rtx_insn *moinsns = get_insns ();
   13233                 :          35 :   end_sequence ();
   13234                 :             : 
   13235                 :          35 :   unsigned mocost = seq_cost (moinsns, speed_p);
   13236                 :          35 :   mocost += rtx_cost (mor, mode, EQ, 0, speed_p);
   13237                 :          35 :   mocost += rtx_cost (expand_normal (*arg1), mode, EQ, 1, speed_p);
   13238                 :             : 
   13239                 :          35 :   ops.code = BIT_AND_EXPR;
   13240                 :          35 :   ops.location = loc;
   13241                 :          35 :   ops.type = TREE_TYPE (treeop0);
   13242                 :          35 :   ops.op0 = treeop0;
   13243                 :          35 :   ops.op1 = c3;
   13244                 :          35 :   ops.op2 = NULL_TREE;
   13245                 :          35 :   start_sequence ();
   13246                 :          35 :   rtx mur = expand_expr_real_2 (&ops, NULL_RTX, TYPE_MODE (ops.type),
   13247                 :             :                                 EXPAND_NORMAL);
   13248                 :          35 :   rtx_insn *muinsns = get_insns ();
   13249                 :          35 :   end_sequence ();
   13250                 :             : 
   13251                 :          35 :   unsigned mucost = seq_cost (muinsns, speed_p);
   13252                 :          35 :   mucost += rtx_cost (mur, mode, EQ, 0, speed_p);
   13253                 :          35 :   mucost += rtx_cost (expand_normal (c4), mode, EQ, 1, speed_p);
   13254                 :             : 
   13255                 :          35 :   if (mocost <= mucost)
   13256                 :             :     {
   13257                 :           0 :       emit_insn (moinsns);
   13258                 :           0 :       *arg0 = make_tree (TREE_TYPE (*arg0), mor);
   13259                 :           0 :       return code;
   13260                 :             :     }
   13261                 :             : 
   13262                 :          35 :   emit_insn (muinsns);
   13263                 :          35 :   *arg0 = make_tree (TREE_TYPE (*arg0), mur);
   13264                 :          35 :   *arg1 = c4;
   13265                 :          35 :   return code;
   13266                 :          35 : }
   13267                 :             : 
   13268                 :             : /* Attempt to optimize unsigned (X % C1) == C2 (or (X % C1) != C2).
   13269                 :             :    If C1 is odd to:
   13270                 :             :    (X - C2) * C3 <= C4 (or >), where
   13271                 :             :    C3 is modular multiplicative inverse of C1 and 1<<prec and
   13272                 :             :    C4 is ((1<<prec) - 1) / C1 or ((1<<prec) - 1) / C1 - 1 (the latter
   13273                 :             :    if C2 > ((1<<prec) - 1) % C1).
   13274                 :             :    If C1 is even, S = ctz (C1) and C2 is 0, use
   13275                 :             :    ((X * C3) r>> S) <= C4, where C3 is modular multiplicative
   13276                 :             :    inverse of C1>>S and 1<<prec and C4 is (((1<<prec) - 1) / (C1>>S)) >> S.
   13277                 :             : 
   13278                 :             :    For signed (X % C1) == 0 if C1 is odd to (all operations in it
   13279                 :             :    unsigned):
   13280                 :             :    (X * C3) + C4 <= 2 * C4, where
   13281                 :             :    C3 is modular multiplicative inverse of (unsigned) C1 and 1<<prec and
   13282                 :             :    C4 is ((1<<(prec - 1) - 1) / C1).
   13283                 :             :    If C1 is even, S = ctz(C1), use
   13284                 :             :    ((X * C3) + C4) r>> S <= (C4 >> (S - 1))
   13285                 :             :    where C3 is modular multiplicative inverse of (unsigned)(C1>>S) and 1<<prec
   13286                 :             :    and C4 is ((1<<(prec - 1) - 1) / (C1>>S)) & (-1<<S).
   13287                 :             : 
   13288                 :             :    See the Hacker's Delight book, section 10-17.  */
   13289                 :             : enum tree_code
   13290                 :     3062406 : maybe_optimize_mod_cmp (enum tree_code code, tree *arg0, tree *arg1)
   13291                 :             : {
   13292                 :     3062406 :   gcc_checking_assert (code == EQ_EXPR || code == NE_EXPR);
   13293                 :     3062406 :   gcc_checking_assert (TREE_CODE (*arg1) == INTEGER_CST);
   13294                 :             : 
   13295                 :     3062406 :   if (optimize < 2)
   13296                 :             :     return code;
   13297                 :             : 
   13298                 :     2296706 :   gimple *stmt = get_def_for_expr (*arg0, TRUNC_MOD_EXPR);
   13299                 :     2296706 :   if (stmt == NULL)
   13300                 :             :     return code;
   13301                 :             : 
   13302                 :        2212 :   tree treeop0 = gimple_assign_rhs1 (stmt);
   13303                 :        2212 :   tree treeop1 = gimple_assign_rhs2 (stmt);
   13304                 :        2212 :   if (TREE_CODE (treeop0) != SSA_NAME
   13305                 :        2136 :       || TREE_CODE (treeop1) != INTEGER_CST
   13306                 :             :       /* Don't optimize the undefined behavior case x % 0;
   13307                 :             :          x % 1 should have been optimized into zero, punt if
   13308                 :             :          it makes it here for whatever reason;
   13309                 :             :          x % -c should have been optimized into x % c.  */
   13310                 :        1785 :       || compare_tree_int (treeop1, 2) <= 0
   13311                 :             :       /* Likewise x % c == d where d >= c should be always false.  */
   13312                 :        3910 :       || tree_int_cst_le (treeop1, *arg1))
   13313                 :         514 :     return code;
   13314                 :             : 
   13315                 :             :   /* Unsigned x % pow2 is handled right already, for signed
   13316                 :             :      modulo handle it in maybe_optimize_pow2p_mod_cmp.  */
   13317                 :        1698 :   if (integer_pow2p (treeop1))
   13318                 :          35 :     return maybe_optimize_pow2p_mod_cmp (code, arg0, arg1);
   13319                 :             : 
   13320                 :        1663 :   tree type = TREE_TYPE (*arg0);
   13321                 :        1663 :   scalar_int_mode mode;
   13322                 :     3062378 :   if (!is_a <scalar_int_mode> (TYPE_MODE (type), &mode))
   13323                 :             :     return code;
   13324                 :        3326 :   if (GET_MODE_BITSIZE (mode) != TYPE_PRECISION (type)
   13325                 :        1663 :       || TYPE_PRECISION (type) <= 1)
   13326                 :             :     return code;
   13327                 :             : 
   13328                 :        1663 :   signop sgn = UNSIGNED;
   13329                 :             :   /* If both operands are known to have the sign bit clear, handle
   13330                 :             :      even the signed modulo case as unsigned.  treeop1 is always
   13331                 :             :      positive >= 2, checked above.  */
   13332                 :        1663 :   if (!TYPE_UNSIGNED (type) && get_range_pos_neg (treeop0) != 1)
   13333                 :             :     sgn = SIGNED;
   13334                 :             : 
   13335                 :        1663 :   if (!TYPE_UNSIGNED (type))
   13336                 :             :     {
   13337                 :        1443 :       if (tree_int_cst_sgn (*arg1) == -1)
   13338                 :             :         return code;
   13339                 :        1436 :       type = unsigned_type_for (type);
   13340                 :        1436 :       if (!type || TYPE_MODE (type) != TYPE_MODE (TREE_TYPE (*arg0)))
   13341                 :           0 :         return code;
   13342                 :             :     }
   13343                 :             : 
   13344                 :        1656 :   int prec = TYPE_PRECISION (type);
   13345                 :        1656 :   wide_int w = wi::to_wide (treeop1);
   13346                 :        1656 :   int shift = wi::ctz (w);
   13347                 :             :   /* Unsigned (X % C1) == C2 is equivalent to (X - C2) % C1 == 0 if
   13348                 :             :      C2 <= -1U % C1, because for any Z >= 0U - C2 in that case (Z % C1) != 0.
   13349                 :             :      If C1 is odd, we can handle all cases by subtracting
   13350                 :             :      C4 below.  We could handle even the even C1 and C2 > -1U % C1 cases
   13351                 :             :      e.g. by testing for overflow on the subtraction, punt on that for now
   13352                 :             :      though.  */
   13353                 :        1656 :   if ((sgn == SIGNED || shift) && !integer_zerop (*arg1))
   13354                 :             :     {
   13355                 :         181 :       if (sgn == SIGNED)
   13356                 :         166 :         return code;
   13357                 :          26 :       wide_int x = wi::umod_trunc (wi::mask (prec, false, prec), w);
   13358                 :          26 :       if (wi::gtu_p (wi::to_wide (*arg1), x))
   13359                 :          11 :         return code;
   13360                 :          26 :     }
   13361                 :             : 
   13362                 :        1490 :   imm_use_iterator imm_iter;
   13363                 :        1490 :   use_operand_p use_p;
   13364                 :       11058 :   FOR_EACH_IMM_USE_FAST (use_p, imm_iter, treeop0)
   13365                 :             :     {
   13366                 :        9569 :       gimple *use_stmt = USE_STMT (use_p);
   13367                 :             :       /* Punt if treeop0 is used in the same bb in a division
   13368                 :             :          or another modulo with the same divisor.  We should expect
   13369                 :             :          the division and modulo combined together.  */
   13370                 :       18808 :       if (use_stmt == stmt
   13371                 :        9569 :           || gimple_bb (use_stmt) != gimple_bb (stmt))
   13372                 :        9239 :         continue;
   13373                 :         330 :       if (!is_gimple_assign (use_stmt)
   13374                 :         330 :           || (gimple_assign_rhs_code (use_stmt) != TRUNC_DIV_EXPR
   13375                 :         323 :               && gimple_assign_rhs_code (use_stmt) != TRUNC_MOD_EXPR))
   13376                 :         320 :         continue;
   13377                 :          10 :       if (gimple_assign_rhs1 (use_stmt) != treeop0
   13378                 :          10 :           || !operand_equal_p (gimple_assign_rhs2 (use_stmt), treeop1, 0))
   13379                 :           9 :         continue;
   13380                 :             :       return code;
   13381                 :             :     }
   13382                 :             : 
   13383                 :        1489 :   w = wi::lrshift (w, shift);
   13384                 :        1489 :   wide_int a = wide_int::from (w, prec + 1, UNSIGNED);
   13385                 :        1489 :   wide_int b = wi::shifted_mask (prec, 1, false, prec + 1);
   13386                 :        1489 :   wide_int m = wide_int::from (wi::mod_inv (a, b), prec, UNSIGNED);
   13387                 :        1489 :   tree c3 = wide_int_to_tree (type, m);
   13388                 :        1489 :   tree c5 = NULL_TREE;
   13389                 :        1489 :   wide_int d, e;
   13390                 :        1489 :   if (sgn == UNSIGNED)
   13391                 :             :     {
   13392                 :         751 :       d = wi::divmod_trunc (wi::mask (prec, false, prec), w, UNSIGNED, &e);
   13393                 :             :       /* Use <= floor ((1<<prec) - 1) / C1 only if C2 <= ((1<<prec) - 1) % C1,
   13394                 :             :          otherwise use < or subtract one from C4.  E.g. for
   13395                 :             :          x % 3U == 0 we transform this into x * 0xaaaaaaab <= 0x55555555, but
   13396                 :             :          x % 3U == 1 already needs to be
   13397                 :             :          (x - 1) * 0xaaaaaaabU <= 0x55555554.  */
   13398                 :         751 :       if (!shift && wi::gtu_p (wi::to_wide (*arg1), e))
   13399                 :          17 :         d -= 1;
   13400                 :         751 :       if (shift)
   13401                 :         278 :         d = wi::lrshift (d, shift);
   13402                 :             :     }
   13403                 :             :   else
   13404                 :             :     {
   13405                 :         738 :       e = wi::udiv_trunc (wi::mask (prec - 1, false, prec), w);
   13406                 :         738 :       if (!shift)
   13407                 :         375 :         d = wi::lshift (e, 1);
   13408                 :             :       else
   13409                 :             :         {
   13410                 :         363 :           e = wi::bit_and (e, wi::mask (shift, true, prec));
   13411                 :         363 :           d = wi::lrshift (e, shift - 1);
   13412                 :             :         }
   13413                 :         738 :       c5 = wide_int_to_tree (type, e);
   13414                 :             :     }
   13415                 :        1489 :   tree c4 = wide_int_to_tree (type, d);
   13416                 :             : 
   13417                 :        1489 :   rtx op0 = expand_normal (treeop0);
   13418                 :        1489 :   treeop0 = make_tree (TREE_TYPE (treeop0), op0);
   13419                 :             : 
   13420                 :        1489 :   bool speed_p = optimize_insn_for_speed_p ();
   13421                 :             : 
   13422                 :        1489 :   do_pending_stack_adjust ();
   13423                 :             : 
   13424                 :        1489 :   location_t loc = gimple_location (stmt);
   13425                 :        1489 :   struct separate_ops ops;
   13426                 :        1489 :   ops.code = TRUNC_MOD_EXPR;
   13427                 :        1489 :   ops.location = loc;
   13428                 :        1489 :   ops.type = TREE_TYPE (treeop0);
   13429                 :        1489 :   ops.op0 = treeop0;
   13430                 :        1489 :   ops.op1 = treeop1;
   13431                 :        1489 :   ops.op2 = NULL_TREE;
   13432                 :        1489 :   start_sequence ();
   13433                 :        1489 :   rtx mor = expand_expr_real_2 (&ops, NULL_RTX, TYPE_MODE (ops.type),
   13434                 :             :                                 EXPAND_NORMAL);
   13435                 :        1489 :   rtx_insn *moinsns = get_insns ();
   13436                 :        1489 :   end_sequence ();
   13437                 :             : 
   13438                 :        1489 :   unsigned mocost = seq_cost (moinsns, speed_p);
   13439                 :        1489 :   mocost += rtx_cost (mor, mode, EQ, 0, speed_p);
   13440                 :        1489 :   mocost += rtx_cost (expand_normal (*arg1), mode, EQ, 1, speed_p);
   13441                 :             : 
   13442                 :        1489 :   tree t = fold_convert_loc (loc, type, treeop0);
   13443                 :        1489 :   if (!integer_zerop (*arg1))
   13444                 :          42 :     t = fold_build2_loc (loc, MINUS_EXPR, type, t, fold_convert (type, *arg1));
   13445                 :        1489 :   t = fold_build2_loc (loc, MULT_EXPR, type, t, c3);
   13446                 :        1489 :   if (sgn == SIGNED)
   13447                 :         738 :     t = fold_build2_loc (loc, PLUS_EXPR, type, t, c5);
   13448                 :        1489 :   if (shift)
   13449                 :             :     {
   13450                 :         641 :       tree s = build_int_cst (NULL_TREE, shift);
   13451                 :         641 :       t = fold_build2_loc (loc, RROTATE_EXPR, type, t, s);
   13452                 :             :     }
   13453                 :             : 
   13454                 :        1489 :   start_sequence ();
   13455                 :        1489 :   rtx mur = expand_normal (t);
   13456                 :        1489 :   rtx_insn *muinsns = get_insns ();
   13457                 :        1489 :   end_sequence ();
   13458                 :             : 
   13459                 :        1489 :   unsigned mucost = seq_cost (muinsns, speed_p);
   13460                 :        1489 :   mucost += rtx_cost (mur, mode, LE, 0, speed_p);
   13461                 :        1489 :   mucost += rtx_cost (expand_normal (c4), mode, LE, 1, speed_p);
   13462                 :             : 
   13463                 :        1489 :   if (mocost <= mucost)
   13464                 :             :     {
   13465                 :         301 :       emit_insn (moinsns);
   13466                 :         301 :       *arg0 = make_tree (TREE_TYPE (*arg0), mor);
   13467                 :         301 :       return code;
   13468                 :             :     }
   13469                 :             : 
   13470                 :        1188 :   emit_insn (muinsns);
   13471                 :        1188 :   *arg0 = make_tree (type, mur);
   13472                 :        1188 :   *arg1 = c4;
   13473                 :        1188 :   return code == EQ_EXPR ? LE_EXPR : GT_EXPR;
   13474                 :        3145 : }
   13475                 :             : 
   13476                 :             : /* Optimize x - y < 0 into x < 0 if x - y has undefined overflow.  */
   13477                 :             : 
   13478                 :             : void
   13479                 :      228125 : maybe_optimize_sub_cmp_0 (enum tree_code code, tree *arg0, tree *arg1)
   13480                 :             : {
   13481                 :      228125 :   gcc_checking_assert (code == GT_EXPR || code == GE_EXPR
   13482                 :             :                        || code == LT_EXPR || code == LE_EXPR);
   13483                 :      228125 :   gcc_checking_assert (integer_zerop (*arg1));
   13484                 :             : 
   13485                 :      228125 :   if (!optimize)
   13486                 :             :     return;
   13487                 :             : 
   13488                 :      195498 :   gimple *stmt = get_def_for_expr (*arg0, MINUS_EXPR);
   13489                 :      195498 :   if (stmt == NULL)
   13490                 :             :     return;
   13491                 :             : 
   13492                 :        1257 :   tree treeop0 = gimple_assign_rhs1 (stmt);
   13493                 :        1257 :   tree treeop1 = gimple_assign_rhs2 (stmt);
   13494                 :        1257 :   if (!TYPE_OVERFLOW_UNDEFINED (TREE_TYPE (treeop0)))
   13495                 :             :     return;
   13496                 :             : 
   13497                 :        1160 :   if (issue_strict_overflow_warning (WARN_STRICT_OVERFLOW_COMPARISON))
   13498                 :           1 :     warning_at (gimple_location (stmt), OPT_Wstrict_overflow,
   13499                 :             :                 "assuming signed overflow does not occur when "
   13500                 :             :                 "simplifying %<X - Y %s 0%> to %<X %s Y%>",
   13501                 :             :                 op_symbol_code (code), op_symbol_code (code));
   13502                 :             : 
   13503                 :        1160 :   *arg0 = treeop0;
   13504                 :        1160 :   *arg1 = treeop1;
   13505                 :             : }
   13506                 :             : 
   13507                 :             : 
   13508                 :             : /* Expand CODE with arguments INNER & (1<<BITNUM) and 0 that represents
   13509                 :             :    a single bit equality/inequality test, returns where the result is located.  */
   13510                 :             : 
   13511                 :             : static rtx
   13512                 :        9502 : expand_single_bit_test (location_t loc, enum tree_code code,
   13513                 :             :                         tree inner, int bitnum,
   13514                 :             :                         tree result_type, rtx target,
   13515                 :             :                         machine_mode mode)
   13516                 :             : {
   13517                 :        9502 :   gcc_assert (code == NE_EXPR || code == EQ_EXPR);
   13518                 :             : 
   13519                 :        9502 :   tree type = TREE_TYPE (inner);
   13520                 :        9502 :   scalar_int_mode operand_mode = SCALAR_INT_TYPE_MODE (type);
   13521                 :        9502 :   int ops_unsigned;
   13522                 :        9502 :   tree signed_type, unsigned_type, intermediate_type;
   13523                 :        9502 :   gimple *inner_def;
   13524                 :             : 
   13525                 :             :   /* First, see if we can fold the single bit test into a sign-bit
   13526                 :             :      test.  */
   13527                 :        9502 :   if (bitnum == TYPE_PRECISION (type) - 1
   13528                 :        9502 :       && type_has_mode_precision_p (type))
   13529                 :             :     {
   13530                 :         229 :       tree stype = signed_type_for (type);
   13531                 :         424 :       tree tmp = fold_build2_loc (loc, code == EQ_EXPR ? GE_EXPR : LT_EXPR,
   13532                 :             :                                   result_type,
   13533                 :             :                                   fold_convert_loc (loc, stype, inner),
   13534                 :         229 :                                   build_int_cst (stype, 0));
   13535                 :         229 :       return expand_expr (tmp, target, VOIDmode, EXPAND_NORMAL);
   13536                 :             :     }
   13537                 :             : 
   13538                 :             :   /* Otherwise we have (A & C) != 0 where C is a single bit,
   13539                 :             :      convert that into ((A >> C2) & 1).  Where C2 = log2(C).
   13540                 :             :      Similarly for (A & C) == 0.  */
   13541                 :             : 
   13542                 :             :   /* If INNER is a right shift of a constant and it plus BITNUM does
   13543                 :             :      not overflow, adjust BITNUM and INNER.  */
   13544                 :        9273 :   if ((inner_def = get_def_for_expr (inner, RSHIFT_EXPR))
   13545                 :          14 :        && TREE_CODE (gimple_assign_rhs2 (inner_def)) == INTEGER_CST
   13546                 :           0 :        && bitnum < TYPE_PRECISION (type)
   13547                 :        9273 :        && wi::ltu_p (wi::to_wide (gimple_assign_rhs2 (inner_def)),
   13548                 :        9273 :                      TYPE_PRECISION (type) - bitnum))
   13549                 :             :     {
   13550                 :           0 :       bitnum += tree_to_uhwi (gimple_assign_rhs2 (inner_def));
   13551                 :           0 :       inner = gimple_assign_rhs1 (inner_def);
   13552                 :             :     }
   13553                 :             : 
   13554                 :             :   /* If we are going to be able to omit the AND below, we must do our
   13555                 :             :      operations as unsigned.  If we must use the AND, we have a choice.
   13556                 :             :      Normally unsigned is faster, but for some machines signed is.  */
   13557                 :        9273 :   ops_unsigned = (load_extend_op (operand_mode) == SIGN_EXTEND
   13558                 :             :                   && !flag_syntax_only) ? 0 : 1;
   13559                 :             : 
   13560                 :        9273 :   signed_type = lang_hooks.types.type_for_mode (operand_mode, 0);
   13561                 :        9273 :   unsigned_type = lang_hooks.types.type_for_mode (operand_mode, 1);
   13562                 :        9273 :   intermediate_type = ops_unsigned ? unsigned_type : signed_type;
   13563                 :        9273 :   inner = fold_convert_loc (loc, intermediate_type, inner);
   13564                 :             : 
   13565                 :        9273 :   rtx inner0 = expand_expr (inner, NULL_RTX, VOIDmode, EXPAND_NORMAL);
   13566                 :             : 
   13567                 :        9273 :   if (CONST_SCALAR_INT_P (inner0))
   13568                 :             :     {
   13569                 :           0 :       wide_int t = rtx_mode_t (inner0, operand_mode);
   13570                 :           0 :       bool setp = (wi::lrshift (t, bitnum) & 1) != 0;
   13571                 :           0 :       return (setp ^ (code == EQ_EXPR)) ? const1_rtx : const0_rtx;
   13572                 :           0 :     }
   13573                 :        9273 :   int bitpos = bitnum;
   13574                 :             : 
   13575                 :        9273 :   if (BYTES_BIG_ENDIAN)
   13576                 :             :     bitpos = GET_MODE_BITSIZE (operand_mode) - 1 - bitpos;
   13577                 :             : 
   13578                 :        9273 :   inner0 = extract_bit_field (inner0, 1, bitpos, 1, target,
   13579                 :             :                               operand_mode, mode, 0, NULL);
   13580                 :             : 
   13581                 :        9273 :   if (code == EQ_EXPR)
   13582                 :        2666 :     inner0 = expand_binop (GET_MODE (inner0), xor_optab, inner0, const1_rtx,
   13583                 :             :                            NULL_RTX, 1, OPTAB_LIB_WIDEN);
   13584                 :        9273 :   if (GET_MODE (inner0) != mode)
   13585                 :             :     {
   13586                 :           0 :       rtx t = gen_reg_rtx (mode);
   13587                 :           0 :       convert_move (t, inner0, 0);
   13588                 :           0 :       return t;
   13589                 :             :     }
   13590                 :             :   return inner0;
   13591                 :             : }
   13592                 :             : 
   13593                 :             : /* Generate code to calculate OPS, and exploded expression
   13594                 :             :    using a store-flag instruction and return an rtx for the result.
   13595                 :             :    OPS reflects a comparison.
   13596                 :             : 
   13597                 :             :    If TARGET is nonzero, store the result there if convenient.
   13598                 :             : 
   13599                 :             :    Return zero if there is no suitable set-flag instruction
   13600                 :             :    available on this machine.
   13601                 :             : 
   13602                 :             :    Once expand_expr has been called on the arguments of the comparison,
   13603                 :             :    we are committed to doing the store flag, since it is not safe to
   13604                 :             :    re-evaluate the expression.  We emit the store-flag insn by calling
   13605                 :             :    emit_store_flag, but only expand the arguments if we have a reason
   13606                 :             :    to believe that emit_store_flag will be successful.  If we think that
   13607                 :             :    it will, but it isn't, we have to simulate the store-flag with a
   13608                 :             :    set/jump/set sequence.  */
   13609                 :             : 
   13610                 :             : static rtx
   13611                 :      512860 : do_store_flag (const_sepops ops, rtx target, machine_mode mode)
   13612                 :             : {
   13613                 :      512860 :   enum rtx_code code;
   13614                 :      512860 :   tree arg0, arg1, type;
   13615                 :      512860 :   machine_mode operand_mode;
   13616                 :      512860 :   int unsignedp;
   13617                 :      512860 :   rtx op0, op1;
   13618                 :      512860 :   rtx subtarget = target;
   13619                 :      512860 :   location_t loc = ops->location;
   13620                 :      512860 :   unsigned HOST_WIDE_INT nunits;
   13621                 :             : 
   13622                 :      512860 :   arg0 = ops->op0;
   13623                 :      512860 :   arg1 = ops->op1;
   13624                 :             : 
   13625                 :             :   /* Don't crash if the comparison was erroneous.  */
   13626                 :      512860 :   if (arg0 == error_mark_node || arg1 == error_mark_node)
   13627                 :           0 :     return const0_rtx;
   13628                 :             : 
   13629                 :      512860 :   type = TREE_TYPE (arg0);
   13630                 :      512860 :   operand_mode = TYPE_MODE (type);
   13631                 :      512860 :   unsignedp = TYPE_UNSIGNED (type);
   13632                 :             : 
   13633                 :             :   /* We won't bother with BLKmode store-flag operations because it would mean
   13634                 :             :      passing a lot of information to emit_store_flag.  */
   13635                 :      512860 :   if (operand_mode == BLKmode)
   13636                 :             :     return 0;
   13637                 :             : 
   13638                 :             :   /* We won't bother with store-flag operations involving function pointers
   13639                 :             :      when function pointers must be canonicalized before comparisons.  */
   13640                 :      512860 :   if (targetm.have_canonicalize_funcptr_for_compare ()
   13641                 :      512860 :       && ((POINTER_TYPE_P (TREE_TYPE (arg0))
   13642                 :           0 :            && FUNC_OR_METHOD_TYPE_P (TREE_TYPE (TREE_TYPE (arg0))))
   13643                 :           0 :           || (POINTER_TYPE_P (TREE_TYPE (arg1))
   13644                 :           0 :               && FUNC_OR_METHOD_TYPE_P (TREE_TYPE (TREE_TYPE (arg1))))))
   13645                 :             :     return 0;
   13646                 :             : 
   13647                 :      512860 :   STRIP_NOPS (arg0);
   13648                 :      512860 :   STRIP_NOPS (arg1);
   13649                 :             : 
   13650                 :             :   /* For vector typed comparisons emit code to generate the desired
   13651                 :             :      all-ones or all-zeros mask.  */
   13652                 :      512860 :   if (VECTOR_TYPE_P (ops->type))
   13653                 :             :     {
   13654                 :       21735 :       tree ifexp = build2 (ops->code, ops->type, arg0, arg1);
   13655                 :       21735 :       if (VECTOR_BOOLEAN_TYPE_P (ops->type)
   13656                 :       43470 :           && expand_vec_cmp_expr_p (TREE_TYPE (arg0), ops->type, ops->code))
   13657                 :       21735 :         return expand_vec_cmp_expr (ops->type, ifexp, target);
   13658                 :             :       else
   13659                 :           0 :         gcc_unreachable ();
   13660                 :             :     }
   13661                 :             : 
   13662                 :             :   /* Optimize (x % C1) == C2 or (x % C1) != C2 if it is beneficial
   13663                 :             :      into (x - C2) * C3 < C4.  */
   13664                 :      491125 :   if ((ops->code == EQ_EXPR || ops->code == NE_EXPR)
   13665                 :      296753 :       && TREE_CODE (arg0) == SSA_NAME
   13666                 :      294179 :       && TREE_CODE (arg1) == INTEGER_CST)
   13667                 :             :     {
   13668                 :      175843 :       enum tree_code new_code = maybe_optimize_mod_cmp (ops->code,
   13669                 :             :                                                         &arg0, &arg1);
   13670                 :      175843 :       if (new_code != ops->code)
   13671                 :             :         {
   13672                 :          75 :           struct separate_ops nops = *ops;
   13673                 :          75 :           nops.code = new_code;
   13674                 :          75 :           nops.op0 = arg0;
   13675                 :          75 :           nops.op1 = arg1;
   13676                 :          75 :           nops.type = TREE_TYPE (arg0);
   13677                 :          75 :           return do_store_flag (&nops, target, mode);
   13678                 :             :         }
   13679                 :             :     }
   13680                 :             : 
   13681                 :             :   /* Optimize (x - y) < 0 into x < y if x - y has undefined overflow.  */
   13682                 :      491050 :   if (!unsignedp
   13683                 :      336899 :       && (ops->code == LT_EXPR || ops->code == LE_EXPR
   13684                 :      336899 :           || ops->code == GT_EXPR || ops->code == GE_EXPR)
   13685                 :      121572 :       && integer_zerop (arg1)
   13686                 :      528961 :       && TREE_CODE (arg0) == SSA_NAME)
   13687                 :       37907 :     maybe_optimize_sub_cmp_0 (ops->code, &arg0, &arg1);
   13688                 :             : 
   13689                 :             :   /* Get the rtx comparison code to use.  We know that EXP is a comparison
   13690                 :             :      operation of some type.  Some comparisons against 1 and -1 can be
   13691                 :             :      converted to comparisons with zero.  Do so here so that the tests
   13692                 :             :      below will be aware that we have a comparison with zero.   These
   13693                 :             :      tests will not catch constants in the first operand, but constants
   13694                 :             :      are rarely passed as the first operand.  */
   13695                 :             : 
   13696                 :      491050 :   switch (ops->code)
   13697                 :             :     {
   13698                 :             :     case EQ_EXPR:
   13699                 :             :       code = EQ;
   13700                 :             :       break;
   13701                 :      180416 :     case NE_EXPR:
   13702                 :      180416 :       code = NE;
   13703                 :      180416 :       break;
   13704                 :       40496 :     case LT_EXPR:
   13705                 :       40496 :       if (integer_onep (arg1))
   13706                 :           0 :         arg1 = integer_zero_node, code = unsignedp ? LEU : LE;
   13707                 :             :       else
   13708                 :       40496 :         code = unsignedp ? LTU : LT;
   13709                 :             :       break;
   13710                 :       32840 :     case LE_EXPR:
   13711                 :       32840 :       if (! unsignedp && integer_all_onesp (arg1))
   13712                 :           0 :         arg1 = integer_zero_node, code = LT;
   13713                 :             :       else
   13714                 :       32840 :         code = unsignedp ? LEU : LE;
   13715                 :             :       break;
   13716                 :       54541 :     case GT_EXPR:
   13717                 :       54541 :       if (! unsignedp && integer_all_onesp (arg1))
   13718                 :           0 :         arg1 = integer_zero_node, code = GE;
   13719                 :             :       else
   13720                 :       54541 :         code = unsignedp ? GTU : GT;
   13721                 :             :       break;
   13722                 :       42377 :     case GE_EXPR:
   13723                 :       42377 :       if (integer_onep (arg1))
   13724                 :           0 :         arg1 = integer_zero_node, code = unsignedp ? GTU : GT;
   13725                 :             :       else
   13726                 :       42377 :         code = unsignedp ? GEU : GE;
   13727                 :             :       break;
   13728                 :             : 
   13729                 :         676 :     case UNORDERED_EXPR:
   13730                 :         676 :       code = UNORDERED;
   13731                 :         676 :       break;
   13732                 :         679 :     case ORDERED_EXPR:
   13733                 :         679 :       code = ORDERED;
   13734                 :         679 :       break;
   13735                 :         482 :     case UNLT_EXPR:
   13736                 :         482 :       code = UNLT;
   13737                 :         482 :       break;
   13738                 :       11129 :     case UNLE_EXPR:
   13739                 :       11129 :       code = UNLE;
   13740                 :       11129 :       break;
   13741                 :         766 :     case UNGT_EXPR:
   13742                 :         766 :       code = UNGT;
   13743                 :         766 :       break;
   13744                 :       10165 :     case UNGE_EXPR:
   13745                 :       10165 :       code = UNGE;
   13746                 :       10165 :       break;
   13747                 :         141 :     case UNEQ_EXPR:
   13748                 :         141 :       code = UNEQ;
   13749                 :         141 :       break;
   13750                 :          80 :     case LTGT_EXPR:
   13751                 :          80 :       code = LTGT;
   13752                 :          80 :       break;
   13753                 :             : 
   13754                 :           0 :     default:
   13755                 :           0 :       gcc_unreachable ();
   13756                 :             :     }
   13757                 :             : 
   13758                 :             :   /* Put a constant second.  */
   13759                 :      491050 :   if (TREE_CODE (arg0) == REAL_CST || TREE_CODE (arg0) == INTEGER_CST
   13760                 :      490009 :       || TREE_CODE (arg0) == FIXED_CST)
   13761                 :             :     {
   13762                 :        1041 :       std::swap (arg0, arg1);
   13763                 :        1041 :       code = swap_condition (code);
   13764                 :             :     }
   13765                 :             : 
   13766                 :             :   /* If this is an equality or inequality test of a single bit, we can
   13767                 :             :      do this by shifting the bit being tested to the low-order bit and
   13768                 :             :      masking the result with the constant 1.  If the condition was EQ,
   13769                 :             :      we xor it with 1.  This does not require an scc insn and is faster
   13770                 :             :      than an scc insn even if we have it.  */
   13771                 :             : 
   13772                 :      491050 :   if ((code == NE || code == EQ)
   13773                 :      296678 :       && (integer_zerop (arg1)
   13774                 :      189763 :           || integer_pow2p (arg1))
   13775                 :             :       /* vector types are not handled here. */
   13776                 :      136140 :       && TREE_CODE (TREE_TYPE (arg1)) != VECTOR_TYPE
   13777                 :      627180 :       && (TYPE_PRECISION (ops->type) != 1 || TYPE_UNSIGNED (ops->type)))
   13778                 :             :     {
   13779                 :      136130 :       tree narg0 = arg0;
   13780                 :      136130 :       wide_int nz = tree_nonzero_bits (narg0);
   13781                 :      136130 :       gimple *srcstmt = get_def_for_expr (narg0, BIT_AND_EXPR);
   13782                 :             :       /* If the defining statement was (x & POW2), then use that instead of
   13783                 :             :          the non-zero bits.  */
   13784                 :      136130 :       if (srcstmt && integer_pow2p (gimple_assign_rhs2 (srcstmt)))
   13785                 :             :         {
   13786                 :        5102 :           nz = wi::to_wide (gimple_assign_rhs2 (srcstmt));
   13787                 :        5102 :           narg0 = gimple_assign_rhs1 (srcstmt);
   13788                 :             :         }
   13789                 :             : 
   13790                 :      136130 :       if (wi::popcount (nz) == 1
   13791                 :      136130 :           && (integer_zerop (arg1)
   13792                 :      126656 :               || wi::to_wide (arg1) == nz))
   13793                 :             :         {
   13794                 :        9502 :           int bitnum = wi::exact_log2 (nz);
   13795                 :        9502 :           enum tree_code tcode = EQ_EXPR;
   13796                 :        9502 :           if ((code == NE) ^ !integer_zerop (arg1))
   13797                 :        6802 :             tcode = NE_EXPR;
   13798                 :             : 
   13799                 :        9502 :           type = lang_hooks.types.type_for_mode (mode, unsignedp);
   13800                 :        9502 :           return expand_single_bit_test (loc, tcode,
   13801                 :             :                                          narg0,
   13802                 :             :                                          bitnum, type, target, mode);
   13803                 :             :         }
   13804                 :      136130 :     }
   13805                 :             : 
   13806                 :             : 
   13807                 :      481548 :   if (! get_subtarget (target)
   13808                 :      481548 :       || GET_MODE (subtarget) != operand_mode)
   13809                 :             :     subtarget = 0;
   13810                 :             : 
   13811                 :      481548 :   expand_operands (arg0, arg1, subtarget, &op0, &op1, EXPAND_NORMAL);
   13812                 :             : 
   13813                 :             :   /* For boolean vectors with less than mode precision
   13814                 :             :      make sure to fill padding with consistent values.  */
   13815                 :          10 :   if (VECTOR_BOOLEAN_TYPE_P (type)
   13816                 :           1 :       && SCALAR_INT_MODE_P (operand_mode)
   13817                 :      481548 :       && TYPE_VECTOR_SUBPARTS (type).is_constant (&nunits)
   13818                 :      481549 :       && maybe_ne (GET_MODE_PRECISION (operand_mode), nunits))
   13819                 :             :     {
   13820                 :           1 :       gcc_assert (code == EQ || code == NE);
   13821                 :           1 :       op0 = expand_binop (mode, and_optab, op0,
   13822                 :           1 :                           GEN_INT ((HOST_WIDE_INT_1U << nunits) - 1),
   13823                 :             :                           NULL_RTX, true, OPTAB_WIDEN);
   13824                 :           1 :       op1 = expand_binop (mode, and_optab, op1,
   13825                 :             :                           GEN_INT ((HOST_WIDE_INT_1U << nunits) - 1),
   13826                 :             :                           NULL_RTX, true, OPTAB_WIDEN);
   13827                 :             :     }
   13828                 :             : 
   13829                 :      481548 :   if (target == 0)
   13830                 :      309094 :     target = gen_reg_rtx (mode);
   13831                 :             : 
   13832                 :             :   /* Try a cstore if possible.  */
   13833                 :      481548 :   return emit_store_flag_force (target, code, op0, op1,
   13834                 :             :                                 operand_mode, unsignedp,
   13835                 :      481548 :                                 (TYPE_PRECISION (ops->type) == 1
   13836                 :      962521 :                                  && !TYPE_UNSIGNED (ops->type)) ? -1 : 1);
   13837                 :             : }
   13838                 :             : 
   13839                 :             : /* Attempt to generate a casesi instruction.  Returns true if successful,
   13840                 :             :    false otherwise (i.e. if there is no casesi instruction).
   13841                 :             : 
   13842                 :             :    DEFAULT_PROBABILITY is the probability of jumping to the default
   13843                 :             :    label.  */
   13844                 :             : bool
   13845                 :        6565 : try_casesi (tree index_type, tree index_expr, tree minval, tree range,
   13846                 :             :             rtx table_label, rtx default_label, rtx fallback_label,
   13847                 :             :             profile_probability default_probability)
   13848                 :             : {
   13849                 :        6565 :   class expand_operand ops[5];
   13850                 :        6565 :   scalar_int_mode index_mode = SImode;
   13851                 :        6565 :   rtx op1, op2, index;
   13852                 :             : 
   13853                 :        6565 :   if (! targetm.have_casesi ())
   13854                 :             :     return false;
   13855                 :             : 
   13856                 :             :   /* The index must be some form of integer.  Convert it to SImode.  */
   13857                 :           0 :   scalar_int_mode omode = SCALAR_INT_TYPE_MODE (index_type);
   13858                 :           0 :   if (GET_MODE_BITSIZE (omode) > GET_MODE_BITSIZE (index_mode))
   13859                 :             :     {
   13860                 :           0 :       rtx rangertx = expand_normal (range);
   13861                 :             : 
   13862                 :             :       /* We must handle the endpoints in the original mode.  */
   13863                 :           0 :       index_expr = build2 (MINUS_EXPR, index_type,
   13864                 :             :                            index_expr, minval);
   13865                 :           0 :       minval = integer_zero_node;
   13866                 :           0 :       index = expand_normal (index_expr);
   13867                 :           0 :       if (default_label)
   13868                 :           0 :         emit_cmp_and_jump_insns (rangertx, index, LTU, NULL_RTX,
   13869                 :             :                                  omode, 1, default_label,
   13870                 :             :                                  default_probability);
   13871                 :             :       /* Now we can safely truncate.  */
   13872                 :           0 :       index = convert_to_mode (index_mode, index, 0);
   13873                 :             :     }
   13874                 :             :   else
   13875                 :             :     {
   13876                 :           0 :       if (omode != index_mode)
   13877                 :             :         {
   13878                 :           0 :           index_type = lang_hooks.types.type_for_mode (index_mode, 0);
   13879                 :           0 :           index_expr = fold_convert (index_type, index_expr);
   13880                 :             :         }
   13881                 :             : 
   13882                 :           0 :       index = expand_normal (index_expr);
   13883                 :             :     }
   13884                 :             : 
   13885                 :           0 :   do_pending_stack_adjust ();
   13886                 :             : 
   13887                 :           0 :   op1 = expand_normal (minval);
   13888                 :           0 :   op2 = expand_normal (range);
   13889                 :             : 
   13890                 :           0 :   create_input_operand (&ops[0], index, index_mode);
   13891                 :           0 :   create_convert_operand_from_type (&ops[1], op1, TREE_TYPE (minval));
   13892                 :           0 :   create_convert_operand_from_type (&ops[2], op2, TREE_TYPE (range));
   13893                 :           0 :   create_fixed_operand (&ops[3], table_label);
   13894                 :           0 :   create_fixed_operand (&ops[4], (default_label
   13895                 :             :                                   ? default_label
   13896                 :             :                                   : fallback_label));
   13897                 :           0 :   expand_jump_insn (targetm.code_for_casesi, 5, ops);
   13898                 :           0 :   return true;
   13899                 :             : }
   13900                 :             : 
   13901                 :             : /* Attempt to generate a tablejump instruction; same concept.  */
   13902                 :             : /* Subroutine of the next function.
   13903                 :             : 
   13904                 :             :    INDEX is the value being switched on, with the lowest value
   13905                 :             :    in the table already subtracted.
   13906                 :             :    MODE is its expected mode (needed if INDEX is constant).
   13907                 :             :    RANGE is the length of the jump table.
   13908                 :             :    TABLE_LABEL is a CODE_LABEL rtx for the table itself.
   13909                 :             : 
   13910                 :             :    DEFAULT_LABEL is a CODE_LABEL rtx to jump to if the
   13911                 :             :    index value is out of range.
   13912                 :             :    DEFAULT_PROBABILITY is the probability of jumping to
   13913                 :             :    the default label.  */
   13914                 :             : 
   13915                 :             : static void
   13916                 :        6565 : do_tablejump (rtx index, machine_mode mode, rtx range, rtx table_label,
   13917                 :             :               rtx default_label, profile_probability default_probability)
   13918                 :             : {
   13919                 :        6565 :   rtx temp, vector;
   13920                 :             : 
   13921                 :        6565 :   if (INTVAL (range) > cfun->cfg->max_jumptable_ents)
   13922                 :        5356 :     cfun->cfg->max_jumptable_ents = INTVAL (range);
   13923                 :             : 
   13924                 :             :   /* Do an unsigned comparison (in the proper mode) between the index
   13925                 :             :      expression and the value which represents the length of the range.
   13926                 :             :      Since we just finished subtracting the lower bound of the range
   13927                 :             :      from the index expression, this comparison allows us to simultaneously
   13928                 :             :      check that the original index expression value is both greater than
   13929                 :             :      or equal to the minimum value of the range and less than or equal to
   13930                 :             :      the maximum value of the range.  */
   13931                 :             : 
   13932                 :        6565 :   if (default_label)
   13933                 :        5516 :     emit_cmp_and_jump_insns (index, range, GTU, NULL_RTX, mode, 1,
   13934                 :             :                              default_label, default_probability);
   13935                 :             : 
   13936                 :             :   /* If index is in range, it must fit in Pmode.
   13937                 :             :      Convert to Pmode so we can index with it.  */
   13938                 :        6565 :   if (mode != Pmode)
   13939                 :             :     {
   13940                 :        5518 :       unsigned int width;
   13941                 :             : 
   13942                 :             :       /* We know the value of INDEX is between 0 and RANGE.  If we have a
   13943                 :             :          sign-extended subreg, and RANGE does not have the sign bit set, then
   13944                 :             :          we have a value that is valid for both sign and zero extension.  In
   13945                 :             :          this case, we get better code if we sign extend.  */
   13946                 :        5518 :       if (GET_CODE (index) == SUBREG
   13947                 :           9 :           && SUBREG_PROMOTED_VAR_P (index)
   13948                 :           0 :           && SUBREG_PROMOTED_SIGNED_P (index)
   13949                 :           0 :           && ((width = GET_MODE_PRECISION (as_a <scalar_int_mode> (mode)))
   13950                 :             :               <= HOST_BITS_PER_WIDE_INT)
   13951                 :        5518 :           && ! (UINTVAL (range) & (HOST_WIDE_INT_1U << (width - 1))))
   13952                 :           0 :         index = convert_to_mode (Pmode, index, 0);
   13953                 :             :       else
   13954                 :        5518 :         index = convert_to_mode (Pmode, index, 1);
   13955                 :             :     }
   13956                 :             : 
   13957                 :             :   /* Don't let a MEM slip through, because then INDEX that comes
   13958                 :             :      out of PIC_CASE_VECTOR_ADDRESS won't be a valid address,
   13959                 :             :      and break_out_memory_refs will go to work on it and mess it up.  */
   13960                 :             : #ifdef PIC_CASE_VECTOR_ADDRESS
   13961                 :             :   if (flag_pic && !REG_P (index))
   13962                 :             :     index = copy_to_mode_reg (Pmode, index);
   13963                 :             : #endif
   13964                 :             : 
   13965                 :             :   /* ??? The only correct use of CASE_VECTOR_MODE is the one inside the
   13966                 :             :      GET_MODE_SIZE, because this indicates how large insns are.  The other
   13967                 :             :      uses should all be Pmode, because they are addresses.  This code
   13968                 :             :      could fail if addresses and insns are not the same size.  */
   13969                 :        6565 :   index = simplify_gen_binary (MULT, Pmode, index,
   13970                 :       13130 :                                gen_int_mode (GET_MODE_SIZE (CASE_VECTOR_MODE),
   13971                 :        6565 :                                              Pmode));
   13972                 :        6565 :   index = simplify_gen_binary (PLUS, Pmode, index,
   13973                 :        6565 :                                gen_rtx_LABEL_REF (Pmode, table_label));
   13974                 :             : 
   13975                 :             : #ifdef PIC_CASE_VECTOR_ADDRESS
   13976                 :             :   if (flag_pic)
   13977                 :             :     index = PIC_CASE_VECTOR_ADDRESS (index);
   13978                 :             :   else
   13979                 :             : #endif
   13980                 :        8157 :     index = memory_address (CASE_VECTOR_MODE, index);
   13981                 :        8157 :   temp = gen_reg_rtx (CASE_VECTOR_MODE);
   13982                 :        8157 :   vector = gen_const_mem (CASE_VECTOR_MODE, index);
   13983                 :        6565 :   convert_move (temp, vector, 0);
   13984                 :             : 
   13985                 :        6565 :   emit_jump_insn (targetm.gen_tablejump (temp, table_label));
   13986                 :             : 
   13987                 :             :   /* If we are generating PIC code or if the table is PC-relative, the
   13988                 :             :      table and JUMP_INSN must be adjacent, so don't output a BARRIER.  */
   13989                 :        6565 :   if (! CASE_VECTOR_PC_RELATIVE && ! flag_pic)
   13990                 :        5508 :     emit_barrier ();
   13991                 :        6565 : }
   13992                 :             : 
   13993                 :             : bool
   13994                 :        6565 : try_tablejump (tree index_type, tree index_expr, tree minval, tree range,
   13995                 :             :                rtx table_label, rtx default_label,
   13996                 :             :                profile_probability default_probability)
   13997                 :             : {
   13998                 :        6565 :   rtx index;
   13999                 :             : 
   14000                 :        6565 :   if (! targetm.have_tablejump ())
   14001                 :             :     return false;
   14002                 :             : 
   14003                 :        6565 :   index_expr = fold_build2 (MINUS_EXPR, index_type,
   14004                 :             :                             fold_convert (index_type, index_expr),
   14005                 :             :                             fold_convert (index_type, minval));
   14006                 :        6565 :   index = expand_normal (index_expr);
   14007                 :        6565 :   do_pending_stack_adjust ();
   14008                 :             : 
   14009                 :        6565 :   do_tablejump (index, TYPE_MODE (index_type),
   14010                 :        6565 :                 convert_modes (TYPE_MODE (index_type),
   14011                 :        6565 :                                TYPE_MODE (TREE_TYPE (range)),
   14012                 :             :                                expand_normal (range),
   14013                 :        6565 :                                TYPE_UNSIGNED (TREE_TYPE (range))),
   14014                 :             :                 table_label, default_label, default_probability);
   14015                 :        6565 :   return true;
   14016                 :             : }
   14017                 :             : 
   14018                 :             : /* Return a CONST_VECTOR rtx representing vector mask for
   14019                 :             :    a VECTOR_CST of booleans.  */
   14020                 :             : static rtx
   14021                 :          94 : const_vector_mask_from_tree (tree exp)
   14022                 :             : {
   14023                 :          94 :   machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
   14024                 :          94 :   machine_mode inner = GET_MODE_INNER (mode);
   14025                 :             : 
   14026                 :          94 :   rtx_vector_builder builder (mode, VECTOR_CST_NPATTERNS (exp),
   14027                 :          94 :                               VECTOR_CST_NELTS_PER_PATTERN (exp));
   14028                 :          94 :   unsigned int count = builder.encoded_nelts ();
   14029                 :         254 :   for (unsigned int i = 0; i < count; ++i)
   14030                 :             :     {
   14031                 :         160 :       tree elt = VECTOR_CST_ELT (exp, i);
   14032                 :         160 :       gcc_assert (TREE_CODE (elt) == INTEGER_CST);
   14033                 :         160 :       if (integer_zerop (elt))
   14034                 :          44 :         builder.quick_push (CONST0_RTX (inner));
   14035                 :         116 :       else if (integer_onep (elt)
   14036                 :         116 :                || integer_minus_onep (elt))
   14037                 :         116 :         builder.quick_push (CONSTM1_RTX (inner));
   14038                 :             :       else
   14039                 :           0 :         gcc_unreachable ();
   14040                 :             :     }
   14041                 :          94 :   return builder.build ();
   14042                 :          94 : }
   14043                 :             : 
   14044                 :             : /* Return a CONST_VECTOR rtx for a VECTOR_CST tree.  */
   14045                 :             : static rtx
   14046                 :      522302 : const_vector_from_tree (tree exp)
   14047                 :             : {
   14048                 :      522302 :   machine_mode mode = TYPE_MODE (TREE_TYPE (exp));
   14049                 :             : 
   14050                 :      522302 :   if (initializer_zerop (exp))
   14051                 :      151661 :     return CONST0_RTX (mode);
   14052                 :             : 
   14053                 :      370641 :   if (VECTOR_BOOLEAN_TYPE_P (TREE_TYPE (exp)))
   14054                 :          94 :     return const_vector_mask_from_tree (exp);
   14055                 :             : 
   14056                 :      370547 :   machine_mode inner = GET_MODE_INNER (mode);
   14057                 :             : 
   14058                 :      370547 :   rtx_vector_builder builder (mode, VECTOR_CST_NPATTERNS (exp),
   14059                 :      370547 :                               VECTOR_CST_NELTS_PER_PATTERN (exp));
   14060                 :      370547 :   unsigned int count = builder.encoded_nelts ();
   14061                 :     1198085 :   for (unsigned int i = 0; i < count; ++i)
   14062                 :             :     {
   14063                 :      827538 :       tree elt = VECTOR_CST_ELT (exp, i);
   14064                 :      827538 :       if (TREE_CODE (elt) == REAL_CST)
   14065                 :      133148 :         builder.quick_push (const_double_from_real_value (TREE_REAL_CST (elt),
   14066                 :             :                                                           inner));
   14067                 :      694390 :       else if (TREE_CODE (elt) == FIXED_CST)
   14068                 :           0 :         builder.quick_push (CONST_FIXED_FROM_FIXED_VALUE (TREE_FIXED_CST (elt),
   14069                 :             :                                                           inner));
   14070                 :             :       else
   14071                 :      694390 :         builder.quick_push (immed_wide_int_const (wi::to_poly_wide (elt),
   14072                 :             :                                                   inner));
   14073                 :             :     }
   14074                 :      370547 :   return builder.build ();
   14075                 :      370547 : }
   14076                 :             : 
   14077                 :             : /* Build a decl for a personality function given a language prefix.  */
   14078                 :             : 
   14079                 :             : tree
   14080                 :       30228 : build_personality_function (const char *lang)
   14081                 :             : {
   14082                 :       30228 :   const char *unwind_and_version;
   14083                 :       30228 :   tree decl, type;
   14084                 :       30228 :   char *name;
   14085                 :             : 
   14086                 :       30228 :   switch (targetm_common.except_unwind_info (&global_options))
   14087                 :             :     {
   14088                 :             :     case UI_NONE:
   14089                 :             :       return NULL;
   14090                 :             :     case UI_SJLJ:
   14091                 :             :       unwind_and_version = "_sj0";
   14092                 :             :       break;
   14093                 :       30228 :     case UI_DWARF2:
   14094                 :       30228 :     case UI_TARGET:
   14095                 :       30228 :       unwind_and_version = "_v0";
   14096                 :       30228 :       break;
   14097                 :           0 :     case UI_SEH:
   14098                 :           0 :       unwind_and_version = "_seh0";
   14099                 :           0 :       break;
   14100                 :           0 :     default:
   14101                 :           0 :       gcc_unreachable ();
   14102                 :             :     }
   14103                 :             : 
   14104                 :       30228 :   name = ACONCAT (("__", lang, "_personality", unwind_and_version, NULL));
   14105                 :             : 
   14106                 :       30228 :   type = build_function_type_list (unsigned_type_node,
   14107                 :             :                                    integer_type_node, integer_type_node,
   14108                 :             :                                    long_long_unsigned_type_node,
   14109                 :             :                                    ptr_type_node, ptr_type_node, NULL_TREE);
   14110                 :       30228 :   decl = build_decl (UNKNOWN_LOCATION, FUNCTION_DECL,
   14111                 :             :                      get_identifier (name), type);
   14112                 :       30228 :   DECL_ARTIFICIAL (decl) = 1;
   14113                 :       30228 :   DECL_EXTERNAL (decl) = 1;
   14114                 :       30228 :   TREE_PUBLIC (decl) = 1;
   14115                 :             : 
   14116                 :             :   /* Zap the nonsensical SYMBOL_REF_DECL for this.  What we're left with
   14117                 :             :      are the flags assigned by targetm.encode_section_info.  */
   14118                 :       30228 :   SET_SYMBOL_REF_DECL (XEXP (DECL_RTL (decl), 0), NULL);
   14119                 :             : 
   14120                 :       30228 :   return decl;
   14121                 :             : }
   14122                 :             : 
   14123                 :             : /* Extracts the personality function of DECL and returns the corresponding
   14124                 :             :    libfunc.  */
   14125                 :             : 
   14126                 :             : rtx
   14127                 :     1552501 : get_personality_function (tree decl)
   14128                 :             : {
   14129                 :     1552501 :   tree personality = DECL_FUNCTION_PERSONALITY (decl);
   14130                 :     1552501 :   enum eh_personality_kind pk;
   14131                 :             : 
   14132                 :     1552501 :   pk = function_needs_eh_personality (DECL_STRUCT_FUNCTION (decl));
   14133                 :     1552501 :   if (pk == eh_personality_none)
   14134                 :             :     return NULL;
   14135                 :             : 
   14136                 :      142393 :   if (!personality
   14137                 :      142393 :       && pk == eh_personality_any)
   14138                 :       64061 :     personality = lang_hooks.eh_personality ();
   14139                 :             : 
   14140                 :      142393 :   if (pk == eh_personality_lang)
   14141                 :       78332 :     gcc_assert (personality != NULL_TREE);
   14142                 :             : 
   14143                 :      142393 :   return XEXP (DECL_RTL (personality), 0);
   14144                 :             : }
   14145                 :             : 
   14146                 :             : /* Returns a tree for the size of EXP in bytes.  */
   14147                 :             : 
   14148                 :             : static tree
   14149                 :    13886498 : tree_expr_size (const_tree exp)
   14150                 :             : {
   14151                 :    13886498 :   if (DECL_P (exp)
   14152                 :    13886498 :       && DECL_SIZE_UNIT (exp) != 0)
   14153                 :     2002205 :     return DECL_SIZE_UNIT (exp);
   14154                 :             :   else
   14155                 :    11884293 :     return size_in_bytes (TREE_TYPE (exp));
   14156                 :             : }
   14157                 :             : 
   14158                 :             : /* Return an rtx for the size in bytes of the value of EXP.  */
   14159                 :             : 
   14160                 :             : rtx
   14161                 :    13695852 : expr_size (tree exp)
   14162                 :             : {
   14163                 :    13695852 :   tree size;
   14164                 :             : 
   14165                 :    13695852 :   if (TREE_CODE (exp) == WITH_SIZE_EXPR)
   14166                 :         767 :     size = TREE_OPERAND (exp, 1);
   14167                 :             :   else
   14168                 :             :     {
   14169                 :    13695085 :       size = tree_expr_size (exp);
   14170                 :    13695085 :       gcc_assert (size);
   14171                 :    13695085 :       gcc_assert (size == SUBSTITUTE_PLACEHOLDER_IN_EXPR (size, exp));
   14172                 :             :     }
   14173                 :             : 
   14174                 :    13695852 :   return expand_expr (size, NULL_RTX, TYPE_MODE (sizetype), EXPAND_NORMAL);
   14175                 :             : }
   14176                 :             : 
   14177                 :             : /* Return a wide integer for the size in bytes of the value of EXP, or -1
   14178                 :             :    if the size can vary or is larger than an integer.  */
   14179                 :             : 
   14180                 :             : HOST_WIDE_INT
   14181                 :      191413 : int_expr_size (const_tree exp)
   14182                 :             : {
   14183                 :      191413 :   tree size;
   14184                 :             : 
   14185                 :      191413 :   if (TREE_CODE (exp) == WITH_SIZE_EXPR)
   14186                 :           0 :     size = TREE_OPERAND (exp, 1);
   14187                 :             :   else
   14188                 :             :     {
   14189                 :      191413 :       size = tree_expr_size (exp);
   14190                 :      191413 :       gcc_assert (size);
   14191                 :             :     }
   14192                 :             : 
   14193                 :      191413 :   if (size == 0 || !tree_fits_shwi_p (size))
   14194                 :           0 :     return -1;
   14195                 :             : 
   14196                 :      191413 :   return tree_to_shwi (size);
   14197                 :             : }
   14198                 :             : 
   14199                 :             : /* Return the quotient of polynomial long division of x^2N by POLYNOMIAL
   14200                 :             :    in GF (2^N).
   14201                 :             :    Author: Richard Sandiford <richard.sandiford@arm.com>  */
   14202                 :             : 
   14203                 :             : unsigned HOST_WIDE_INT
   14204                 :           0 : gf2n_poly_long_div_quotient (unsigned HOST_WIDE_INT polynomial,
   14205                 :             :                              unsigned short n)
   14206                 :             : {
   14207                 :             :   /* The result has degree N, so needs N + 1 bits.  */
   14208                 :           0 :   gcc_assert (n < 64);
   14209                 :             : 
   14210                 :             :   /* Perform a division step for the x^2N coefficient.  At this point the
   14211                 :             :      quotient and remainder have N implicit trailing zeros.  */
   14212                 :             :   unsigned HOST_WIDE_INT quotient = 1;
   14213                 :             :   unsigned HOST_WIDE_INT remainder = polynomial;
   14214                 :             : 
   14215                 :             :   /* Process the coefficients for x^(2N-1) down to x^N, with each step
   14216                 :             :      reducing the number of implicit trailing zeros by one.  */
   14217                 :           0 :   for (unsigned int i = 0; i < n; ++i)
   14218                 :             :     {
   14219                 :           0 :       bool coeff = remainder & (HOST_WIDE_INT_1U << (n - 1));
   14220                 :           0 :       quotient = (quotient << 1) | coeff;
   14221                 :           0 :       remainder = (remainder << 1) ^ (coeff ? polynomial : 0);
   14222                 :             :     }
   14223                 :           0 :   return quotient;
   14224                 :             : }
   14225                 :             : 
   14226                 :             : /* Calculate CRC for the initial CRC and given POLYNOMIAL.
   14227                 :             :    CRC_BITS is CRC size.  */
   14228                 :             : 
   14229                 :             : static unsigned HOST_WIDE_INT
   14230                 :       44800 : calculate_crc (unsigned HOST_WIDE_INT crc,
   14231                 :             :                unsigned HOST_WIDE_INT polynomial,
   14232                 :             :                unsigned short crc_bits)
   14233                 :             : {
   14234                 :       44800 :   unsigned HOST_WIDE_INT msb = HOST_WIDE_INT_1U << (crc_bits - 1);
   14235                 :       44800 :   crc = crc << (crc_bits - 8);
   14236                 :      403200 :   for (short i = 8; i > 0; --i)
   14237                 :             :     {
   14238                 :      358400 :       if (crc & msb)
   14239                 :      179200 :         crc = (crc << 1) ^ polynomial;
   14240                 :             :       else
   14241                 :      179200 :         crc <<= 1;
   14242                 :             :     }
   14243                 :             :   /* Zero out bits in crc beyond the specified number of crc_bits.  */
   14244                 :       44800 :   if (crc_bits < sizeof (crc) * CHAR_BIT)
   14245                 :       39936 :     crc &= (HOST_WIDE_INT_1U << crc_bits) - 1;
   14246                 :       44800 :   return crc;
   14247                 :             : }
   14248                 :             : 
   14249                 :             : /* Assemble CRC table with 256 elements for the given POLYNOM and CRC_BITS with
   14250                 :             :    given ID.
   14251                 :             :    ID is the identifier of the table, the name of the table is unique,
   14252                 :             :    contains CRC size and the polynomial.
   14253                 :             :    POLYNOM is the polynomial used to calculate the CRC table's elements.
   14254                 :             :    CRC_BITS is the size of CRC, may be 8, 16, ... . */
   14255                 :             : 
   14256                 :             : rtx
   14257                 :         175 : assemble_crc_table (tree id, unsigned HOST_WIDE_INT polynom,
   14258                 :             :                     unsigned short crc_bits)
   14259                 :             : {
   14260                 :         175 :   unsigned table_el_n = 0x100;
   14261                 :         175 :   tree ar = build_array_type (make_unsigned_type (crc_bits),
   14262                 :         175 :                               build_index_type (size_int (table_el_n - 1)));
   14263                 :         175 :   tree decl = build_decl (UNKNOWN_LOCATION, VAR_DECL, id, ar);
   14264                 :         175 :   SET_DECL_ASSEMBLER_NAME (decl, id);
   14265                 :         175 :   DECL_ARTIFICIAL (decl) = 1;
   14266                 :         175 :   rtx tab = gen_rtx_SYMBOL_REF (Pmode, IDENTIFIER_POINTER (id));
   14267                 :         175 :   TREE_ASM_WRITTEN (decl) = 0;
   14268                 :             : 
   14269                 :             :   /* Initialize the table.  */
   14270                 :         175 :   vec<tree, va_gc> *initial_values;
   14271                 :         175 :   vec_alloc (initial_values, table_el_n);
   14272                 :       44975 :   for (size_t i = 0; i < table_el_n; ++i)
   14273                 :             :     {
   14274                 :       44800 :       unsigned HOST_WIDE_INT crc = calculate_crc (i, polynom, crc_bits);
   14275                 :       44800 :       tree element = build_int_cstu (make_unsigned_type (crc_bits), crc);
   14276                 :       44800 :       vec_safe_push (initial_values, element);
   14277                 :             :     }
   14278                 :         175 :   DECL_INITIAL (decl) = build_constructor_from_vec (ar, initial_values);
   14279                 :             : 
   14280                 :         175 :   TREE_READONLY (decl) = 1;
   14281                 :         175 :   TREE_STATIC (decl) = 1;
   14282                 :             : 
   14283                 :         175 :   if (TREE_PUBLIC (id))
   14284                 :             :     {
   14285                 :           0 :       TREE_PUBLIC (decl) = 1;
   14286                 :           0 :       make_decl_one_only (decl, DECL_ASSEMBLER_NAME (decl));
   14287                 :             :     }
   14288                 :             : 
   14289                 :         175 :   mark_decl_referenced (decl);
   14290                 :         175 :   varpool_node::finalize_decl (decl);
   14291                 :             : 
   14292                 :         175 :   return tab;
   14293                 :             : }
   14294                 :             : 
   14295                 :             : /* Generate CRC lookup table by calculating CRC for all possible
   14296                 :             :    8-bit data values.  The table is stored with a specific name in the read-only
   14297                 :             :    static data section.
   14298                 :             :    POLYNOM is the polynomial used to calculate the CRC table's elements.
   14299                 :             :    CRC_BITS is the size of CRC, may be 8, 16, ... .  */
   14300                 :             : 
   14301                 :             : rtx
   14302                 :         419 : generate_crc_table (unsigned HOST_WIDE_INT polynom, unsigned short crc_bits)
   14303                 :             : {
   14304                 :         419 :   gcc_assert (crc_bits <= 64);
   14305                 :             : 
   14306                 :             :   /* Buf size - 24 letters + 6 '_'
   14307                 :             :      + 20 numbers (2 for crc bit size + 2 for 0x + 16 for 64-bit polynomial)
   14308                 :             :      + 1 for \0.  */
   14309                 :         419 :   char buf[51];
   14310                 :         419 :   sprintf (buf, "crc_table_for_crc_%u_polynomial_" HOST_WIDE_INT_PRINT_HEX,
   14311                 :             :            crc_bits, polynom);
   14312                 :             : 
   14313                 :         419 :   tree id = maybe_get_identifier (buf);
   14314                 :         419 :   if (id)
   14315                 :         244 :     return gen_rtx_SYMBOL_REF (Pmode, IDENTIFIER_POINTER (id));
   14316                 :             : 
   14317                 :         175 :   id = get_identifier (buf);
   14318                 :         175 :   return assemble_crc_table (id, polynom, crc_bits);
   14319                 :             : }
   14320                 :             : 
   14321                 :             : /* Generate table-based CRC code for the given CRC, INPUT_DATA and the
   14322                 :             :    POLYNOMIAL (without leading 1).
   14323                 :             : 
   14324                 :             :    First, using POLYNOMIAL's value generates CRC table of 256 elements,
   14325                 :             :    then generates the assembly for the following code,
   14326                 :             :    where crc_bit_size and data_bit_size may be 8, 16, 32, 64, depending on CRC:
   14327                 :             : 
   14328                 :             :      for (int i = 0; i < data_bit_size / 8; i++)
   14329                 :             :        crc = (crc << 8) ^ crc_table[(crc >> (crc_bit_size - 8))
   14330                 :             :                                     ^ (data >> (data_bit_size - (i + 1) * 8)
   14331                 :             :                                     & 0xFF))];
   14332                 :             : 
   14333                 :             :    So to take values from the table, we need 8-bit data.
   14334                 :             :    If input data size is not 8, then first we extract upper 8 bits,
   14335                 :             :    then the other 8 bits, and so on.  */
   14336                 :             : 
   14337                 :             : void
   14338                 :         419 : calculate_table_based_CRC (rtx *crc, const rtx &input_data,
   14339                 :             :                            const rtx &polynomial,
   14340                 :             :                            machine_mode data_mode)
   14341                 :             : {
   14342                 :         419 :   machine_mode mode = GET_MODE (*crc);
   14343                 :         419 :   unsigned short crc_bit_size = GET_MODE_BITSIZE (mode).to_constant ();
   14344                 :         419 :   unsigned short data_size = GET_MODE_SIZE (data_mode).to_constant ();
   14345                 :         419 :   rtx tab = generate_crc_table (UINTVAL (polynomial), crc_bit_size);
   14346                 :             : 
   14347                 :        1194 :   for (unsigned short i = 0; i < data_size; i++)
   14348                 :             :     {
   14349                 :             :       /* crc >> (crc_bit_size - 8).  */
   14350                 :         775 :       *crc = force_reg (mode, *crc);
   14351                 :         775 :       rtx op1 = expand_shift (RSHIFT_EXPR, mode, *crc, crc_bit_size - 8,
   14352                 :             :                               NULL_RTX, 1);
   14353                 :             : 
   14354                 :             :       /* data >> (8 * (GET_MODE_SIZE (data_mode).to_constant () - i - 1)).  */
   14355                 :         775 :       unsigned range_8 = 8 * (data_size - i - 1);
   14356                 :             :       /* CRC's mode is always at least as wide as INPUT_DATA.  Convert
   14357                 :             :          INPUT_DATA into CRC's mode.  */
   14358                 :         775 :       rtx data = gen_reg_rtx (mode);
   14359                 :         775 :       convert_move (data, input_data, 1);
   14360                 :         775 :       data = expand_shift (RSHIFT_EXPR, mode, data, range_8, NULL_RTX, 1);
   14361                 :             : 
   14362                 :             :       /* data >> (8 * (GET_MODE_SIZE (mode)
   14363                 :             :                                         .to_constant () - i - 1)) & 0xFF.  */
   14364                 :         775 :       rtx data_final = expand_and (mode, data,
   14365                 :         775 :                                    gen_int_mode (255, mode), NULL_RTX);
   14366                 :             : 
   14367                 :             :       /* (crc >> (crc_bit_size - 8)) ^ data_8bit.  */
   14368                 :         775 :       rtx in = expand_binop (mode, xor_optab, op1, data_final,
   14369                 :             :                              NULL_RTX, 1, OPTAB_WIDEN);
   14370                 :             : 
   14371                 :             :       /* ((crc >> (crc_bit_size - 8)) ^ data_8bit) & 0xFF.  */
   14372                 :         775 :       rtx index = expand_and (mode, in, gen_int_mode (255, mode),
   14373                 :             :                               NULL_RTX);
   14374                 :        1550 :       int log_crc_size = exact_log2 (GET_MODE_SIZE (mode).to_constant ());
   14375                 :         775 :       index = expand_shift (LSHIFT_EXPR, mode, index,
   14376                 :             :                             log_crc_size, NULL_RTX, 0);
   14377                 :             : 
   14378                 :         775 :       rtx addr = gen_reg_rtx (Pmode);
   14379                 :         775 :       convert_move (addr, index, 1);
   14380                 :         775 :       addr = expand_binop (Pmode, add_optab, addr, tab, NULL_RTX,
   14381                 :             :                             0, OPTAB_DIRECT);
   14382                 :             : 
   14383                 :             :       /* crc_table[(crc >> (crc_bit_size - 8)) ^ data_8bit]  */
   14384                 :         775 :       rtx tab_el = validize_mem (gen_rtx_MEM (mode, addr));
   14385                 :             : 
   14386                 :             :       /* (crc << 8) if CRC is larger than 8, otherwise crc = 0.  */
   14387                 :         775 :       rtx high = NULL_RTX;
   14388                 :         775 :       if (crc_bit_size != 8)
   14389                 :         710 :         high = expand_shift (LSHIFT_EXPR, mode, *crc, 8, NULL_RTX, 0);
   14390                 :             :       else
   14391                 :          65 :         high = gen_int_mode (0, mode);
   14392                 :             : 
   14393                 :             :       /* crc = (crc << 8)
   14394                 :             :                ^ crc_table[(crc >> (crc_bit_size - 8)) ^ data_8bit];  */
   14395                 :         775 :       *crc = expand_binop (mode, xor_optab, tab_el, high, NULL_RTX, 1,
   14396                 :             :                            OPTAB_WIDEN);
   14397                 :             :     }
   14398                 :         419 : }
   14399                 :             : 
   14400                 :             : /* Generate table-based CRC code for the given CRC, INPUT_DATA and the
   14401                 :             :    POLYNOMIAL (without leading 1).
   14402                 :             : 
   14403                 :             :    CRC is OP1, data is OP2 and the polynomial is OP3.
   14404                 :             :    This must generate a CRC table and an assembly for the following code,
   14405                 :             :    where crc_bit_size and data_bit_size may be 8, 16, 32, 64:
   14406                 :             :    uint_crc_bit_size_t
   14407                 :             :    crc_crc_bit_size (uint_crc_bit_size_t crc_init,
   14408                 :             :                      uint_data_bit_size_t data, size_t size)
   14409                 :             :    {
   14410                 :             :      uint_crc_bit_size_t crc = crc_init;
   14411                 :             :      for (int i = 0; i < data_bit_size / 8; i++)
   14412                 :             :        crc = (crc << 8) ^ crc_table[(crc >> (crc_bit_size - 8))
   14413                 :             :                                     ^ (data >> (data_bit_size - (i + 1) * 8)
   14414                 :             :                                     & 0xFF))];
   14415                 :             :      return crc;
   14416                 :             :    }  */
   14417                 :             : 
   14418                 :             : void
   14419                 :         216 : expand_crc_table_based (rtx op0, rtx op1, rtx op2, rtx op3,
   14420                 :             :                         machine_mode data_mode)
   14421                 :             : {
   14422                 :         216 :   gcc_assert (!CONST_INT_P (op0));
   14423                 :         216 :   gcc_assert (CONST_INT_P (op3));
   14424                 :         216 :   machine_mode crc_mode = GET_MODE (op0);
   14425                 :         216 :   rtx crc = gen_reg_rtx (crc_mode);
   14426                 :         216 :   convert_move (crc, op1, 0);
   14427                 :         216 :   calculate_table_based_CRC (&crc, op2, op3, data_mode);
   14428                 :         216 :   convert_move (op0, crc, 0);
   14429                 :         216 : }
   14430                 :             : 
   14431                 :             : /* Generate the common operation for reflecting values:
   14432                 :             :    *OP = (*OP & AND1_VALUE) << SHIFT_VAL | (*OP & AND2_VALUE) >> SHIFT_VAL;  */
   14433                 :             : 
   14434                 :             : void
   14435                 :        2522 : gen_common_operation_to_reflect (rtx *op,
   14436                 :             :                                  unsigned HOST_WIDE_INT and1_value,
   14437                 :             :                                  unsigned HOST_WIDE_INT and2_value,
   14438                 :             :                                  unsigned shift_val)
   14439                 :             : {
   14440                 :        2522 :   rtx op1 = expand_and (GET_MODE (*op), *op,
   14441                 :        2522 :                         gen_int_mode (and1_value, GET_MODE (*op)), NULL_RTX);
   14442                 :        2522 :   op1 = expand_shift (LSHIFT_EXPR, GET_MODE (*op), op1, shift_val, op1, 0);
   14443                 :        2522 :   rtx op2 = expand_and (GET_MODE (*op), *op,
   14444                 :        2522 :                         gen_int_mode (and2_value, GET_MODE (*op)), NULL_RTX);
   14445                 :        2522 :   op2 = expand_shift (RSHIFT_EXPR, GET_MODE (*op), op2, shift_val, op2, 1);
   14446                 :        2522 :   *op = expand_binop (GET_MODE (*op), ior_optab, op1,
   14447                 :             :                       op2, *op, 0, OPTAB_LIB_WIDEN);
   14448                 :        2522 : }
   14449                 :             : 
   14450                 :             : /* Reflect 64-bit value for the 64-bit target.  */
   14451                 :             : 
   14452                 :             : void
   14453                 :          67 : reflect_64_bit_value (rtx *op)
   14454                 :             : {
   14455                 :          67 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00000000FFFFFFFF),
   14456                 :             :                                    HOST_WIDE_INT_C (0xFFFFFFFF00000000), 32);
   14457                 :          67 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0000FFFF0000FFFF),
   14458                 :             :                                    HOST_WIDE_INT_C (0xFFFF0000FFFF0000), 16);
   14459                 :          67 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00FF00FF00FF00FF),
   14460                 :             :                                    HOST_WIDE_INT_C (0xFF00FF00FF00FF00), 8);
   14461                 :          67 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F0F0F0F0F0F0F0F),
   14462                 :             :                                    HOST_WIDE_INT_C (0xF0F0F0F0F0F0F0F0), 4);
   14463                 :          67 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x3333333333333333),
   14464                 :             :                                    HOST_WIDE_INT_C (0xCCCCCCCCCCCCCCCC), 2);
   14465                 :          67 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x5555555555555555),
   14466                 :             :                                    HOST_WIDE_INT_C (0xAAAAAAAAAAAAAAAA), 1);
   14467                 :          67 : }
   14468                 :             : 
   14469                 :             : /* Reflect 32-bit value for the 32-bit target.  */
   14470                 :             : 
   14471                 :             : void
   14472                 :         139 : reflect_32_bit_value (rtx *op)
   14473                 :             : {
   14474                 :         139 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0000FFFF),
   14475                 :             :                                   HOST_WIDE_INT_C (0xFFFF0000), 16);
   14476                 :         139 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00FF00FF),
   14477                 :             :                                   HOST_WIDE_INT_C (0xFF00FF00), 8);
   14478                 :         139 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F0F0F0F),
   14479                 :             :                                    HOST_WIDE_INT_C (0xF0F0F0F0), 4);
   14480                 :         139 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x33333333),
   14481                 :             :                                    HOST_WIDE_INT_C (0xCCCCCCCC), 2);
   14482                 :         139 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x55555555),
   14483                 :             :                                    HOST_WIDE_INT_C (0xAAAAAAAA), 1);
   14484                 :         139 : }
   14485                 :             : 
   14486                 :             : /* Reflect 16-bit value for the 16-bit target.  */
   14487                 :             : 
   14488                 :             : void
   14489                 :         216 : reflect_16_bit_value (rtx *op)
   14490                 :             : {
   14491                 :         216 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x00FF),
   14492                 :             :                                    HOST_WIDE_INT_C (0xFF00), 8);
   14493                 :         216 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F0F),
   14494                 :             :                                    HOST_WIDE_INT_C (0xF0F0), 4);
   14495                 :         216 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x3333),
   14496                 :             :                                    HOST_WIDE_INT_C (0xCCCC), 2);
   14497                 :         216 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x5555),
   14498                 :             :                                    HOST_WIDE_INT_C (0xAAAA), 1);
   14499                 :         216 : }
   14500                 :             : 
   14501                 :             : /* Reflect 8-bit value for the 8-bit target.  */
   14502                 :             : 
   14503                 :             : void
   14504                 :         187 : reflect_8_bit_value (rtx *op)
   14505                 :             : {
   14506                 :         187 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x0F),
   14507                 :             :                                    HOST_WIDE_INT_C (0xF0), 4);
   14508                 :         187 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x33),
   14509                 :             :                                    HOST_WIDE_INT_C (0xCC), 2);
   14510                 :         187 :   gen_common_operation_to_reflect (op, HOST_WIDE_INT_C (0x55),
   14511                 :             :                                    HOST_WIDE_INT_C (0xAA), 1);
   14512                 :         187 : }
   14513                 :             : 
   14514                 :             : /* Generate instruction sequence which reflects the value of the OP
   14515                 :             :    using shift, and, or operations.  OP's mode may be less than word_mode.  */
   14516                 :             : 
   14517                 :             : void
   14518                 :         609 : generate_reflecting_code_standard (rtx *op)
   14519                 :             : {
   14520                 :        1827 :   gcc_assert (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant ()  >= 8
   14521                 :             :               && GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () <= 64);
   14522                 :             : 
   14523                 :        1218 :   if (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () == 64)
   14524                 :          67 :     reflect_64_bit_value (op);
   14525                 :        1084 :   else if (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () == 32)
   14526                 :         139 :     reflect_32_bit_value (op);
   14527                 :         806 :   else if (GET_MODE_BITSIZE (GET_MODE (*op)).to_constant () == 16)
   14528                 :         216 :     reflect_16_bit_value (op);
   14529                 :             :   else
   14530                 :         187 :     reflect_8_bit_value (op);
   14531                 :         609 : }
   14532                 :             : 
   14533                 :             : /* Generate table-based reversed CRC code for the given CRC, INPUT_DATA and
   14534                 :             :    the POLYNOMIAL (without leading 1).
   14535                 :             : 
   14536                 :             :    CRC is OP1, data is OP2 and the polynomial is OP3.
   14537                 :             :    This must generate CRC table and assembly for the following code,
   14538                 :             :    where crc_bit_size and data_bit_size may be 8, 16, 32, 64:
   14539                 :             :    uint_crc_bit_size_t
   14540                 :             :    crc_crc_bit_size (uint_crc_bit_size_t crc_init,
   14541                 :             :                            uint_data_bit_size_t data, size_t size)
   14542                 :             :    {
   14543                 :             :      reflect (crc_init)
   14544                 :             :      uint_crc_bit_size_t crc = crc_init;
   14545                 :             :      reflect (data);
   14546                 :             :      for (int i = 0; i < data_bit_size / 8; i++)
   14547                 :             :        crc = (crc << 8) ^ crc_table[(crc >> (crc_bit_size - 8))
   14548                 :             :                           ^ (data >> (data_bit_size - (i + 1) * 8) & 0xFF))];
   14549                 :             :      reflect (crc);
   14550                 :             :      return crc;
   14551                 :             :    }  */
   14552                 :             : 
   14553                 :             : void
   14554                 :         203 : expand_reversed_crc_table_based (rtx op0, rtx op1, rtx op2, rtx op3,
   14555                 :             :                                  machine_mode data_mode,
   14556                 :             :                                  void (*gen_reflecting_code) (rtx *op))
   14557                 :             : {
   14558                 :         203 :   gcc_assert (!CONST_INT_P (op0));
   14559                 :         203 :   gcc_assert (CONST_INT_P (op3));
   14560                 :         203 :   machine_mode crc_mode = GET_MODE (op0);
   14561                 :             : 
   14562                 :         203 :   rtx crc = gen_reg_rtx (crc_mode);
   14563                 :         203 :   convert_move (crc, op1, 0);
   14564                 :         203 :   gen_reflecting_code (&crc);
   14565                 :             : 
   14566                 :         203 :   rtx data = gen_reg_rtx (data_mode);
   14567                 :         203 :   convert_move (data, op2, 0);
   14568                 :         203 :   gen_reflecting_code (&data);
   14569                 :             : 
   14570                 :         203 :   calculate_table_based_CRC (&crc, data, op3, data_mode);
   14571                 :             : 
   14572                 :         203 :   gen_reflecting_code (&crc);
   14573                 :         203 :   convert_move (op0, crc, 0);
   14574                 :         203 : }
        

Generated by: LCOV version 2.1-beta

LCOV profile is generated on x86_64 machine using following configure options: configure --disable-bootstrap --enable-coverage=opt --enable-languages=c,c++,fortran,go,jit,lto,rust,m2 --enable-host-shared. GCC test suite is run with the built compiler.