@@ -2501,9 +2501,9 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8 x i1>
2501
2501
; RV64ZVE32F-NEXT: add a2, a0, a2
2502
2502
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2503
2503
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2504
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2504
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2505
2505
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2506
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2506
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2507
2507
; RV64ZVE32F-NEXT: .LBB35_9: # %else14
2508
2508
; RV64ZVE32F-NEXT: andi a2, a1, 64
2509
2509
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -2546,9 +2546,9 @@ define <8 x i32> @mgather_baseidx_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8 x i1>
2546
2546
; RV64ZVE32F-NEXT: add a2, a0, a2
2547
2547
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2548
2548
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m4, ta, ma
2549
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2549
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2550
2550
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2551
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2551
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2552
2552
; RV64ZVE32F-NEXT: andi a2, a1, 32
2553
2553
; RV64ZVE32F-NEXT: bnez a2, .LBB35_8
2554
2554
; RV64ZVE32F-NEXT: j .LBB35_9
@@ -2652,9 +2652,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2652
2652
; RV64ZVE32F-NEXT: add a2, a0, a2
2653
2653
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2654
2654
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2655
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2655
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2656
2656
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2657
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2657
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2658
2658
; RV64ZVE32F-NEXT: .LBB36_9: # %else14
2659
2659
; RV64ZVE32F-NEXT: andi a2, a1, 64
2660
2660
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -2697,9 +2697,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2697
2697
; RV64ZVE32F-NEXT: add a2, a0, a2
2698
2698
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2699
2699
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m4, ta, ma
2700
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2700
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2701
2701
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2702
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2702
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2703
2703
; RV64ZVE32F-NEXT: andi a2, a1, 32
2704
2704
; RV64ZVE32F-NEXT: bnez a2, .LBB36_8
2705
2705
; RV64ZVE32F-NEXT: j .LBB36_9
@@ -2808,9 +2808,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2808
2808
; RV64ZVE32F-NEXT: add a2, a0, a2
2809
2809
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2810
2810
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2811
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2811
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2812
2812
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2813
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2813
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2814
2814
; RV64ZVE32F-NEXT: .LBB37_9: # %else14
2815
2815
; RV64ZVE32F-NEXT: andi a2, a1, 64
2816
2816
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -2856,9 +2856,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i8_v8i32(ptr %base, <8 x i8> %idxs, <8
2856
2856
; RV64ZVE32F-NEXT: add a2, a0, a2
2857
2857
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2858
2858
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m4, ta, ma
2859
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2859
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2860
2860
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
2861
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
2861
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
2862
2862
; RV64ZVE32F-NEXT: andi a2, a1, 32
2863
2863
; RV64ZVE32F-NEXT: bnez a2, .LBB37_8
2864
2864
; RV64ZVE32F-NEXT: j .LBB37_9
@@ -2966,9 +2966,9 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <8 x i
2966
2966
; RV64ZVE32F-NEXT: add a2, a0, a2
2967
2967
; RV64ZVE32F-NEXT: lw a2, 0(a2)
2968
2968
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
2969
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
2969
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
2970
2970
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
2971
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
2971
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
2972
2972
; RV64ZVE32F-NEXT: .LBB38_9: # %else14
2973
2973
; RV64ZVE32F-NEXT: andi a2, a1, 64
2974
2974
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -3011,9 +3011,9 @@ define <8 x i32> @mgather_baseidx_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <8 x i
3011
3011
; RV64ZVE32F-NEXT: add a2, a0, a2
3012
3012
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3013
3013
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m2, ta, ma
3014
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3014
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3015
3015
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3016
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3016
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3017
3017
; RV64ZVE32F-NEXT: andi a2, a1, 32
3018
3018
; RV64ZVE32F-NEXT: bnez a2, .LBB38_8
3019
3019
; RV64ZVE32F-NEXT: j .LBB38_9
@@ -3118,9 +3118,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3118
3118
; RV64ZVE32F-NEXT: add a2, a0, a2
3119
3119
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3120
3120
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3121
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3121
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3122
3122
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
3123
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
3123
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
3124
3124
; RV64ZVE32F-NEXT: .LBB39_9: # %else14
3125
3125
; RV64ZVE32F-NEXT: andi a2, a1, 64
3126
3126
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -3163,9 +3163,9 @@ define <8 x i32> @mgather_baseidx_sext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3163
3163
; RV64ZVE32F-NEXT: add a2, a0, a2
3164
3164
; RV64ZVE32F-NEXT: lw a2, 0(a2)
3165
3165
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m2, ta, ma
3166
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a2
3166
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a2
3167
3167
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3168
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3168
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3169
3169
; RV64ZVE32F-NEXT: andi a2, a1, 32
3170
3170
; RV64ZVE32F-NEXT: bnez a2, .LBB39_8
3171
3171
; RV64ZVE32F-NEXT: j .LBB39_9
@@ -3275,9 +3275,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3275
3275
; RV64ZVE32F-NEXT: add a3, a0, a3
3276
3276
; RV64ZVE32F-NEXT: lw a3, 0(a3)
3277
3277
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
3278
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a3
3278
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a3
3279
3279
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
3280
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
3280
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
3281
3281
; RV64ZVE32F-NEXT: .LBB40_9: # %else14
3282
3282
; RV64ZVE32F-NEXT: andi a3, a2, 64
3283
3283
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -3323,9 +3323,9 @@ define <8 x i32> @mgather_baseidx_zext_v8i16_v8i32(ptr %base, <8 x i16> %idxs, <
3323
3323
; RV64ZVE32F-NEXT: add a3, a0, a3
3324
3324
; RV64ZVE32F-NEXT: lw a3, 0(a3)
3325
3325
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m2, ta, ma
3326
- ; RV64ZVE32F-NEXT: vmv.s.x v8 , a3
3326
+ ; RV64ZVE32F-NEXT: vmv.s.x v12 , a3
3327
3327
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
3328
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
3328
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
3329
3329
; RV64ZVE32F-NEXT: andi a3, a2, 32
3330
3330
; RV64ZVE32F-NEXT: bnez a3, .LBB40_8
3331
3331
; RV64ZVE32F-NEXT: j .LBB40_9
@@ -8200,9 +8200,9 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <8 x i
8200
8200
; RV64ZVE32F-NEXT: add a2, a0, a2
8201
8201
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8202
8202
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8203
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8203
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8204
8204
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8205
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8205
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8206
8206
; RV64ZVE32F-NEXT: .LBB74_9: # %else14
8207
8207
; RV64ZVE32F-NEXT: andi a2, a1, 64
8208
8208
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -8245,9 +8245,9 @@ define <8 x float> @mgather_baseidx_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <8 x i
8245
8245
; RV64ZVE32F-NEXT: add a2, a0, a2
8246
8246
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8247
8247
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m4, ta, ma
8248
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8248
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8249
8249
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8250
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8250
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8251
8251
; RV64ZVE32F-NEXT: andi a2, a1, 32
8252
8252
; RV64ZVE32F-NEXT: bnez a2, .LBB74_8
8253
8253
; RV64ZVE32F-NEXT: j .LBB74_9
@@ -8351,9 +8351,9 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8351
8351
; RV64ZVE32F-NEXT: add a2, a0, a2
8352
8352
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8353
8353
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8354
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8354
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8355
8355
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8356
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8356
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8357
8357
; RV64ZVE32F-NEXT: .LBB75_9: # %else14
8358
8358
; RV64ZVE32F-NEXT: andi a2, a1, 64
8359
8359
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -8396,9 +8396,9 @@ define <8 x float> @mgather_baseidx_sext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8396
8396
; RV64ZVE32F-NEXT: add a2, a0, a2
8397
8397
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8398
8398
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m4, ta, ma
8399
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8399
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8400
8400
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8401
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8401
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8402
8402
; RV64ZVE32F-NEXT: andi a2, a1, 32
8403
8403
; RV64ZVE32F-NEXT: bnez a2, .LBB75_8
8404
8404
; RV64ZVE32F-NEXT: j .LBB75_9
@@ -8507,9 +8507,9 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8507
8507
; RV64ZVE32F-NEXT: add a2, a0, a2
8508
8508
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8509
8509
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8510
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8510
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8511
8511
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8512
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8512
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8513
8513
; RV64ZVE32F-NEXT: .LBB76_9: # %else14
8514
8514
; RV64ZVE32F-NEXT: andi a2, a1, 64
8515
8515
; RV64ZVE32F-NEXT: vsetivli zero, 2, e8, mf4, ta, ma
@@ -8555,9 +8555,9 @@ define <8 x float> @mgather_baseidx_zext_v8i8_v8f32(ptr %base, <8 x i8> %idxs, <
8555
8555
; RV64ZVE32F-NEXT: add a2, a0, a2
8556
8556
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8557
8557
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m4, ta, ma
8558
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8558
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8559
8559
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8560
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8560
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8561
8561
; RV64ZVE32F-NEXT: andi a2, a1, 32
8562
8562
; RV64ZVE32F-NEXT: bnez a2, .LBB76_8
8563
8563
; RV64ZVE32F-NEXT: j .LBB76_9
@@ -8665,9 +8665,9 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(ptr %base, <8 x i16> %idxs, <8 x
8665
8665
; RV64ZVE32F-NEXT: add a2, a0, a2
8666
8666
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8667
8667
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8668
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8668
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8669
8669
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8670
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8670
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8671
8671
; RV64ZVE32F-NEXT: .LBB77_9: # %else14
8672
8672
; RV64ZVE32F-NEXT: andi a2, a1, 64
8673
8673
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -8710,9 +8710,9 @@ define <8 x float> @mgather_baseidx_v8i16_v8f32(ptr %base, <8 x i16> %idxs, <8 x
8710
8710
; RV64ZVE32F-NEXT: add a2, a0, a2
8711
8711
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8712
8712
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m2, ta, ma
8713
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8713
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8714
8714
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8715
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8715
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8716
8716
; RV64ZVE32F-NEXT: andi a2, a1, 32
8717
8717
; RV64ZVE32F-NEXT: bnez a2, .LBB77_8
8718
8718
; RV64ZVE32F-NEXT: j .LBB77_9
@@ -8817,9 +8817,9 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8817
8817
; RV64ZVE32F-NEXT: add a2, a0, a2
8818
8818
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8819
8819
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8820
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8820
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8821
8821
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8822
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8822
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8823
8823
; RV64ZVE32F-NEXT: .LBB78_9: # %else14
8824
8824
; RV64ZVE32F-NEXT: andi a2, a1, 64
8825
8825
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -8862,9 +8862,9 @@ define <8 x float> @mgather_baseidx_sext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8862
8862
; RV64ZVE32F-NEXT: add a2, a0, a2
8863
8863
; RV64ZVE32F-NEXT: flw fa5, 0(a2)
8864
8864
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m2, ta, ma
8865
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8865
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8866
8866
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
8867
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
8867
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
8868
8868
; RV64ZVE32F-NEXT: andi a2, a1, 32
8869
8869
; RV64ZVE32F-NEXT: bnez a2, .LBB78_8
8870
8870
; RV64ZVE32F-NEXT: j .LBB78_9
@@ -8974,9 +8974,9 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
8974
8974
; RV64ZVE32F-NEXT: add a3, a0, a3
8975
8975
; RV64ZVE32F-NEXT: flw fa5, 0(a3)
8976
8976
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m1, ta, ma
8977
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
8977
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
8978
8978
; RV64ZVE32F-NEXT: vsetivli zero, 6, e32, m2, tu, ma
8979
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 5
8979
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 5
8980
8980
; RV64ZVE32F-NEXT: .LBB79_9: # %else14
8981
8981
; RV64ZVE32F-NEXT: andi a3, a2, 64
8982
8982
; RV64ZVE32F-NEXT: vsetivli zero, 2, e16, mf2, ta, ma
@@ -9022,9 +9022,9 @@ define <8 x float> @mgather_baseidx_zext_v8i16_v8f32(ptr %base, <8 x i16> %idxs,
9022
9022
; RV64ZVE32F-NEXT: add a3, a0, a3
9023
9023
; RV64ZVE32F-NEXT: flw fa5, 0(a3)
9024
9024
; RV64ZVE32F-NEXT: vsetvli zero, zero, e32, m2, ta, ma
9025
- ; RV64ZVE32F-NEXT: vfmv.s.f v8 , fa5
9025
+ ; RV64ZVE32F-NEXT: vfmv.s.f v12 , fa5
9026
9026
; RV64ZVE32F-NEXT: vsetivli zero, 5, e32, m2, tu, ma
9027
- ; RV64ZVE32F-NEXT: vslideup.vi v10, v8 , 4
9027
+ ; RV64ZVE32F-NEXT: vslideup.vi v10, v12 , 4
9028
9028
; RV64ZVE32F-NEXT: andi a3, a2, 32
9029
9029
; RV64ZVE32F-NEXT: bnez a3, .LBB79_8
9030
9030
; RV64ZVE32F-NEXT: j .LBB79_9
0 commit comments