| Index: tests_lit/llvm2ice_tests/vector-arith.ll
|
| diff --git a/tests_lit/llvm2ice_tests/vector-arith.ll b/tests_lit/llvm2ice_tests/vector-arith.ll
|
| index 69131df416882be2cfd1f351be37b052e3b26231..abf09e21b2475a17b08d24332942fe66f15cacb5 100644
|
| --- a/tests_lit/llvm2ice_tests/vector-arith.ll
|
| +++ b/tests_lit/llvm2ice_tests/vector-arith.ll
|
| @@ -9,7 +9,7 @@
|
| ; RUN: %p2i -i %s --filetype=obj --disassemble -a -Om1 -mattr=sse4.1 \
|
| ; RUN: | FileCheck --check-prefix=SSE41 %s
|
|
|
| -define <4 x float> @test_fadd(<4 x float> %arg0, <4 x float> %arg1) {
|
| +define internal <4 x float> @test_fadd(<4 x float> %arg0, <4 x float> %arg1) {
|
| entry:
|
| %res = fadd <4 x float> %arg0, %arg1
|
| ret <4 x float> %res
|
| @@ -17,7 +17,7 @@ entry:
|
| ; CHECK: addps
|
| }
|
|
|
| -define <4 x float> @test_fsub(<4 x float> %arg0, <4 x float> %arg1) {
|
| +define internal <4 x float> @test_fsub(<4 x float> %arg0, <4 x float> %arg1) {
|
| entry:
|
| %res = fsub <4 x float> %arg0, %arg1
|
| ret <4 x float> %res
|
| @@ -25,7 +25,7 @@ entry:
|
| ; CHECK: subps
|
| }
|
|
|
| -define <4 x float> @test_fmul(<4 x float> %arg0, <4 x float> %arg1) {
|
| +define internal <4 x float> @test_fmul(<4 x float> %arg0, <4 x float> %arg1) {
|
| entry:
|
| %res = fmul <4 x float> %arg0, %arg1
|
| ret <4 x float> %res
|
| @@ -33,7 +33,7 @@ entry:
|
| ; CHECK: mulps
|
| }
|
|
|
| -define <4 x float> @test_fdiv(<4 x float> %arg0, <4 x float> %arg1) {
|
| +define internal <4 x float> @test_fdiv(<4 x float> %arg0, <4 x float> %arg1) {
|
| entry:
|
| %res = fdiv <4 x float> %arg0, %arg1
|
| ret <4 x float> %res
|
| @@ -41,7 +41,7 @@ entry:
|
| ; CHECK: divps
|
| }
|
|
|
| -define <4 x float> @test_frem(<4 x float> %arg0, <4 x float> %arg1) {
|
| +define internal <4 x float> @test_frem(<4 x float> %arg0, <4 x float> %arg1) {
|
| entry:
|
| %res = frem <4 x float> %arg0, %arg1
|
| ret <4 x float> %res
|
| @@ -52,7 +52,7 @@ entry:
|
| ; CHECK: fmodf
|
| }
|
|
|
| -define <16 x i8> @test_add_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_add_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = add <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -60,7 +60,7 @@ entry:
|
| ; CHECK: paddb
|
| }
|
|
|
| -define <16 x i8> @test_and_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_and_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = and <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -68,7 +68,7 @@ entry:
|
| ; CHECK: pand
|
| }
|
|
|
| -define <16 x i8> @test_or_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_or_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = or <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -76,7 +76,7 @@ entry:
|
| ; CHECK: por
|
| }
|
|
|
| -define <16 x i8> @test_xor_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_xor_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = xor <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -84,7 +84,7 @@ entry:
|
| ; CHECK: pxor
|
| }
|
|
|
| -define <16 x i8> @test_sub_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_sub_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = sub <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -92,7 +92,7 @@ entry:
|
| ; CHECK: psubb
|
| }
|
|
|
| -define <16 x i8> @test_mul_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_mul_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = mul <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -115,7 +115,7 @@ entry:
|
| ; CHECK: imul
|
| }
|
|
|
| -define <16 x i8> @test_shl_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_shl_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = shl <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -138,7 +138,7 @@ entry:
|
| ; CHECK: shl
|
| }
|
|
|
| -define <16 x i8> @test_lshr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_lshr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = lshr <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -161,7 +161,7 @@ entry:
|
| ; CHECK: shr
|
| }
|
|
|
| -define <16 x i8> @test_ashr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_ashr_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = ashr <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -184,7 +184,7 @@ entry:
|
| ; CHECK: sar
|
| }
|
|
|
| -define <16 x i8> @test_udiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_udiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = udiv <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -207,7 +207,7 @@ entry:
|
| ; CHECK: div
|
| }
|
|
|
| -define <16 x i8> @test_sdiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_sdiv_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = sdiv <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -230,7 +230,7 @@ entry:
|
| ; CHECK: idiv
|
| }
|
|
|
| -define <16 x i8> @test_urem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_urem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = urem <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -253,7 +253,7 @@ entry:
|
| ; CHECK: div
|
| }
|
|
|
| -define <16 x i8> @test_srem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| +define internal <16 x i8> @test_srem_v16i8(<16 x i8> %arg0, <16 x i8> %arg1) {
|
| entry:
|
| %res = srem <16 x i8> %arg0, %arg1
|
| ret <16 x i8> %res
|
| @@ -276,7 +276,7 @@ entry:
|
| ; CHECK: idiv
|
| }
|
|
|
| -define <8 x i16> @test_add_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_add_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = add <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -284,7 +284,7 @@ entry:
|
| ; CHECK: paddw
|
| }
|
|
|
| -define <8 x i16> @test_and_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_and_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = and <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -292,7 +292,7 @@ entry:
|
| ; CHECK: pand
|
| }
|
|
|
| -define <8 x i16> @test_or_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_or_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = or <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -300,7 +300,7 @@ entry:
|
| ; CHECK: por
|
| }
|
|
|
| -define <8 x i16> @test_xor_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_xor_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = xor <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -308,7 +308,7 @@ entry:
|
| ; CHECK: pxor
|
| }
|
|
|
| -define <8 x i16> @test_sub_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_sub_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = sub <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -316,7 +316,7 @@ entry:
|
| ; CHECK: psubw
|
| }
|
|
|
| -define <8 x i16> @test_mul_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_mul_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = mul <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -324,7 +324,7 @@ entry:
|
| ; CHECK: pmullw
|
| }
|
|
|
| -define <8 x i16> @test_shl_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_shl_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = shl <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -339,7 +339,7 @@ entry:
|
| ; CHECK: shl
|
| }
|
|
|
| -define <8 x i16> @test_lshr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_lshr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = lshr <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -354,7 +354,7 @@ entry:
|
| ; CHECK: shr
|
| }
|
|
|
| -define <8 x i16> @test_ashr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_ashr_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = ashr <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -369,7 +369,7 @@ entry:
|
| ; CHECK: sar
|
| }
|
|
|
| -define <8 x i16> @test_udiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_udiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = udiv <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -384,7 +384,7 @@ entry:
|
| ; CHECK: div
|
| }
|
|
|
| -define <8 x i16> @test_sdiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_sdiv_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = sdiv <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -399,7 +399,7 @@ entry:
|
| ; CHECK: idiv
|
| }
|
|
|
| -define <8 x i16> @test_urem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_urem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = urem <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -414,7 +414,7 @@ entry:
|
| ; CHECK: div
|
| }
|
|
|
| -define <8 x i16> @test_srem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| +define internal <8 x i16> @test_srem_v8i16(<8 x i16> %arg0, <8 x i16> %arg1) {
|
| entry:
|
| %res = srem <8 x i16> %arg0, %arg1
|
| ret <8 x i16> %res
|
| @@ -429,7 +429,7 @@ entry:
|
| ; CHECK: idiv
|
| }
|
|
|
| -define <4 x i32> @test_add_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_add_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = add <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -437,7 +437,7 @@ entry:
|
| ; CHECK: paddd
|
| }
|
|
|
| -define <4 x i32> @test_and_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_and_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = and <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -445,7 +445,7 @@ entry:
|
| ; CHECK: pand
|
| }
|
|
|
| -define <4 x i32> @test_or_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_or_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = or <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -453,7 +453,7 @@ entry:
|
| ; CHECK: por
|
| }
|
|
|
| -define <4 x i32> @test_xor_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_xor_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = xor <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -461,7 +461,7 @@ entry:
|
| ; CHECK: pxor
|
| }
|
|
|
| -define <4 x i32> @test_sub_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_sub_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = sub <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -469,7 +469,7 @@ entry:
|
| ; CHECK: psubd
|
| }
|
|
|
| -define <4 x i32> @test_mul_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_mul_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = mul <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -481,7 +481,7 @@ entry:
|
| ; SSE41: pmulld
|
| }
|
|
|
| -define <4 x i32> @test_shl_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_shl_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = shl <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -495,7 +495,7 @@ entry:
|
| ; SSE41-LABEL: test_shl_v4i32
|
| }
|
|
|
| -define <4 x i32> @test_lshr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_lshr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = lshr <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -506,7 +506,7 @@ entry:
|
| ; CHECK: shr
|
| }
|
|
|
| -define <4 x i32> @test_ashr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_ashr_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = ashr <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -517,7 +517,7 @@ entry:
|
| ; CHECK: sar
|
| }
|
|
|
| -define <4 x i32> @test_udiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_udiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = udiv <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -528,7 +528,7 @@ entry:
|
| ; CHECK: div
|
| }
|
|
|
| -define <4 x i32> @test_sdiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_sdiv_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = sdiv <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -539,7 +539,7 @@ entry:
|
| ; CHECK: idiv
|
| }
|
|
|
| -define <4 x i32> @test_urem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_urem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = urem <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
| @@ -550,7 +550,7 @@ entry:
|
| ; CHECK: div
|
| }
|
|
|
| -define <4 x i32> @test_srem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| +define internal <4 x i32> @test_srem_v4i32(<4 x i32> %arg0, <4 x i32> %arg1) {
|
| entry:
|
| %res = srem <4 x i32> %arg0, %arg1
|
| ret <4 x i32> %res
|
|
|