aboutsummaryrefslogtreecommitdiff
path: root/simd
diff options
context:
space:
mode:
authordcommander <dcommander@632fc199-4ca6-4c93-a231-07263d6284db>2014-08-25 15:26:09 +0000
committerdcommander <dcommander@632fc199-4ca6-4c93-a231-07263d6284db>2014-08-25 15:26:09 +0000
commit46b7fc1328de6878ab03449cfba3256a674ea31a (patch)
tree9174a44c022c986e2f7016d63eac2b9de5e47bf5 /simd
parentec19bade2755e2844c44a1a0b37e61f0c6537523 (diff)
Reformat code per Siarhei's original patch (to clearly indicate that the offset instructions are completely independent) and add Siarhei as an individual author (he no longer works for Nokia.)
git-svn-id: svn://svn.code.sf.net/p/libjpeg-turbo/code/trunk@1388 632fc199-4ca6-4c93-a231-07263d6284db
Diffstat (limited to 'simd')
-rw-r--r--simd/jsimd_arm_neon.S41
1 files changed, 21 insertions, 20 deletions
diff --git a/simd/jsimd_arm_neon.S b/simd/jsimd_arm_neon.S
index 7e8e134..4d9685b 100644
--- a/simd/jsimd_arm_neon.S
+++ b/simd/jsimd_arm_neon.S
@@ -4,6 +4,7 @@
* Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies).
* All rights reserved.
* Author: Siarhei Siamashka <siarhei.siamashka@nokia.com>
+ * Copyright (C) 2014 Siarhei Siamashka. All Rights Reserved.
* Copyright (C) 2014 Linaro Limited. All Rights Reserved.
*
* This software is provided 'as-is', without any express or implied
@@ -1408,52 +1409,52 @@ asm_function jsimd_idct_2x2_neon
.endm
.macro do_yuv_to_rgb_stage2_store_load_stage1
- /* "do_yuv_to_rgb_stage2" and "store" */
- vrshrn.s32 d20, q10, #15
+ /* "do_yuv_to_rgb_stage2" and "store" */
+ vrshrn.s32 d20, q10, #15
/* "load" and "do_yuv_to_rgb_stage1" */
pld [U, #64]
- vrshrn.s32 d21, q11, #15
+ vrshrn.s32 d21, q11, #15
pld [V, #64]
- vrshrn.s32 d24, q12, #14
- vrshrn.s32 d25, q13, #14
+ vrshrn.s32 d24, q12, #14
+ vrshrn.s32 d25, q13, #14
vld1.8 {d4}, [U, :64]!
- vrshrn.s32 d28, q14, #14
+ vrshrn.s32 d28, q14, #14
vld1.8 {d5}, [V, :64]!
- vrshrn.s32 d29, q15, #14
+ vrshrn.s32 d29, q15, #14
vaddw.u8 q3, q1, d4 /* q3 = u - 128 */
vaddw.u8 q4, q1, d5 /* q2 = v - 128 */
- vaddw.u8 q11, q10, d0
+ vaddw.u8 q11, q10, d0
vmull.s16 q10, d6, d1[1] /* multiply by -11277 */
vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */
- vaddw.u8 q12, q12, d0
- vaddw.u8 q14, q14, d0
+ vaddw.u8 q12, q12, d0
+ vaddw.u8 q14, q14, d0
.if \bpp != 16 /**************** rgb24/rgb32 *********************************/
- vqmovun.s16 d1\g_offs, q11
+ vqmovun.s16 d1\g_offs, q11
pld [Y, #64]
- vqmovun.s16 d1\r_offs, q12
+ vqmovun.s16 d1\r_offs, q12
vld1.8 {d0}, [Y, :64]!
- vqmovun.s16 d1\b_offs, q14
+ vqmovun.s16 d1\b_offs, q14
vmull.s16 q11, d7, d1[1] /* multiply by -11277 */
vmlal.s16 q11, d9, d1[2] /* multiply by -23401 */
- do_store \bpp, 8
+ do_store \bpp, 8
vmull.s16 q12, d8, d1[0] /* multiply by 22971 */
vmull.s16 q13, d9, d1[0] /* multiply by 22971 */
vmull.s16 q14, d6, d1[3] /* multiply by 29033 */
vmull.s16 q15, d7, d1[3] /* multiply by 29033 */
.else /**************************** rgb565 ***********************************/
- vqshlu.s16 q13, q11, #8
+ vqshlu.s16 q13, q11, #8
pld [Y, #64]
- vqshlu.s16 q15, q12, #8
- vqshlu.s16 q14, q14, #8
+ vqshlu.s16 q15, q12, #8
+ vqshlu.s16 q14, q14, #8
vld1.8 {d0}, [Y, :64]!
vmull.s16 q11, d7, d1[1]
vmlal.s16 q11, d9, d1[2]
- vsri.u16 q15, q13, #5
+ vsri.u16 q15, q13, #5
vmull.s16 q12, d8, d1[0]
- vsri.u16 q15, q14, #11
+ vsri.u16 q15, q14, #11
vmull.s16 q13, d9, d1[0]
vmull.s16 q14, d6, d1[3]
- do_store \bpp, 8
+ do_store \bpp, 8
vmull.s16 q15, d7, d1[3]
.endif
.endm