From 46b7fc1328de6878ab03449cfba3256a674ea31a Mon Sep 17 00:00:00 2001 From: dcommander Date: Mon, 25 Aug 2014 15:26:09 +0000 Subject: Reformat code per Siarhei's original patch (to clearly indicate that the offset instructions are completely independent) and add Siarhei as an individual author (he no longer works for Nokia.) git-svn-id: svn://svn.code.sf.net/p/libjpeg-turbo/code/trunk@1388 632fc199-4ca6-4c93-a231-07263d6284db --- simd/jsimd_arm_neon.S | 41 +++++++++++++++++++++-------------------- 1 file changed, 21 insertions(+), 20 deletions(-) (limited to 'simd') diff --git a/simd/jsimd_arm_neon.S b/simd/jsimd_arm_neon.S index 7e8e134..4d9685b 100644 --- a/simd/jsimd_arm_neon.S +++ b/simd/jsimd_arm_neon.S @@ -4,6 +4,7 @@ * Copyright (C) 2009-2011 Nokia Corporation and/or its subsidiary(-ies). * All rights reserved. * Author: Siarhei Siamashka + * Copyright (C) 2014 Siarhei Siamashka. All Rights Reserved. * Copyright (C) 2014 Linaro Limited. All Rights Reserved. * * This software is provided 'as-is', without any express or implied @@ -1408,52 +1409,52 @@ asm_function jsimd_idct_2x2_neon .endm .macro do_yuv_to_rgb_stage2_store_load_stage1 - /* "do_yuv_to_rgb_stage2" and "store" */ - vrshrn.s32 d20, q10, #15 + /* "do_yuv_to_rgb_stage2" and "store" */ + vrshrn.s32 d20, q10, #15 /* "load" and "do_yuv_to_rgb_stage1" */ pld [U, #64] - vrshrn.s32 d21, q11, #15 + vrshrn.s32 d21, q11, #15 pld [V, #64] - vrshrn.s32 d24, q12, #14 - vrshrn.s32 d25, q13, #14 + vrshrn.s32 d24, q12, #14 + vrshrn.s32 d25, q13, #14 vld1.8 {d4}, [U, :64]! - vrshrn.s32 d28, q14, #14 + vrshrn.s32 d28, q14, #14 vld1.8 {d5}, [V, :64]! - vrshrn.s32 d29, q15, #14 + vrshrn.s32 d29, q15, #14 vaddw.u8 q3, q1, d4 /* q3 = u - 128 */ vaddw.u8 q4, q1, d5 /* q2 = v - 128 */ - vaddw.u8 q11, q10, d0 + vaddw.u8 q11, q10, d0 vmull.s16 q10, d6, d1[1] /* multiply by -11277 */ vmlal.s16 q10, d8, d1[2] /* multiply by -23401 */ - vaddw.u8 q12, q12, d0 - vaddw.u8 q14, q14, d0 + vaddw.u8 q12, q12, d0 + vaddw.u8 q14, q14, d0 .if \bpp != 16 /**************** rgb24/rgb32 *********************************/ - vqmovun.s16 d1\g_offs, q11 + vqmovun.s16 d1\g_offs, q11 pld [Y, #64] - vqmovun.s16 d1\r_offs, q12 + vqmovun.s16 d1\r_offs, q12 vld1.8 {d0}, [Y, :64]! - vqmovun.s16 d1\b_offs, q14 + vqmovun.s16 d1\b_offs, q14 vmull.s16 q11, d7, d1[1] /* multiply by -11277 */ vmlal.s16 q11, d9, d1[2] /* multiply by -23401 */ - do_store \bpp, 8 + do_store \bpp, 8 vmull.s16 q12, d8, d1[0] /* multiply by 22971 */ vmull.s16 q13, d9, d1[0] /* multiply by 22971 */ vmull.s16 q14, d6, d1[3] /* multiply by 29033 */ vmull.s16 q15, d7, d1[3] /* multiply by 29033 */ .else /**************************** rgb565 ***********************************/ - vqshlu.s16 q13, q11, #8 + vqshlu.s16 q13, q11, #8 pld [Y, #64] - vqshlu.s16 q15, q12, #8 - vqshlu.s16 q14, q14, #8 + vqshlu.s16 q15, q12, #8 + vqshlu.s16 q14, q14, #8 vld1.8 {d0}, [Y, :64]! vmull.s16 q11, d7, d1[1] vmlal.s16 q11, d9, d1[2] - vsri.u16 q15, q13, #5 + vsri.u16 q15, q13, #5 vmull.s16 q12, d8, d1[0] - vsri.u16 q15, q14, #11 + vsri.u16 q15, q14, #11 vmull.s16 q13, d9, d1[0] vmull.s16 q14, d6, d1[3] - do_store \bpp, 8 + do_store \bpp, 8 vmull.s16 q15, d7, d1[3] .endif .endm -- cgit v1.2.3