• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1@/******************************************************************************
2@ *
3@ * Copyright (C) 2015 The Android Open Source Project
4@ *
5@ * Licensed under the Apache License, Version 2.0 (the "License");
6@ * you may not use this file except in compliance with the License.
7@ * You may obtain a copy of the License at:
8@ *
9@ * http://www.apache.org/licenses/LICENSE-2.0
10@ *
11@ * Unless required by applicable law or agreed to in writing, software
12@ * distributed under the License is distributed on an "AS IS" BASIS,
13@ * WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
14@ * See the License for the specific language governing permissions and
15@ * limitations under the License.
16@ *
17@ *****************************************************************************
18@ * Originally developed and contributed by Ittiam Systems Pvt. Ltd, Bangalore
19@*/
20@/*****************************************************************************/
21@/*                                                                           */
22@/*  File Name         : ih264_deblk_luma_a9.s                                */
23@/*                                                                           */
24@/*  Description       : Contains function definitions for deblocking luma    */
25@/*                      edge. Functions are coded in NEON assembly and can   */
26@/*                      be compiled using ARM RVDS.                          */
27@/*                                                                           */
28@/*  List of Functions : ih264_deblk_luma_vert_bs4_a9()                       */
29@/*                      ih264_deblk_luma_vert_bslt4_a9()                     */
30@/*                      ih264_deblk_luma_horz_bs4_a9()                       */
31@/*                      ih264_deblk_luma_horz_bslt4_a9()                     */
32@/*                      ih264_deblk_luma_vert_bs4_mbaff_a9()                 */
33@/*                      ih264_deblk_luma_vert_bslt4_mbaff_a9()               */
34@/*                                                                           */
35@/*  Issues / Problems : None                                                 */
36@/*                                                                           */
37@/*  Revision History  :                                                      */
38@/*                                                                           */
39@/*         DD MM YYYY   Author(s)       Changes (Describe the changes made)  */
40@/*         28 11 2013   Ittiam          Draft                                */
41@/*         05 01 2015   Kaushik         Added double-call functions for      */
42@/*                      Senthoor        vertical deblocking.                 */
43@/*                                                                           */
44@/*****************************************************************************/
45
46
47.text
48.p2align 2
49
50@**
51@*******************************************************************************
52@*
53@* @brief
54@*     Performs filtering of a luma block horizontal edge for cases where the
55@*     boundary strength is less than 4
56@*
57@* @par Description:
58@*    This operation is described in  Sec. 8.7.2.4 under the title
59@*    "Filtering process for edges for bS equal to 4" in ITU T Rec H.264.
60@*
61@* @param[in] r0 - pu1_src
62@*  Pointer to the src sample q0
63@*
64@* @param[in] r1 - src_strd
65@*  Source stride
66@*
67@* @param[in] r2 - alpha
68@*  Alpha Value for the boundary
69@*
70@* @param[in] r3 - beta
71@*  Beta Value for the boundary
72@*
73@* @param[in] sp(0) - u4_bs
74@*  Packed Boundary strength array
75@*
76@* @param[in] sp(4) - pu1_cliptab
77@*  tc0_table
78@*
79@* @returns
80@*  None
81@*
82@* @remarks
83@*  None
84@*
85@*******************************************************************************
86@*
87
88    .global ih264_deblk_luma_horz_bslt4_a9
89
90ih264_deblk_luma_horz_bslt4_a9:
91
92    stmfd         sp!, {r4-r7, lr}
93
94    ldrd          r4, r5, [sp, #0x14]   @r4 = ui_Bs , r5 = *puc_ClpTab
95    vpush         {d8 - d15}
96    sub           r0, r0, r1, lsl #1    @R1 = uc_Horizonpad
97    sub           r0, r0, r1            @r0 pointer to p2
98    rev           r4, r4                @
99    vld1.8        {q5}, [r0], r1        @p2 values are loaded into q5
100    vmov.32       d12[0], r4            @d12[0] = ui_Bs
101    mov           r6, r0                @keeping backup of pointer to p1
102    vld1.8        {q4}, [r0], r1        @p1 values are loaded into q4
103    mov           r7, r0                @keeping backup of pointer to p0
104    vld1.8        {q3}, [r0], r1        @p0 values are loaded into q3
105    vmovl.u8      q6, d12               @q6 = uc_Bs in each 16 bt scalar
106    vld1.8        {q0}, [r0], r1        @q0 values are loaded into q0
107    vabd.u8       q13, q4, q3           @Q13 = ABS(p1 - p0)
108    vld1.8        {q1}, [r0], r1        @q1 values are loaded into q1
109    vabd.u8       q11, q3, q0           @Q11 = ABS(p0 - q0)
110    vld1.32       d16[0], [r5]          @D16[0] contains cliptab
111    vabd.u8       q12, q1, q0           @Q12 = ABS(q1 - q0)
112    vld1.8        {q2}, [r0], r1        @q2 values are loaded into q2
113    vtbl.8        d14, {d16}, d12       @
114    vdup.8        q10, r2               @Q10 contains alpha
115    vdup.8        q8, r3                @Q8 contains beta
116    vmovl.u16     q6, d12               @
117    vmovl.u16     q7, d14               @
118    vabd.u8       q14, q5, q3           @Q14 = Ap = ABS(p2 - p0)
119    vabd.u8       q15, q2, q0           @Q15 = Aq = ABS(q2 - q0)
120    vcgt.s32      q6, q6, #0            @Q6 = (us_Bs > 0)
121    vsli.32       q7, q7, #8            @
122    vcge.u8       q9, q11, q10          @Q9 = ( ABS(p0 - q0) >= Alpha )
123    vcge.u8       q12, q12, q8          @Q12=( ABS(q1 - q0) >= Beta )
124    vcge.u8       q13, q13, q8          @Q13=( ABS(p1 - p0) >= Beta )
125    vcgt.u8       q10, q8, q14          @Q10=(Ap<Beta)
126    vcgt.u8       q11, q8, q15          @Q11=(Aq<Beta)
127    vsli.32       q7, q7, #16           @Q7  = C0
128    vorr          q9, q9, q12           @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta )
129    vsubl.u8      q15, d1, d7           @
130    vsubl.u8      q12, d0, d6           @Q15,Q12 = (q0 - p0)
131    vorr          q9, q9, q13           @Q9 = ( ABS(p0 - q0) >= Alpha ) | ( ABS(q1 - q0) >= Beta ) | ( ABS(p1 - p0) >= Beta )
132    vsubl.u8      q14, d8, d2           @Q14 = (p1 - q1)L
133    vshl.i16      q13, q15, #2          @Q13 = (q0 - p0)<<2
134    vshl.i16      q12, q12, #2          @Q12 = (q0 - p0)<<2
135    vsubl.u8      q15, d9, d3           @Q15 = (p1 - q1)H
136    vbic          q6, q6, q9            @final condition
137    vadd.i16      q12, q12, q14         @
138    vadd.i16      q13, q13, q15         @Q13,Q12 = [ (q0 - p0)<<2 ] + (p1 - q1)
139    vsub.i8       q9, q7, q10           @Q9 = C0 + (Ap < Beta)
140    vrhadd.u8     q8, q3, q0            @Q8 = ((p0+q0+1) >> 1)
141    vqrshrn.s16   d24, q12, #3          @
142    vqrshrn.s16   d25, q13, #3          @Q12 = i_macro = (((q0 - p0)<<2) + (p1 - q1) + 4)>>3
143    vsub.i8       q9, q9, q11           @Q9 = C0 + (Ap < Beta) + (Aq < Beta)
144    vand.i8       q10, q10, q6          @
145    vand.i8       q11, q11, q6          @
146    vabs.s8       q13, q12              @Q13 = ABS (i_macro)
147    vaddl.u8      q14, d17, d11         @
148    vaddl.u8      q5, d16, d10          @Q14,Q5 = p2 + (p0+q0+1)>>1
149    vaddl.u8      q15, d17, d5          @
150    vmin.u8       q9, q13, q9           @Q9 = delta = (ABS(i_macro) > C) ? C : ABS(i_macro)
151    vshll.u8      q13, d9, #1           @
152    vaddl.u8      q2, d16, d4           @Q15,Q2 = q2 + (p0+q0+1)>>1
153    vshll.u8      q8, d8, #1            @Q13,Q8 = (p1<<1)
154    vand          q9, q9, q6            @Making delta zero in places where values shouldn be filterd
155    vsub.i16      q14, q14, q13         @Q14,Q5 = [p2 + (p0+q0+1)>>1] - (p1<<1)
156    vsub.i16      q5, q5, q8            @
157    vshll.u8      q8, d2, #1            @
158    vshll.u8      q13, d3, #1           @Q13,Q8 = (q1<<1)
159    vqshrn.s16    d29, q14, #1          @
160    vqshrn.s16    d28, q5, #1           @Q14 = i_macro_p1
161    vsub.i16      q2, q2, q8            @
162    vsub.i16      q15, q15, q13         @Q15,Q2  = [q2 + (p0+q0+1)>>1] - (q1<<1)
163    vneg.s8       q13, q7               @Q13 = -C0
164    vmin.s8       q14, q14, q7          @Q14 = min(C0,i_macro_p1)
165    vcge.s8       q12, q12, #0          @Q12 = (i_macro >= 0)
166    vqshrn.s16    d31, q15, #1          @
167    vqshrn.s16    d30, q2, #1           @Q15 = i_macro_q1
168    vmax.s8       q14, q14, q13         @Q14 = max( - C0 , min(C0, i_macro_p1) )
169    vqadd.u8      q8, q3, q9            @Q8  = p0 + delta
170    vqsub.u8      q3, q3, q9            @Q3 = p0 - delta
171    vmin.s8       q15, q15, q7          @Q15 = min(C0,i_macro_q1)
172    vand.i8       q14, q10, q14         @condition check Ap<beta
173    vqadd.u8      q7, q0, q9            @Q7 = q0 + delta
174    vqsub.u8      q0, q0, q9            @Q0   = q0 - delta
175    vmax.s8       q15, q15, q13         @Q15 = max( - C0 , min(C0, i_macro_q1) )
176    vbif          q8, q3, q12           @Q8  = (i_macro >= 0 ) ? (p0+delta) : (p0-delta)
177    vbif          q0, q7, q12           @Q0  = (i_macro >= 0 ) ? (q0-delta) : (q0+delta)
178    vadd.i8       q14, q14, q4          @
179    vand.i8       q15, q11, q15         @condition check Aq<beta
180    vst1.8        {q8}, [r7], r1        @writting back filtered value of p0
181    vadd.i8       q15, q15, q1          @
182    vst1.8        {q0}, [r7], r1        @writting back filtered value of q0
183    vst1.8        {q14}, [r6]           @writting back filtered value of p1
184    vst1.8        {q15}, [r7], r1       @writting back filtered value of q1
185    vpop          {d8 - d15}
186    ldmfd         sp!, {r4-r7, pc}
187
188
189
190@**
191@*******************************************************************************
192@*
193@* @brief
194@*     Performs filtering of a luma block horizontal edge when the
195@*     boundary strength is set to 4
196@*
197@* @par Description:
198@*    This operation is described in  Sec. 8.7.2.4 under the title
199@*    "Filtering process for edges for bS equal to 4" in ITU T Rec H.264.
200@*
201@* @param[in] r0 - pu1_src
202@*  Pointer to the src sample q0
203@*
204@* @param[in] r1 - src_strd
205@*  Source stride
206@*
207@* @param[in] r2 - alpha
208@*  Alpha Value for the boundary
209@*
210@* @param[in] r3 - beta
211@*  Beta Value for the boundary
212@*
213@* @returns
214@*  None
215@*
216@* @remarks
217@*  None
218@*
219@*******************************************************************************
220@*
221
222    .global ih264_deblk_luma_horz_bs4_a9
223
224ih264_deblk_luma_horz_bs4_a9:
225
226    @ Back up necessary registers on stack
227    stmfd         sp!, {r12, r14}
228    vpush         {d8 - d15}
229    @ Init
230    vdup.8        q0, r2                @duplicate alpha
231    sub           r12, r0, r1           @pointer to p0 = q0 - src_strd
232    vdup.8        q1, r3                @duplicate beta
233    sub           r14, r0, r1, lsl#1    @pointer to p1 = q0 - src_strd*2
234    sub           r2, r0, r1, lsl#2     @pointer to p3 = q0 - src_strd*4
235    sub           r3, r14, r1           @pointer to p2 = p1 - src_strd
236
237    @ Load Data
238    vld1.8        {d4, d5}, [r0], r1    @load q0 to Q2, q0 = q0 + src_strd
239    vld1.8        {d6, d7}, [r12]       @load p0 to Q3
240    vld1.8        {d8, d9}, [r0], r1    @load q1 to Q4, q0 = q0 + src_strd
241    vld1.8        {d10, d11}, [r14]     @load p1 to Q5
242
243    @ Filter Decision
244    vabd.u8       q6, q2, q3            @ABS(p0 - q0)
245    vabd.u8       q7, q4, q2            @ABS(q1 - q0)
246    vabd.u8       q8, q5, q3            @ABS(p1 - p0)
247    vcge.u8       q9, q6, q0            @ABS(p0 - q0) >= Alpha
248    vcge.u8       q7, q7, q1            @ABS(q1 - q0) >= Beta
249    vcge.u8       q8, q8, q1            @ABS(p1 - p0) >= Beta
250    vmov.i8       q10, #2
251    vorr          q9, q9, q7            @ABS(p0 - q0) >= Alpha || ABS(q1 - q0) >= Beta
252    vld1.8        {d14, d15}, [r0], r1  @load q2 to Q7, q0 = q0 + src_strd
253    vorr          q9, q9, q8            @ABS(p0 - q0) >= Alpha || ABS(q1 - q0) >= Beta || ABS(p1 - p0) >= Beta
254    vsra.u8       q10, q0, #2           @((Alpha >> 2) + 2)
255    vabd.u8       q11, q7, q2           @Aq  = ABS(q2 - q0)
256    vaddl.u8      q12, d4, d6           @p0+q0 L
257    vaddl.u8      q13, d5, d7           @p0+q0 H
258    vclt.u8       q11, q11, q1          @Aq < Beta
259    vclt.u8       q10, q6, q10          @(ABS(p0 - q0) <((Alpha >>2) + 2))
260
261    @ Deblock Filtering q0', q1', q2'
262    vaddw.u8      q14, q12, d8          @p0+q0+q1 L
263    vaddw.u8      q15, q13, d9          @p0+q0+q1 H
264    vand          q11, q11, q10         @(Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
265    @ q0' if (Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2)) TRUE
266    vadd.i16      q8, q14, q14          @2*(p0+q0+q1)L
267    vadd.i16      q0, q15, q15          @2*(p0+q0+q1)H
268    vaddw.u8      q8, q8, d14           @2*(p0+q0+q1)+q2 L
269    vaddw.u8      q0, q0, d15           @2*(p0+q0+q1)+q2 H
270    vaddw.u8      q8, q8, d10           @2*(p0+q0+q1)+q2 +p1 L
271    vaddw.u8      q0, q0, d11           @2*(p0+q0+q1)+q2 +p1 H
272    vrshrn.u16    d12, q8, #3           @(2*(p0+q0+q1)+q2 +p1 +4)>> 3 L [q0']
273    vrshrn.u16    d13, q0, #3           @(2*(p0+q0+q1)+q2 +p1 +4)>> 3 H [q0']
274    @ q0" if (Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2)) FALSE
275    vaddl.u8      q8, d8, d8            @2*q1 L
276    vaddl.u8      q0, d9, d9            @2*q1 H
277    vaddw.u8      q8, q8, d4            @2*q1+q0 L
278    vaddw.u8      q0, q0, d5            @2*q1+q0 H
279    vaddw.u8      q8, q8, d10           @2*q1+q0+p1  L
280    vaddw.u8      q0, q0, d11           @2*q1+q0+p1 H
281    vrshrn.u16    d16, q8, #2           @(2*q1+q0+p1+2)>>2 L [q0"]
282    vrshrn.u16    d17, q0, #2           @(2*q1+q0+p1+2)>>2 H [q0"]
283    @ q1'
284    vaddw.u8      q14, q14, d14         @p0+q0+q1+q2 L
285    vaddw.u8      q15, q15, d15         @p0+q0+q1+q2 H
286    vld1.8        {q0}, [r0], r1        @load q3 to Q0, q0 = q0 + src_strd
287    vbit          q8, q6, q11           @choosing between q0' and q0" depending on condn
288    sub           r0, r0, r1, lsl #2    @pointer to q0
289    vbic          q11, q11, q9          @((ABS(p0 - q0) >= Alpha  || ABS(q1 - q0) >= Beta || ABS(p1 - p0) >= Beta))
290                                        @ && (Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
291    vrshrn.u16    d12, q14, #2          @(p0+q0+q1+q2+2)>>2 L [q1']
292    vrshrn.u16    d13, q15, #2          @(p0+q0+q1+q2+2)>>2 H [q1']
293    vbif          q2, q8, q9            @choose q0 or filtered q0
294    @ q2'
295    vaddl.u8      q8, d14, d0           @q2+q3,L
296    vaddl.u8      q0, d15, d1           @q2+q3,H
297    vadd.i16      q14, q14, q8          @p0+q0+q1+2*q2+q3 L
298    vst1.8        {d4, d5}, [r0], r1    @store q0
299    vadd.i16      q15, q15, q0          @p0+q0+q1+2*q2+q3 H
300    vadd.i16      q14, q14, q8          @p0+q0+q1+3*q2+2*q3 L
301    vadd.i16      q15, q15, q0          @p0+q0+q1+3*q2+2*q3 H
302    vrshrn.u16    d0, q14, #3           @(p0+q0+q1+3*q2+2*q3+4)>>3 L [q2']
303    vrshrn.u16    d1, q15, #3           @(p0+q0+q1+3*q2+2*q3+4)>>3 H [q2']
304    vld1.8        {d30, d31}, [r3]      @load p2 to Q15
305    vbif          q6, q4, q11           @choose q1 or filtered value of q1
306
307    vabd.u8       q8, q15, q3           @Ap,ABS(p2 - p0)
308    vaddw.u8      q12, q12, d10         @p0+q0+p1 L
309    vbif          q0, q7, q11           @choose q2 or filtered q2
310    vaddw.u8      q13, q13, d11         @p0+q0+p1 H
311    vst1.8        {d12, d13}, [r0], r1  @store q1
312    vclt.u8       q8, q8, q1            @Ap < Beta
313    vadd.i16      q14, q12, q12         @2*(p0+q0+p1) L
314    vadd.i16      q2, q13, q13          @2*(p0+q0+p1) H
315    vst1.8        {d0, d1}, [r0], r1    @store q2
316    vand          q10, q10, q8          @((Ap < Beta) && (ABS(p0 - q0) <((Alpha >>2) + 2)))
317    vaddw.u8      q14, q14, d30         @2*(p0+q0+p1)+p2 l
318    vaddw.u8      q2, q2, d31           @2*(p0+q0+p1)+p2 H
319    vaddw.u8      q14, q14, d8          @2*(p0+q0+p1)+p2+q1 L
320    vaddw.u8      q2, q2, d9            @2*(p0+q0+p1)+p2+q1 H
321    vrshrn.u16    d28, q14, #3          @(2*(p0+q0+p1)+p2+q1+4)>>3  L,p0'
322    vrshrn.u16    d29, q2, #3           @(2*(p0+q0+p1)+p2+q1+4)>>3  H,p0'
323    vmov.i8       d0, #2
324    vmov.i16      d1, #2
325    vaddl.u8      q1, d6, d8            @p0+q1      L
326    vmlal.u8      q1, d10, d0           @2*p1+p0+q1 L
327    vaddl.u8      q8, d7, d9            @p0+q1  H
328    vmlal.u8      q8, d11, d0           @2*p1+p0+q1 H
329    vaddw.u8      q6, q12, d30          @(p0+q0+p1) +p2 L
330    vld1.8        {d24, d25}, [r2]      @load p3,Q12
331    vaddw.u8      q2, q13, d31          @(p0+q0+p1) +p2 H
332    vaddl.u8      q4, d30, d24          @p2+p3 L
333    vrshrn.u16    d26, q6, #2           @((p0+q0+p1)+p2 +2)>>2,p1' L
334    vrshrn.u16    d2, q1, #2            @(2*p1+p0+q1+2)>>2,p0"L
335    vrshrn.u16    d27, q2, #2           @((p0+q0+p1)+p2 +2)>>2,p1' H
336    vrshrn.u16    d3, q8, #2            @(2*p1+p0+q1+2)>>2,p0" H
337    vaddl.u8      q8, d31, d25          @p2+p3 H
338    vmla.u16      q6, q4, d1[0]         @(p0+q0+p1)+3*p2+2*p3 L
339    vmla.u16      q2, q8, d1[0]         @(p0+q0+p1)+3*p2+2*p3 H
340    vbic          q8, q10, q9           @((ABS(p0 - q0) >= Alpha  || ABS(q1 - q0) >= Beta || ABS(p1 - p0) >= Beta))
341                                        @&& (Ap < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
342    vbit          q1, q14, q10          @choosing between po' and p0"
343    vrshrn.u16    d12, q6, #3           @((p0+q0+p1)+3*p2+2*p3+4)>>3 L p2'
344    vrshrn.u16    d13, q2, #3           @((p0+q0+p1)+3*p2+2*p3+4)>>3 H p2'
345    vbif          q3, q1, q9            @choosing between p0 and filtered value of p0
346    vbit          q5, q13, q8           @choosing between p1 and p1'
347    vbit          q15, q6, q8           @choosing between p2 and p2'
348    vst1.8        {d6, d7}, [r12]       @store p0
349    vst1.8        {d10, d11}, [r14]     @store p1
350    vst1.8        {d30, d31}, [r3]      @store p2
351    vpop          {d8 - d15}
352    ldmfd         sp!, {r12, pc}
353
354
355
356@**
357@*******************************************************************************
358@*
359@* @brief
360@*     Performs filtering of a luma block vertical edge for cases where the
361@*     boundary strength is less than 4
362@*
363@* @par Description:
364@*    This operation is described in  Sec. 8.7.2.4 under the title
365@*    "Filtering process for edges for bS equal to 4" in ITU T Rec H.264.
366@*
367@* @param[in] r0 - pu1_src
368@*  Pointer to the src sample q0
369@*
370@* @param[in] r1 - src_strd
371@*  Source stride
372@*
373@* @param[in] r2 - alpha
374@*  Alpha Value for the boundary
375@*
376@* @param[in] r3 - beta
377@*  Beta Value for the boundary
378@*
379@* @param[in] sp(0) - u4_bs
380@*  Packed Boundary strength array
381@*
382@* @param[in] sp(4) - pu1_cliptab
383@*  tc0_table
384@*
385@* @returns
386@*  None
387@*
388@* @remarks
389@*  None
390@*
391@*******************************************************************************
392@*
393
394    .global ih264_deblk_luma_vert_bslt4_a9
395
396ih264_deblk_luma_vert_bslt4_a9:
397
398    stmfd         sp!, {r12, lr}
399
400    sub           r0, r0, #4            @pointer uc_edgePixel-4
401    ldr           r12, [sp, #8]         @r12 = ui_Bs
402    ldr           r14, [sp, #12]        @r14 = *puc_ClpTab
403    vpush         {d8 - d15}
404    @loading p3:p2:p1:p0:q0:q1:q2:q3 for every row
405    vld1.8        {d0}, [r0], r1        @row1
406    vld1.8        d2, [r0], r1          @row2
407    vld1.8        d4, [r0], r1          @row3
408    rev           r12, r12              @reversing ui_bs
409    vld1.8        d6, [r0], r1          @row4
410    vmov.32       d18[0], r12           @d12[0] = ui_Bs
411    vld1.32       d16[0], [r14]         @D16[0] contains cliptab
412    vld1.8        d8, [r0], r1          @row5
413    vmovl.u8      q9, d18               @q6 = uc_Bs in each 16 bt scalar
414    vld1.8        d10, [r0], r1         @row6
415    vld1.8        d12, [r0], r1         @row7
416    vtbl.8        d16, {d16}, d18       @puc_ClipTab[uc_Bs]
417    vld1.8        d14, [r0], r1         @row8
418    vld1.8        d1, [r0], r1          @row9
419    vmovl.u16     q8, d16               @
420    vld1.8        d3, [r0], r1          @row10
421    vld1.8        d5, [r0], r1          @row11
422    vld1.8        d7, [r0], r1          @row12
423    vsli.32       q8, q8, #8            @
424    vld1.8        d9, [r0], r1          @row13
425    vld1.8        d11, [r0], r1         @row14
426    vld1.8        d13, [r0], r1         @row15
427    vsli.32       q8, q8, #16           @Q8  = C0
428    vld1.8        d15, [r0], r1         @row16
429
430    @taking two 8x8 transposes
431    @2X2 transposes
432    vtrn.8        d0, d2                @row1 &2
433    vtrn.8        d4, d6                @row3&row4
434    vtrn.8        d8, d10               @row5&6
435    vtrn.8        d12, d14              @row7 & 8
436    vtrn.8        d1, d3                @row9 &10
437    vtrn.8        d5, d7                @row11 & 12
438    vtrn.8        d9, d11               @row13 &14
439    vtrn.8        d13, d15              @row15 & 16
440    @4x4 transposes
441    vtrn.16       d2, d6                @row2 & row4
442    vtrn.16       d10, d14              @row6 & row8
443    vtrn.16       d3, d7                @row10 & 12
444    vtrn.16       d11, d15              @row14 & row16
445    vtrn.32       d6, d14               @row4 & 8
446    vtrn.32       d7, d15               @row 12 & 16
447
448    @now Q3 ->p0 and Q7->q3
449    vtrn.16       d0, d4                @row1 & 3
450    vtrn.16       d8, d12               @row 5 & 7
451    vtrn.16       d1, d5                @row9 & row11
452    vtrn.16       d9, d13               @row13 & row15
453    vtrn.32       d0, d8                @row1 & row5
454    vtrn.32       d1, d9                @row9 & 13
455
456    @now Q0->p3 & Q4->q0
457    @starting processing as p0 and q0 are now ready
458    vtrn.32       d2, d10               @row2 &6
459    vrhadd.u8     q10, q3, q4           @((p0 + q0 + 1) >> 1)
460    vtrn.32       d3, d11               @row10&row14
461    vmov.i8       d19, #2
462    @now Q1->p2     & Q5->q1
463    vtrn.32       d4, d12               @row3 & 7
464    vabd.u8       q11, q3, q4           @ABS(p0 - q0)
465    vtrn.32       d5, d13               @row11 & row15
466    vaddl.u8      q12, d20, d2          @(p2 + ((p0 + q0 + 1) >> 1) L
467    @now            Q2->p1,Q6->q2
468    vaddl.u8      q13, d21, d3          @(p2 + ((p0 + q0 + 1) >> 1) H
469    vmlsl.u8      q12, d4, d19          @(p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1)) L
470    vmlsl.u8      q13, d5, d19          @(p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1)) H
471    vdup.8        q14, r2               @alpha
472    vcle.u8       q11, q14, q11         @ABS(p0 - q0) >= Alpha(Alpha <=ABS(p0 - q0))
473    vdup.i8       q14, r3               @beta
474    vabd.u8       q15, q5, q4           @ABS(q1 - q0)
475    vqshrn.s16    d24, q12, #1          @((p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1)) >> 1) L
476    vqshrn.s16    d25 , q13, #1         @((p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1)) >> 1) H
477    vcge.u8       q15, q15, q14         @ABS(q1 - q0) >= Beta
478    vabd.u8       q13, q2, q3           @ABS(p1 - p0)
479    vmin.s8       q12, q12, q8          @min(deltap1 ,C0)
480    vorr          q11, q11, q15         @ABS(q1 - q0) >= Beta ||ABS(p0 - q0) >= Alpha
481    vneg.s8       q15, q8               @-C0
482    vcge.u8       q13, q13, q14         @ABS(p1 - p0) >= Beta
483    vmax.s8       q12, q12, q15         @max(deltap1,-C0)
484    vorr          q11, q11, q13         @ABS(p0 - q0) >= Alpha  || ABS(q1 - q0) >= Beta ||  ABS(p1 - p0) >= Beta)
485    vmovl.u16     q13, d18              @ui_bs
486    vaddl.u8      q9, d20, d12          @q2 + ((p0 + q0 + 1) >> 1) L
487    vceq.u32      q13, q13, #0          @ui_bs == 0
488    vsubw.u8      q9, q9, d10           @(q2 + ((p0 + q0 + 1) >> 1) - q1) L
489    vaddl.u8      q10, d21, d13         @q2 + ((p0 + q0 + 1) >> 1) H
490    vsubw.u8      q9, q9, d10           @(q2 + ((p0 + q0 + 1) >> 1) - 2*q1)L
491    vsubw.u8      q10, q10, d11         @(q2 + ((p0 + q0 + 1) >> 1) - q1) H
492    vorr          q13, q13, q11         @(ABS(p0 - q0) >= Alpha  || ABS(q1 - q0) >= Beta || ABS(p1 - p0) >= Beta)) &&(ui_bs)
493    vsubw.u8      q10, q10, d11         @(q2 + ((p0 + q0 + 1) >> 1) - 2*q1) H
494    vqshrn.s16    d18, q9, #1           @((q2 + ((p0 + q0 + 1) >> 1) - (q1 << 1)) >> 1) L
495    vabd.u8       q11, q1, q3           @Ap = ABS(p2 - p0)
496    vqshrn.s16    d19, q10, #1          @((q2 + ((p0 + q0 + 1) >> 1) - (q1 << 1)) >> 1) H
497    vabd.u8       q10, q6, q4           @Aq= ABS(q2 - q0)
498    vclt.u8       q11, q11, q14         @Ap < Beta
499    vmin.s8       q9, q9, q8            @min(delatq1,C0)
500    vclt.u8       q10, q10, q14         @Aq <Beta
501    vsubl.u8      q14, d8, d6           @(q0 - p0) L
502    vmax.s8       q9, q9, q15           @max(deltaq1,-C0)
503    vsubl.u8      q15, d9, d7           @(q0 - p0) H
504    vshl.s16      q14, q14, #2          @(q0 - p0)<<2 L
505    vsub.u8       q8, q8, q11           @C0 + (Ap < Beta)
506    vshl.s16      q15, q15, #2          @(q0 - p0) << 2) H
507    vaddw.u8      q14, q14, d4          @((q0 - p0) << 2) + (p1  L
508    vaddw.u8      q15, q15, d5          @((q0 - p0) << 2) + (p1 H
509    vsubw.u8      q14, q14, d10         @((q0 - p0) << 2) + (p1 - q1) L
510    vsubw.u8      q15, q15, d11         @((q0 - p0) << 2) + (p1 - q1) H
511    vbic          q11, q11, q13         @final condition for p1
512    vrshrn.s16    d28, q14, #3          @delta = ((((q0 - p0) << 2) + (p1 - q1) + 4) >> 3); L
513    vrshrn.s16    d29, q15, #3          @delta = ((((q0 - p0) << 2) + (p1 - q1) + 4) >> 3) H
514    vsub.u8       q8, q8, q10           @C0 + (Ap < Beta) + (Aq < Beta)
515    vbic          q10, q10, q13         @final condition for q1
516    vabs.s8       q15, q14              @abs(delta)
517    vand          q12, q12, q11         @delatp1
518    vand          q9, q9, q10           @delta q1
519    vmin.u8       q15, q15, q8          @min((abs(delta),C)
520    vadd.i8       q2, q2, q12           @p1+deltap1
521    vadd.i8       q5, q5, q9            @q1+deltaq1
522    vbic          q15, q15, q13         @abs(delta) of pixels to be changed only
523    vcge.s8       q14, q14, #0          @sign(delta)
524    vqsub.u8      q11, q3, q15          @clip(p0-delta)
525    vtrn.8        d0, d2                @row1 &2
526    vqadd.u8      q3, q3, q15           @clip(p0+delta)
527    vtrn.8        d1, d3                @row9 &10
528    vqadd.u8      q12, q4, q15          @clip(q0+delta)
529    vtrn.8        d12, d14              @row7 & 8
530    vqsub.u8      q4, q4, q15           @clip(q0-delta)
531    vtrn.8        d13, d15              @row15 & 16
532    vbif          q3, q11, q14          @p0
533    vbif          q4, q12, q14          @q0
534    vtrn.8        d4, d6                @row3&row4
535    vtrn.8        d8, d10               @row5&6
536    vtrn.8        d5, d7                @row11 & 12
537    vtrn.8        d9, d11               @row13 &14
538    vtrn.16       d2, d6                @row2 & row4
539    vtrn.16       d10, d14              @row6 & row8
540    vtrn.16       d3, d7                @row10 & 12
541    vtrn.16       d11, d15              @row14 & row16
542    vtrn.32       d6, d14               @row4 & 8
543    vtrn.32       d7, d15               @row 12 & 16
544    @now Q3 ->p0 and Q7->q3
545    vtrn.16       d0, d4                @row1 & 3
546    vtrn.16       d8, d12               @row 5 & 7
547    vtrn.16       d1, d5                @row9 & row11
548    vtrn.16       d9, d13               @row13 & row15
549    sub           r0, r0, r1, lsl#4     @restore pointer
550    vtrn.32       d0, d8                @row1 & row5
551    vtrn.32       d1, d9                @row9 & 13
552    vtrn.32       d2, d10               @row2 &6
553    vtrn.32       d3, d11               @row10&row14
554    vtrn.32       d4, d12               @row3 & 7
555    vtrn.32       d5, d13               @row11 & row15
556    vst1.8        {d0}, [r0], r1        @row1
557    vst1.8        d2, [r0], r1          @row2
558    vst1.8        d4, [r0], r1          @row3
559    vst1.8        d6, [r0], r1          @row4
560    vst1.8        d8, [r0], r1          @row5
561    vst1.8        d10, [r0], r1         @row6
562    vst1.8        d12, [r0], r1         @row7
563    vst1.8        d14, [r0], r1         @row8
564    vst1.8        d1, [r0], r1          @row9
565    vst1.8        d3, [r0], r1          @row10
566    vst1.8        d5, [r0], r1          @row11
567    vst1.8        d7, [r0], r1          @row12
568    vst1.8        d9, [r0], r1          @row13
569    vst1.8        d11, [r0], r1         @row14
570    vst1.8        d13, [r0], r1         @row15
571    vst1.8        d15, [r0], r1         @row16
572    vpop          {d8 - d15}
573    ldmfd         sp!, {r12, pc}
574
575
576
577@**
578@*******************************************************************************
579@*
580@* @brief
581@*     Performs filtering of a luma block vertical edge when the
582@*     boundary strength is set to 4
583@*
584@* @par Description:
585@*    This operation is described in  Sec. 8.7.2.4 under the title
586@*    "Filtering process for edges for bS equal to 4" in ITU T Rec H.264.
587@*
588@* @param[in] r0 - pu1_src
589@*  Pointer to the src sample q0
590@*
591@* @param[in] r1 - src_strd
592@*  Source stride
593@*
594@* @param[in] r2 - alpha
595@*  Alpha Value for the boundary
596@*
597@* @param[in] r3 - beta
598@*  Beta Value for the boundary
599@*
600@* @returns
601@*  None
602@*
603@* @remarks
604@*  None
605@*
606@*******************************************************************************
607@*
608
609    .global ih264_deblk_luma_vert_bs4_a9
610
611ih264_deblk_luma_vert_bs4_a9:
612
613    stmfd         sp!, {r12, lr}
614    vpush         {d8 - d15}
615    sub           r0, r0, #4            @pointer uc_edgePixel-4
616    @loading p3:p2:p1:p0:q0:q1:q2:q3 for every row
617    vld1.8        d0, [r0], r1          @row1
618    vld1.8        d2, [r0], r1          @row2
619    vld1.8        d4, [r0], r1          @row3
620    vld1.8        d6, [r0], r1          @row4
621    vld1.8        d8, [r0], r1          @row5
622    vld1.8        d10, [r0], r1         @row6
623    vld1.8        d12, [r0], r1         @row7
624    vld1.8        d14, [r0], r1         @row8
625    vld1.8        d1, [r0], r1          @row9
626    vld1.8        d3, [r0], r1          @row10
627    vld1.8        d5, [r0], r1          @row11
628    vld1.8        d7, [r0], r1          @row12
629    vld1.8        d9, [r0], r1          @row13
630    vld1.8        d11, [r0], r1         @row14
631    vld1.8        d13, [r0], r1         @row15
632    vld1.8        d15, [r0], r1         @row16
633    @taking two 8x8 transposes
634    @2X2 transposes
635    vtrn.8        d0, d2                @row1 &2
636    vtrn.8        d4, d6                @row3&row4
637    vtrn.8        d8, d10               @row5&6
638    vtrn.8        d12, d14              @row7 & 8
639    vtrn.8        d1, d3                @row9 &10
640    vtrn.8        d5, d7                @row11 & 12
641    vtrn.8        d9, d11               @row13 &14
642    vtrn.8        d13, d15              @row15 & 16
643    @4x4 transposes
644    vtrn.16       d2, d6                @row2 & row4
645    vtrn.16       d10, d14              @row6 & row8
646    vtrn.16       d3, d7                @row10 & 12
647    vtrn.16       d11, d15              @row14 & row16
648    vtrn.32       d6, d14               @row4 & 8
649    vtrn.32       d7, d15               @row 12 & 16
650    @now Q3 ->p0 and Q7->q3
651    vtrn.16       d0, d4                @row1 & 3
652    vtrn.16       d8, d12               @row 5 & 7
653    vtrn.16       d1, d5                @row9 & row11
654    vtrn.16       d9, d13               @row13 & row15
655    vtrn.32       d0, d8                @row1 & row5
656    vtrn.32       d1, d9                @row9 & 13
657    @now Q0->p3 & Q4->q0
658    @starting processing as p0 and q0 are now ready
659    @now Q1->p2 & Q5->q1
660    vpush         {q7}                  @saving in stack
661    vtrn.32       d4, d12               @row3 & 7
662    vmov.i16      q14, #2
663    vtrn.32       d5, d13               @row11 & row15
664    vaddl.u8      q8, d6, d8            @p0+q0 L
665    vtrn.32       d2, d10               @row2 &6
666    vaddl.u8      q9, d7, d9            @p0+q0 H
667    vtrn.32       d3, d11               @row10&row14
668    vaddw.u8      q10, q8, d4           @p0+q0+p1 L
669    vaddw.u8      q11, q9, d5           @p0+q0+p1 H
670    vaddl.u8      q12, d2, d10          @p2+q1 L
671    vaddl.u8      q13, d3, d11          @p2+q1 H
672    vmla.u16      q12, q10, q14         @p2 + X2(p1) + X2(p0) + X2(q0) + q1 L
673    vmla.u16      q13, q11, q14         @p2 + X2(p1) + X2(p0) + X2(q0) + q1 H
674    vmov.i8       q14, #2
675    vaddw.u8      q8, q10, d2           @p0+q0+p1+p2 L
676    vaddw.u8      q9, q11, d3           @p0+q0+p1+p2 H
677    vdup.i8       q15, r2               @duplicate alpha
678    vrshrn.u16    d20, q8, #2           @(p2 + p1 + p0 + q0 + 2) >> 2)L p1'
679    vrshrn.u16    d21, q9, #2           @(p2 + p1 + p0 + q0 + 2) >> 2)H p1'
680    vabd.u8       q11, q3, q4           @ABD(p0-q0)
681    vsra.u8       q14, q15, #2          @alpha >>2 +2
682    vabd.u8       q15, q1, q3           @Ap = ABD(p2-p0)
683    vrshrn.u16    d24, q12, #3          @((p2 + X2(p1) + X2(p0) + X2(q0) + q1 + 4) >> 3) L p0'
684    vrshrn.u16    d25, q13, #3          @((p2 + X2(p1) + X2(p0) + X2(q0) + q1 + 4) >> 3) H p0'
685    vdup.i8       q13, r3               @beta
686    vcgt.u8       q14, q14, q11         @ABS(p0 - q0) <((Alpha >>2) + 2)
687    vaddl.u8      q11, d6, d10          @p0+q1 L
688    vcgt.u8       q7, q13, q15          @beta>Ap
689    vaddl.u8      q15, d7, d11          @p0+q1 H
690    vaddw.u8      q11, q11, d4          @p0+q1+p1 L
691    vaddw.u8      q15, q15, d5          @p0+q1+p1 H
692    vaddw.u8      q11, q11, d4          @p0+q1+2*p1 L
693    vaddw.u8      q15, q15, d5          @p0+q1+2*p1 H
694    vand          q7, q7, q14           @(Ap < Beta && ABS(p0 - q0) <((Alpha >>2) + 2)
695    vrshrn.u16    d22, q11, #2          @((X2(p1) + p0 + q1 + 2) >> 2) L p0"
696    vrshrn.u16    d23, q15, #2          @((X2(p1) + p0 + q1 + 2) >> 2) H p0"
697    vaddl.u8      q15, d2, d0           @p2+p3 L
698    vbif          q12, q11, q7          @p0' or p0 "
699    vaddl.u8      q11, d3, d1           @p2+p3 H
700    vadd.u16      q15, q15, q15         @2*(p2+p3) L
701    vadd.u16      q11, q11, q11         @2*(p2+p3)H
702    vadd.u16      q8, q8, q15           @(X2(p3) + X3(p2) + p1 + p0 + q0) L
703    vadd.u16      q9, q9, q11           @(X2(p3) + X3(p2) + p1 + p0 + q0) H
704    vabd.u8       q15, q6, q4           @Aq = abs(q2-q0)
705    vabd.u8       q11, q5, q4           @ABS(Q1-Q0)
706    vrshrn.u16    d16, q8, #3           @((X2(p3) + X3(p2) + p1 + p0 + q0 + 4) >> 3); L p2'
707    vrshrn.u16    d17, q9, #3           @((X2(p3) + X3(p2) + p1 + p0 + q0 + 4) >> 3); H p2'
708    vabd.u8       q9, q2, q3            @ABS(p1-p0)
709    vcgt.u8       q15, q13, q15         @Aq < Beta
710    vcge.u8       q11, q11, q13         @ABS(q1 - q0) >= Beta
711    vcge.u8       q9, q9, q13           @ABS(p1 - p0) >= beta
712    vdup.i8       q13, r2               @duplicate alpha
713    vand          q15, q15, q14         @(Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
714    vabd.u8       q14, q3, q4           @abs(p0-q0)
715    vorr          q11, q11, q9          @ABS(p1 - p0) >= Beta || ABS(q1 - q0) >= Beta
716    vaddl.u8      q9, d6, d8            @p0+q0 L
717    vcge.u8       q14, q14, q13         @ABS(p0 - q0) >= Alpha
718    vaddl.u8      q13, d7, d9           @p0+q0 H
719    vaddw.u8      q9, q9, d10           @p0+q0+q1 L
720    vorr          q11, q11, q14         @ABS(p1 - p0) >= Beta || ABS(q1 - q0) >= Beta||ABS(p0 - q0) >= Alpha
721    vaddw.u8      q13, q13, d11         @p0+q0+q1 H
722    vbic          q7, q7, q11           @final condn for p's
723    vmov.i8       q14, #2
724    vbif          q3, q12, q11          @final p0
725    vbit          q1, q8, q7            @final p2
726    vbif          q10, q2, q7           @final p1
727    vaddl.u8      q12, d8, d4           @q0+p1 L
728    vmlal.u8      q12, d10, d28         @X2(q1) + q0 + p1 L
729    vaddl.u8      q8, d9, d5            @q0+p1 H
730    vmlal.u8      q8, d11, d28          @X2(q1) + q0 + p1 H
731    vmov.i16      q14, #2
732    vaddl.u8      q7, d4, d12           @p1+q2 L
733    vmla.u16      q7, q9, q14           @p1 + X2(p0) + X2(q0) + X2(q1) + q2L
734    vaddl.u8      q2, d5, d13           @p1+q2H
735    vmla.u16      q2, q13, q14          @p1 + X2(p0) + X2(q0) + X2(q1) + q2H
736    vrshrn.u16    d24, q12, #2          @(X2(q1) + q0 + p1 + 2) >> 2; L q0'
737    vrshrn.u16    d25, q8, #2           @(X2(q1) + q0 + p1 + 2) >> 2; H q0'
738    vaddw.u8      q9, q9, d12           @p0 + q0 + q1 + q2 L
739    vaddw.u8      q13, q13, d13         @p0 + q0 + q1 + q2 H
740    vrshrn.u16    d16, q7, #3           @(p1 + X2(p0) + X2(q0) + X2(q1) + q2 + 4) >> 3 L qo"
741    vpop          {q7}
742    vrshrn.u16    d17, q2, #3           @(p1 + X2(p0) + X2(q0) + X2(q1) + q2 + 4) >> 3 H qo"
743    vrshrn.u16    d4, q9, #2            @p0 + q0 + q1 + q2 + 2)>>2 L q1'
744    vrshrn.u16    d5, q13, #2           @p0 + q0 + q1 + q2 + 2)>>2 H q1'
745    vbit          q12, q8, q15          @q0' or q0"
746    vbic          q15, q15, q11         @final condn for q's
747    vtrn.8        d0, d2                @row1 &2
748    vbit          q5, q2, q15           @final q1
749    vtrn.8        d1, d3                @row9 &10
750    vaddl.u8      q8, d12, d14          @q2+q3 L
751    vtrn.8        d20, d6               @row3&row4
752    vaddl.u8      q2, d13, d15          @q2+q3 H
753    vtrn.8        d21, d7               @row11 & 12
754    vmla.u16      q9, q8, q14           @X2(q3) + X3(q2) + q1 + q0 + p0 L
755    vtrn.16       d2, d6                @row2 & row4
756    vmla.u16      q13, q2, q14          @X2(q3) + X3(q2) + q1 + q0 + p0 H
757    vtrn.16       d3, d7                @row10 & 12
758    vbif          q4, q12, q11          @final q0
759    vtrn.16       d0, d20               @row1 & 3
760    vrshrn.u16    d18, q9, #3           @(X2(q3) + X3(q2) + q1 + q0 + p0 + 4) >> 3; L
761    vtrn.16       d1, d21               @row9 & row11
762    vrshrn.u16    d19, q13, #3          @(X2(q3) + X3(q2) + q1 + q0 + p0 + 4) >> 3; H
763    vtrn.8        d8, d10               @row5&6
764    vbit          q6, q9, q15           @final q2
765    vtrn.8        d9, d11               @row13 &14
766    vtrn.8        d12, d14              @row7 & 8
767    vtrn.8        d13, d15              @row15 & 16
768    vtrn.16       d10, d14              @row6 & row8
769    vtrn.16       d11, d15              @row14 & row16
770    @now Q3 ->p0 and Q7->q3
771    vtrn.16       d8, d12               @row 5 & 7
772    vtrn.16       d9, d13               @row13 & row15
773    sub           r0, r0, r1, lsl#4     @restore pointer
774    vtrn.32       d6, d14               @row4 & 8
775    vtrn.32       d7, d15               @row 12 & 16
776    vtrn.32       d0, d8                @row1 & row5
777    vtrn.32       d1, d9                @row9 & 13
778    vtrn.32       d2, d10               @row2 &6
779    vtrn.32       d3, d11               @row10&row14
780    vtrn.32       d20, d12              @row3 & 7
781    vtrn.32       d21, d13              @row11 & row15
782    vst1.8        d0, [r0], r1          @row1
783    vst1.8        d2, [r0], r1          @row2
784    vst1.8        d20, [r0], r1         @row3
785    vst1.8        d6, [r0], r1          @row4
786    vst1.8        d8, [r0], r1          @row5
787    vst1.8        d10, [r0], r1         @row6
788    vst1.8        d12, [r0], r1         @row7
789    vst1.8        d14, [r0], r1         @row8
790    vst1.8        d1, [r0], r1          @row9
791    vst1.8        d3, [r0], r1          @row10
792    vst1.8        d21, [r0], r1         @row11
793    vst1.8        d7, [r0], r1          @row12
794    vst1.8        d9, [r0], r1          @row13
795    vst1.8        d11, [r0], r1         @row14
796    vst1.8        d13, [r0], r1         @row15
797    vst1.8        d15, [r0], r1         @row16
798    vpop          {d8 - d15}
799    ldmfd         sp!, {r12, pc}
800
801
802
803@**
804@*******************************************************************************
805@*
806@* @brief
807@*     Performs filtering of a luma block vertical edge when the
808@*     boundary strength is set to 4 on calling twice
809@*
810@* @par Description:
811@*    This operation is described in  Sec. 8.7.2.4 under the title
812@*    "Filtering process for edges for bS equal to 4" in ITU T Rec H.264.
813@*
814@* @param[in] r0 - pu1_src
815@*  Pointer to the src sample q0
816@*
817@* @param[in] r1 - src_strd
818@*  Source stride
819@*
820@* @param[in] r2 - alpha
821@*  Alpha Value for the boundary
822@*
823@* @param[in] r3 - beta
824@*  Beta Value for the boundary
825@*
826@* @returns
827@*  None
828@*
829@* @remarks
830@*  None
831@*
832@*******************************************************************************
833@*
834
835    .global ih264_deblk_luma_vert_bs4_mbaff_a9
836
837ih264_deblk_luma_vert_bs4_mbaff_a9:
838
839    stmfd         sp!, {lr}
840
841    sub           r0, r0, #4            @pointer uc_edgePixel-4
842    vpush         {d8 - d15}
843    @loading [p3:p2],[p1:p0]:[q0:q1]:[q2:q3] for every row
844    vld4.16       {d0[0], d2[0], d4[0], d6[0]}, [r0], r1
845    vld4.16       {d0[1], d2[1], d4[1], d6[1]}, [r0], r1
846    vld4.16       {d0[2], d2[2], d4[2], d6[2]}, [r0], r1
847    vld4.16       {d0[3], d2[3], d4[3], d6[3]}, [r0], r1
848    vld4.16       {d1[0], d3[0], d5[0], d7[0]}, [r0], r1
849    vld4.16       {d1[1], d3[1], d5[1], d7[1]}, [r0], r1
850    vld4.16       {d1[2], d3[2], d5[2], d7[2]}, [r0], r1
851    vld4.16       {d1[3], d3[3], d5[3], d7[3]}, [r0], r1
852
853    vuzp.8        d0, d1                @D0->p3, D1->p2
854    vuzp.8        d2, d3                @D2->p1, D3->p0
855    vuzp.8        d4, d5                @D4->q0, D5->q1
856    vuzp.8        d6, d7                @D6->q2, D7->q3
857
858    vmov.i16      q14, #2
859    vaddl.u8      q4, d3, d4            @p0+q0
860    vaddw.u8      q5, q4, d2            @p0+q0+p1
861    vaddl.u8      q6, d1, d5            @p2+q1
862    vmla.u16      q6, q5, q14           @p2 + X2(p1) + X2(p0) + X2(q0) + q1
863
864    vmov.i8       d14, #2
865    vaddw.u8      q4, q5, d1            @p0+q0+p1+p2
866    vdup.i8       d15, r2               @duplicate alpha
867    vrshrn.u16    d10, q4, #2           @(p2 + p1 + p0 + q0 + 2) >> 2) p1'
868    vabd.u8       d11, d3, d4           @ABD(p0-q0)
869    vsra.u8       d14, d15, #2          @alpha >>2 +2
870    vabd.u8       d15, d1, d3           @Ap = ABD(p2-p0)
871    vrshrn.u16    d12, q6, #3           @((p2 + X2(p1) + X2(p0) + X2(q0) + q1 + 4) >> 3) p0'
872    vdup.i8       d13, r3               @beta
873    vcgt.u8       d14, d14, d11         @ABS(p0 - q0) <((Alpha >>2) + 2)
874    vaddl.u8      q8, d3, d5            @p0+q1
875    vcgt.u8       d26, d13, d15         @beta>Ap
876    vaddw.u8      q8, q8, d2            @p0+q1+p1
877    vaddw.u8      q8, q8, d2            @p0+q1+2*p1
878    vand          d26, d26, d14         @(Ap < Beta && ABS(p0 - q0) <((Alpha >>2) + 2)
879    vrshrn.u16    d11, q8, #2           @((X2(p1) + p0 + q1 + 2) >> 2) p0"
880    vbif          d12, d11, d26         @p0' or p0 "
881    vaddl.u8      q9, d1, d0            @p2+p3
882    vadd.u16      q9, q9, q9            @2*(p2+p3)
883    vadd.u16      q4, q4, q9            @(X2(p3) + X3(p2) + p1 + p0 + q0)
884    vabd.u8       d15, d6, d4           @Aq = abs(q2-q0)
885    vabd.u8       d11, d5, d4           @ABS(q1-q0)
886    vrshrn.u16    d8, q4, #3            @((X2(p3) + X3(p2) + p1 + p0 + q0 + 4) >> 3); p2'
887    vabd.u8       d9, d2, d3            @ABS(p1-p0)
888    vcgt.u8       d15, d13, d15         @Aq < Beta
889    vcge.u8       d11, d11, d13         @ABS(q1 - q0) >= Beta
890    vcge.u8       d9, d9, d13           @ABS(p1 - p0) >= beta
891    vdup.i8       d13, r2               @duplicate alpha
892    vand          d15, d15, d14         @(Aq < Beta && ABS(p0 - q0) <((Alpha >>2) + 2))
893    vabd.u8       d14, d3, d4           @abs(p0-q0)
894    vorr          d11, d11, d9          @ABS(p1 - p0) >= Beta || ABS(q1 - q0) >= Beta
895    vcge.u8       d14, d14, d13         @ABS(p0 - q0) >= Alpha
896    vaddl.u8      q10, d3, d4           @p0+q0
897    vorr          d11, d11, d14         @ABS(p1 - p0) >= Beta || ABS(q1 - q0) >= Beta||ABS(p0 - q0) >= Alpha
898    vaddw.u8      q10, q10, d5          @p0+q0+q1
899    vbic          d26, d26, d11         @final condn for p's
900    vmov.i8       d14, #2
901    vbif          d3, d12, d11          @final p0
902    vbit          d1, d8, d26           @final p2
903    vbif          d10, d2, d26          @final p1
904    vaddl.u8      q6, d4, d2            @q0+p1
905    vmlal.u8      q6, d5, d14           @X2(q1) + q0 + p1
906
907    vaddl.u8      q11, d2, d6           @p1+q2
908    vmla.u16      q11, q10, q14         @p1 + X2(p0) + X2(q0) + X2(q1) + q2
909    vrshrn.u16    d12, q6, #2           @(X2(q1) + q0 + p1 + 2) >> 2; q0'
910    vaddw.u8      q10, q10, d6          @p0 + q0 + q1 + q2
911    vrshrn.u16    d8, q11, #3           @(p1 + X2(p0) + X2(q0) + X2(q1) + q2 + 4) >> 3 qo"
912
913    vrshrn.u16    d2, q10, #2           @p0 + q0 + q1 + q2 + 2)>>2 q1'
914    vbit          d12, d8, d15          @q0' or q0"
915    vbic          d15, d15, d11         @final condn for q's
916    vbit          d5, d2, d15           @final q1
917    vaddl.u8      q12, d6, d7           @q2+q3
918    vmla.u16      q10, q12, q14         @X2(q3) + X3(q2) + q1 + q0 + p0
919    vbif          d4, d12, d11          @final q0
920    vrshrn.u16    d9, q10, #3           @(X2(q3) + X3(q2) + q1 + q0 + p0 + 4) >> 3;
921    vbit          d6, d9, d15           @final q2
922    vand          d2, d10, d10          @D0->p3, D1->p2, D2->p1, D3->p0, D4->q0, D5->q1, D6->q2, D7->q3
923
924    vzip.8        d0, d1                @D0,D1 -> [p3:p2]
925    vzip.8        d2, d3                @D2,D3 -> [p1:p0]
926    vzip.8        d4, d5                @D4,D5 -> [q0:q1]
927    vzip.8        d6, d7                @D6,D7 -> [q2:q3]
928
929    sub           r0, r0, r1, lsl#3     @restore pointer
930
931    @storing [p3:p2],[p1:p0]:[q0:q1]:[q2:q3] in every row
932    vst4.16       {d0[0], d2[0], d4[0], d6[0]}, [r0], r1
933    vst4.16       {d0[1], d2[1], d4[1], d6[1]}, [r0], r1
934    vst4.16       {d0[2], d2[2], d4[2], d6[2]}, [r0], r1
935    vst4.16       {d0[3], d2[3], d4[3], d6[3]}, [r0], r1
936    vst4.16       {d1[0], d3[0], d5[0], d7[0]}, [r0], r1
937    vst4.16       {d1[1], d3[1], d5[1], d7[1]}, [r0], r1
938    vst4.16       {d1[2], d3[2], d5[2], d7[2]}, [r0], r1
939    vst4.16       {d1[3], d3[3], d5[3], d7[3]}, [r0], r1
940    vpop          {d8 - d15}
941    ldmfd         sp!, {pc}
942
943
944
945@**
946@*******************************************************************************
947@*
948@* @brief
949@*     Performs filtering of a luma block vertical edge for cases where the
950@*     boundary strength is less than 4 on calling twice
951@*
952@* @par Description:
953@*    This operation is described in  Sec. 8.7.2.4 under the title
954@*    "Filtering process for edges for bS equal to 4" in ITU T Rec H.264.
955@*
956@* @param[in] r0 - pu1_src
957@*  Pointer to the src sample q0
958@*
959@* @param[in] r1 - src_strd
960@*  Source stride
961@*
962@* @param[in] r2 - alpha
963@*  Alpha Value for the boundary
964@*
965@* @param[in] r3 - beta
966@*  Beta Value for the boundary
967@*
968@* @param[in] sp(0) - u4_bs
969@*  Packed Boundary strength array
970@*
971@* @param[in] sp(4) - pu1_cliptab
972@*  tc0_table
973@*
974@* @returns
975@*  None
976@*
977@* @remarks
978@*  None
979@*
980@*******************************************************************************
981@*
982
983    .global ih264_deblk_luma_vert_bslt4_mbaff_a9
984
985ih264_deblk_luma_vert_bslt4_mbaff_a9:
986
987    stmfd         sp!, {r12, lr}
988
989    sub           r0, r0, #4            @pointer uc_edgePixel-4
990    ldr           r12, [sp, #8]         @r12 = ui_Bs
991    ldr           r14, [sp, #12]        @r14 = pu1_ClipTab
992    vpush         {d8 - d15}
993    @loading [p3:p2],[p1:p0]:[q0:q1]:[q2:q3] for every row
994    vld4.16       {d0[0], d2[0], d4[0], d6[0]}, [r0], r1
995    vld4.16       {d0[1], d2[1], d4[1], d6[1]}, [r0], r1
996    vld4.16       {d0[2], d2[2], d4[2], d6[2]}, [r0], r1
997    vld4.16       {d0[3], d2[3], d4[3], d6[3]}, [r0], r1
998    vld4.16       {d1[0], d3[0], d5[0], d7[0]}, [r0], r1
999    vld4.16       {d1[1], d3[1], d5[1], d7[1]}, [r0], r1
1000    vld4.16       {d1[2], d3[2], d5[2], d7[2]}, [r0], r1
1001    vld4.16       {d1[3], d3[3], d5[3], d7[3]}, [r0], r1
1002
1003    vuzp.8        d0, d1                @D0->p3, D1->p2
1004    vuzp.8        d2, d3                @D2->p1, D3->p0
1005    vuzp.8        d4, d5                @D4->q0, D5->q1
1006    vuzp.8        d6, d7                @D6->q2, D7->q3
1007
1008    rev           r12, r12              @reversing ui_bs
1009    vmov.32       d8[0], r12            @D8[0] = ui_Bs
1010    vld1.32       d9[0], [r14]          @D9[0] contains cliptab
1011    vmovl.u8      q15, d8               @D30 = ui_Bs in each 16 bt scalar
1012    vtbl.8        d8, {d9}, d30         @puc_ClipTab[ui_Bs]
1013    vsli.16       d8, d8, #8            @D8 = C0
1014
1015    vrhadd.u8     d10, d3, d4           @((p0 + q0 + 1) >> 1)
1016    vmov.i8       d31, #2
1017    vabd.u8       d11, d3, d4           @ABS(p0 - q0)
1018    vaddl.u8      q6, d10, d1           @(p2 + ((p0 + q0 + 1) >> 1)
1019    vmlsl.u8      q6, d2, d31           @(p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1))
1020    vdup.8        d14, r2               @alpha
1021    vcle.u8       d11, d14, d11         @ABS(p0 - q0) >= Alpha(Alpha <=ABS(p0 - q0))
1022    vdup.i8       d14, r3               @beta
1023    vabd.u8       d15, d5, d4           @ABS(q1 - q0)
1024    vqshrn.s16    d12, q6, #1           @((p2 + ((p0 + q0 + 1) >> 1) - (p1 << 1)) >> 1)
1025    vcge.u8       d15, d15, d14         @ABS(q1 - q0) >= Beta
1026    vabd.u8       d13, d2, d3           @ABS(p1 - p0)
1027    vmin.s8       d12, d12, d8          @min(deltap1 ,C0)
1028    vorr          d11, d11, d15         @ABS(q1 - q0) >= Beta ||ABS(p0 - q0) >= Alpha
1029    vneg.s8       d15, d8               @-C0
1030    vcge.u8       d13, d13, d14         @ABS(p1 - p0) >= Beta
1031    vmax.s8       d12, d12, d15         @max(deltap1,-C0)
1032    vorr          d11, d11, d13         @ABS(p0 - q0) >= Alpha  || ABS(q1 - q0) >= Beta ||  ABS(p1 - p0) >= Beta)
1033    vceq.u16      d13, d30, #0          @ui_bs == 0
1034    vaddl.u8      q14, d10, d6          @q2 + ((p0 + q0 + 1) >> 1)
1035    vsubw.u8      q14, q14, d5          @q2 + ((p0 + q0 + 1) >> 1) - q1
1036    vsubw.u8      q14, q14, d5          @q2 + ((p0 + q0 + 1) >> 1) - 2*q1
1037    vorr          d13, d13, d11         @(ABS(p0 - q0) >= Alpha  || ABS(q1 - q0) >= Beta || ABS(p1 - p0) >= Beta))
1038                                        @|| (ui_bs == 0)
1039    vqshrn.s16    d9, q14, #1           @(q2 + ((p0 + q0 + 1) >> 1) - (q1 << 1)) >> 1
1040    vabd.u8       d11, d1, d3           @Ap = ABS(p2 - p0)
1041    vabd.u8       d10, d6, d4           @Aq= ABS(q2 - q0)
1042    vclt.u8       d11, d11, d14         @Ap < Beta
1043    vmin.s8       d9, d9, d8            @min(deltaq1,C0)
1044    vclt.u8       d10, d10, d14         @Aq < Beta
1045    vmax.s8       d9, d9, d15           @max(deltaq1,-C0)
1046    vsubl.u8      q7, d4, d3            @q0 - p0
1047    vshl.s16      q7, q7, #2            @(q0 - p0) << 2
1048    vsub.u8       d8, d8, d11           @C0 + (Ap < Beta)
1049    vaddw.u8      q7, q7, d2            @((q0 - p0) << 2) + p1
1050    vsubw.u8      q7, q7, d5            @((q0 - p0) << 2) + (p1 - q1)
1051    vbic          d11, d11, d13         @final condition for p1
1052    vrshr.s16     q15, q7, #3           @delta = (((q0 - p0) << 2) + (p1 - q1) + 4) >> 3
1053    vsub.u8       d8, d8, d10           @C0 + (Ap < Beta) + (Aq < Beta)
1054    vbic          d10, d10, d13         @final condition for q1
1055    vabs.s16      q14, q15
1056    vmovn.i16     d15, q14              @abs(delta)
1057    vand          d12, d12, d11         @delatp1
1058    vand          d9, d9, d10           @deltaq1
1059    vmin.u8       d15, d15, d8          @min((abs(delta),C)
1060    vadd.i8       d2, d2, d12           @p1+deltap1
1061    vadd.i8       d5, d5, d9            @q1+deltaq1
1062    vbic          d15, d15, d13         @abs(delta) of pixels to be changed only
1063    vcge.s16      q14, q15, #0
1064    vmovn.i16     d14, q14              @sign(delta)
1065    vqsub.u8      d11, d3, d15          @clip(p0-delta)
1066    vqadd.u8      d3, d3, d15           @clip(p0+delta)
1067    vqadd.u8      d12, d4, d15          @clip(q0+delta)
1068    vqsub.u8      d4, d4, d15           @clip(q0-delta)
1069    vbif          d3, d11, d14          @p0
1070    vbif          d4, d12, d14          @q0
1071
1072    sub           r0, r0, r1, lsl#3     @restore pointer
1073                                        @D0->p3, D1->p2, D2->p1, D3->p0, D4->q0, D5->q1, D6->q2, D7->q3
1074    vzip.8        d0, d1                @D0,D1 -> [p3:p2]
1075    vzip.8        d2, d3                @D2,D3 -> [p1:p0]
1076    vzip.8        d4, d5                @D4,D5 -> [q0:q1]
1077    vzip.8        d6, d7                @D6,D7 -> [q2:q3]
1078
1079    @storing [p3:p2],[p1:p0]:[q0:q1]:[q2:q3] in every row
1080    vst4.16       {d0[0], d2[0], d4[0], d6[0]}, [r0], r1
1081    vst4.16       {d0[1], d2[1], d4[1], d6[1]}, [r0], r1
1082    vst4.16       {d0[2], d2[2], d4[2], d6[2]}, [r0], r1
1083    vst4.16       {d0[3], d2[3], d4[3], d6[3]}, [r0], r1
1084    vst4.16       {d1[0], d3[0], d5[0], d7[0]}, [r0], r1
1085    vst4.16       {d1[1], d3[1], d5[1], d7[1]}, [r0], r1
1086    vst4.16       {d1[2], d3[2], d5[2], d7[2]}, [r0], r1
1087    vst4.16       {d1[3], d3[3], d5[3], d7[3]}, [r0], r1
1088    vpop          {d8 - d15}
1089    ldmfd         sp!, {r12, pc}
1090
1091
1092
1093