Thu, 15 Jan 2015 15:59:08 +0100
Implement a real Private Browsing Mode condition by changing the API/ABI;
This solves Tor bug #9701, complying with disk avoidance documented in
https://www.torproject.org/projects/torbrowser/design/#disk-avoidance.
1 ;
2 ; Copyright (c) 2010 The WebM project authors. All Rights Reserved.
3 ;
4 ; Use of this source code is governed by a BSD-style license
5 ; that can be found in the LICENSE file in the root of the source
6 ; tree. An additional intellectual property rights grant can be found
7 ; in the file PATENTS. All contributing project authors may
8 ; be found in the AUTHORS file in the root of the source tree.
9 ;
12 EXPORT |vp8_sixtap_predict8x8_neon|
13 ARM
14 REQUIRE8
15 PRESERVE8
17 AREA ||.text||, CODE, READONLY, ALIGN=2
19 filter8_coeff
20 DCD 0, 0, 128, 0, 0, 0, 0, 0
21 DCD 0, -6, 123, 12, -1, 0, 0, 0
22 DCD 2, -11, 108, 36, -8, 1, 0, 0
23 DCD 0, -9, 93, 50, -6, 0, 0, 0
24 DCD 3, -16, 77, 77, -16, 3, 0, 0
25 DCD 0, -6, 50, 93, -9, 0, 0, 0
26 DCD 1, -8, 36, 108, -11, 2, 0, 0
27 DCD 0, -1, 12, 123, -6, 0, 0, 0
29 ; r0 unsigned char *src_ptr,
30 ; r1 int src_pixels_per_line,
31 ; r2 int xoffset,
32 ; r3 int yoffset,
33 ; stack(r4) unsigned char *dst_ptr,
34 ; stack(r5) int dst_pitch
36 |vp8_sixtap_predict8x8_neon| PROC
37 push {r4-r5, lr}
39 adr r12, filter8_coeff
41 ldr r4, [sp, #12] ;load parameters from stack
42 ldr r5, [sp, #16] ;load parameters from stack
44 cmp r2, #0 ;skip first_pass filter if xoffset=0
45 beq secondpass_filter8x8_only
47 add r2, r12, r2, lsl #5 ;calculate filter location
49 cmp r3, #0 ;skip second_pass filter if yoffset=0
51 vld1.s32 {q14, q15}, [r2] ;load first_pass filter
53 beq firstpass_filter8x8_only
55 sub sp, sp, #64 ;reserve space on stack for temporary storage
56 mov lr, sp
58 vabs.s32 q12, q14
59 vabs.s32 q13, q15
61 mov r2, #2 ;loop counter
62 sub r0, r0, #2 ;move srcptr back to (line-2) and (column-2)
63 sub r0, r0, r1, lsl #1
65 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
66 vdup.8 d1, d24[4]
67 vdup.8 d2, d25[0]
69 ;First pass: output_height lines x output_width columns (13x8)
70 vld1.u8 {q3}, [r0], r1 ;load src data
71 vdup.8 d3, d25[4]
72 vld1.u8 {q4}, [r0], r1
73 vdup.8 d4, d26[0]
74 vld1.u8 {q5}, [r0], r1
75 vdup.8 d5, d26[4]
76 vld1.u8 {q6}, [r0], r1
78 filt_blk2d_fp8x8_loop_neon
79 pld [r0]
80 pld [r0, r1]
81 pld [r0, r1, lsl #1]
83 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
84 vmull.u8 q8, d8, d0
85 vmull.u8 q9, d10, d0
86 vmull.u8 q10, d12, d0
88 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
89 vext.8 d29, d8, d9, #1
90 vext.8 d30, d10, d11, #1
91 vext.8 d31, d12, d13, #1
93 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
94 vmlsl.u8 q8, d29, d1
95 vmlsl.u8 q9, d30, d1
96 vmlsl.u8 q10, d31, d1
98 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
99 vext.8 d29, d8, d9, #4
100 vext.8 d30, d10, d11, #4
101 vext.8 d31, d12, d13, #4
103 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
104 vmlsl.u8 q8, d29, d4
105 vmlsl.u8 q9, d30, d4
106 vmlsl.u8 q10, d31, d4
108 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
109 vext.8 d29, d8, d9, #2
110 vext.8 d30, d10, d11, #2
111 vext.8 d31, d12, d13, #2
113 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
114 vmlal.u8 q8, d29, d2
115 vmlal.u8 q9, d30, d2
116 vmlal.u8 q10, d31, d2
118 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
119 vext.8 d29, d8, d9, #5
120 vext.8 d30, d10, d11, #5
121 vext.8 d31, d12, d13, #5
123 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
124 vmlal.u8 q8, d29, d5
125 vmlal.u8 q9, d30, d5
126 vmlal.u8 q10, d31, d5
128 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
129 vext.8 d29, d8, d9, #3
130 vext.8 d30, d10, d11, #3
131 vext.8 d31, d12, d13, #3
133 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3])
134 vmull.u8 q4, d29, d3
135 vmull.u8 q5, d30, d3
136 vmull.u8 q6, d31, d3
138 subs r2, r2, #1
140 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
141 vqadd.s16 q8, q4
142 vqadd.s16 q9, q5
143 vqadd.s16 q10, q6
145 vld1.u8 {q3}, [r0], r1 ;load src data
147 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
148 vqrshrun.s16 d23, q8, #7
149 vqrshrun.s16 d24, q9, #7
150 vqrshrun.s16 d25, q10, #7
152 vst1.u8 {d22}, [lr]! ;store result
153 vld1.u8 {q4}, [r0], r1
154 vst1.u8 {d23}, [lr]!
155 vld1.u8 {q5}, [r0], r1
156 vst1.u8 {d24}, [lr]!
157 vld1.u8 {q6}, [r0], r1
158 vst1.u8 {d25}, [lr]!
160 bne filt_blk2d_fp8x8_loop_neon
162 ;first_pass filtering on the rest 5-line data
163 ;vld1.u8 {q3}, [r0], r1 ;load src data
164 ;vld1.u8 {q4}, [r0], r1
165 ;vld1.u8 {q5}, [r0], r1
166 ;vld1.u8 {q6}, [r0], r1
167 vld1.u8 {q7}, [r0], r1
169 vmull.u8 q8, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
170 vmull.u8 q9, d8, d0
171 vmull.u8 q10, d10, d0
172 vmull.u8 q11, d12, d0
173 vmull.u8 q12, d14, d0
175 vext.8 d27, d6, d7, #1 ;construct src_ptr[-1]
176 vext.8 d28, d8, d9, #1
177 vext.8 d29, d10, d11, #1
178 vext.8 d30, d12, d13, #1
179 vext.8 d31, d14, d15, #1
181 vmlsl.u8 q8, d27, d1 ;-(src_ptr[-1] * vp8_filter[1])
182 vmlsl.u8 q9, d28, d1
183 vmlsl.u8 q10, d29, d1
184 vmlsl.u8 q11, d30, d1
185 vmlsl.u8 q12, d31, d1
187 vext.8 d27, d6, d7, #4 ;construct src_ptr[2]
188 vext.8 d28, d8, d9, #4
189 vext.8 d29, d10, d11, #4
190 vext.8 d30, d12, d13, #4
191 vext.8 d31, d14, d15, #4
193 vmlsl.u8 q8, d27, d4 ;-(src_ptr[2] * vp8_filter[4])
194 vmlsl.u8 q9, d28, d4
195 vmlsl.u8 q10, d29, d4
196 vmlsl.u8 q11, d30, d4
197 vmlsl.u8 q12, d31, d4
199 vext.8 d27, d6, d7, #2 ;construct src_ptr[0]
200 vext.8 d28, d8, d9, #2
201 vext.8 d29, d10, d11, #2
202 vext.8 d30, d12, d13, #2
203 vext.8 d31, d14, d15, #2
205 vmlal.u8 q8, d27, d2 ;(src_ptr[0] * vp8_filter[2])
206 vmlal.u8 q9, d28, d2
207 vmlal.u8 q10, d29, d2
208 vmlal.u8 q11, d30, d2
209 vmlal.u8 q12, d31, d2
211 vext.8 d27, d6, d7, #5 ;construct src_ptr[3]
212 vext.8 d28, d8, d9, #5
213 vext.8 d29, d10, d11, #5
214 vext.8 d30, d12, d13, #5
215 vext.8 d31, d14, d15, #5
217 vmlal.u8 q8, d27, d5 ;(src_ptr[3] * vp8_filter[5])
218 vmlal.u8 q9, d28, d5
219 vmlal.u8 q10, d29, d5
220 vmlal.u8 q11, d30, d5
221 vmlal.u8 q12, d31, d5
223 vext.8 d27, d6, d7, #3 ;construct src_ptr[1]
224 vext.8 d28, d8, d9, #3
225 vext.8 d29, d10, d11, #3
226 vext.8 d30, d12, d13, #3
227 vext.8 d31, d14, d15, #3
229 vmull.u8 q3, d27, d3 ;(src_ptr[1] * vp8_filter[3])
230 vmull.u8 q4, d28, d3
231 vmull.u8 q5, d29, d3
232 vmull.u8 q6, d30, d3
233 vmull.u8 q7, d31, d3
235 vqadd.s16 q8, q3 ;sum of all (src_data*filter_parameters)
236 vqadd.s16 q9, q4
237 vqadd.s16 q10, q5
238 vqadd.s16 q11, q6
239 vqadd.s16 q12, q7
241 add r3, r12, r3, lsl #5
243 vqrshrun.s16 d26, q8, #7 ;shift/round/saturate to u8
244 sub lr, lr, #64
245 vqrshrun.s16 d27, q9, #7
246 vld1.u8 {q9}, [lr]! ;load intermediate data from stack
247 vqrshrun.s16 d28, q10, #7
248 vld1.u8 {q10}, [lr]!
250 vld1.s32 {q5, q6}, [r3] ;load second_pass filter
252 vqrshrun.s16 d29, q11, #7
253 vld1.u8 {q11}, [lr]!
255 vabs.s32 q7, q5
256 vabs.s32 q8, q6
258 vqrshrun.s16 d30, q12, #7
259 vld1.u8 {q12}, [lr]!
261 ;Second pass: 8x8
262 mov r3, #2 ;loop counter
264 vdup.8 d0, d14[0] ;second_pass filter parameters (d0-d5)
265 vdup.8 d1, d14[4]
266 vdup.8 d2, d15[0]
267 vdup.8 d3, d15[4]
268 vdup.8 d4, d16[0]
269 vdup.8 d5, d16[4]
271 filt_blk2d_sp8x8_loop_neon
272 vmull.u8 q3, d18, d0 ;(src_ptr[-2] * vp8_filter[0])
273 vmull.u8 q4, d19, d0
274 vmull.u8 q5, d20, d0
275 vmull.u8 q6, d21, d0
277 vmlsl.u8 q3, d19, d1 ;-(src_ptr[-1] * vp8_filter[1])
278 vmlsl.u8 q4, d20, d1
279 vmlsl.u8 q5, d21, d1
280 vmlsl.u8 q6, d22, d1
282 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
283 vmlsl.u8 q4, d23, d4
284 vmlsl.u8 q5, d24, d4
285 vmlsl.u8 q6, d25, d4
287 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2])
288 vmlal.u8 q4, d21, d2
289 vmlal.u8 q5, d22, d2
290 vmlal.u8 q6, d23, d2
292 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
293 vmlal.u8 q4, d24, d5
294 vmlal.u8 q5, d25, d5
295 vmlal.u8 q6, d26, d5
297 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3])
298 vmull.u8 q8, d22, d3
299 vmull.u8 q9, d23, d3
300 vmull.u8 q10, d24, d3
302 subs r3, r3, #1
304 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
305 vqadd.s16 q8, q4
306 vqadd.s16 q9, q5
307 vqadd.s16 q10, q6
309 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8
310 vqrshrun.s16 d7, q8, #7
311 vqrshrun.s16 d8, q9, #7
312 vqrshrun.s16 d9, q10, #7
314 vmov q9, q11
315 vst1.u8 {d6}, [r4], r5 ;store result
316 vmov q10, q12
317 vst1.u8 {d7}, [r4], r5
318 vmov q11, q13
319 vst1.u8 {d8}, [r4], r5
320 vmov q12, q14
321 vst1.u8 {d9}, [r4], r5
322 vmov d26, d30
324 bne filt_blk2d_sp8x8_loop_neon
326 add sp, sp, #64
327 pop {r4-r5,pc}
329 ;---------------------
330 firstpass_filter8x8_only
331 ;add r2, r12, r2, lsl #5 ;calculate filter location
332 ;vld1.s32 {q14, q15}, [r2] ;load first_pass filter
333 vabs.s32 q12, q14
334 vabs.s32 q13, q15
336 mov r2, #2 ;loop counter
337 sub r0, r0, #2 ;move srcptr back to (line-2) and (column-2)
339 vdup.8 d0, d24[0] ;first_pass filter (d0-d5)
340 vdup.8 d1, d24[4]
341 vdup.8 d2, d25[0]
342 vdup.8 d3, d25[4]
343 vdup.8 d4, d26[0]
344 vdup.8 d5, d26[4]
346 ;First pass: output_height lines x output_width columns (8x8)
347 filt_blk2d_fpo8x8_loop_neon
348 vld1.u8 {q3}, [r0], r1 ;load src data
349 vld1.u8 {q4}, [r0], r1
350 vld1.u8 {q5}, [r0], r1
351 vld1.u8 {q6}, [r0], r1
353 pld [r0]
354 pld [r0, r1]
355 pld [r0, r1, lsl #1]
357 vmull.u8 q7, d6, d0 ;(src_ptr[-2] * vp8_filter[0])
358 vmull.u8 q8, d8, d0
359 vmull.u8 q9, d10, d0
360 vmull.u8 q10, d12, d0
362 vext.8 d28, d6, d7, #1 ;construct src_ptr[-1]
363 vext.8 d29, d8, d9, #1
364 vext.8 d30, d10, d11, #1
365 vext.8 d31, d12, d13, #1
367 vmlsl.u8 q7, d28, d1 ;-(src_ptr[-1] * vp8_filter[1])
368 vmlsl.u8 q8, d29, d1
369 vmlsl.u8 q9, d30, d1
370 vmlsl.u8 q10, d31, d1
372 vext.8 d28, d6, d7, #4 ;construct src_ptr[2]
373 vext.8 d29, d8, d9, #4
374 vext.8 d30, d10, d11, #4
375 vext.8 d31, d12, d13, #4
377 vmlsl.u8 q7, d28, d4 ;-(src_ptr[2] * vp8_filter[4])
378 vmlsl.u8 q8, d29, d4
379 vmlsl.u8 q9, d30, d4
380 vmlsl.u8 q10, d31, d4
382 vext.8 d28, d6, d7, #2 ;construct src_ptr[0]
383 vext.8 d29, d8, d9, #2
384 vext.8 d30, d10, d11, #2
385 vext.8 d31, d12, d13, #2
387 vmlal.u8 q7, d28, d2 ;(src_ptr[0] * vp8_filter[2])
388 vmlal.u8 q8, d29, d2
389 vmlal.u8 q9, d30, d2
390 vmlal.u8 q10, d31, d2
392 vext.8 d28, d6, d7, #5 ;construct src_ptr[3]
393 vext.8 d29, d8, d9, #5
394 vext.8 d30, d10, d11, #5
395 vext.8 d31, d12, d13, #5
397 vmlal.u8 q7, d28, d5 ;(src_ptr[3] * vp8_filter[5])
398 vmlal.u8 q8, d29, d5
399 vmlal.u8 q9, d30, d5
400 vmlal.u8 q10, d31, d5
402 vext.8 d28, d6, d7, #3 ;construct src_ptr[1]
403 vext.8 d29, d8, d9, #3
404 vext.8 d30, d10, d11, #3
405 vext.8 d31, d12, d13, #3
407 vmull.u8 q3, d28, d3 ;(src_ptr[1] * vp8_filter[3])
408 vmull.u8 q4, d29, d3
409 vmull.u8 q5, d30, d3
410 vmull.u8 q6, d31, d3
411 ;
412 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
413 vqadd.s16 q8, q4
414 vqadd.s16 q9, q5
415 vqadd.s16 q10, q6
417 subs r2, r2, #1
419 vqrshrun.s16 d22, q7, #7 ;shift/round/saturate to u8
420 vqrshrun.s16 d23, q8, #7
421 vqrshrun.s16 d24, q9, #7
422 vqrshrun.s16 d25, q10, #7
424 vst1.u8 {d22}, [r4], r5 ;store result
425 vst1.u8 {d23}, [r4], r5
426 vst1.u8 {d24}, [r4], r5
427 vst1.u8 {d25}, [r4], r5
429 bne filt_blk2d_fpo8x8_loop_neon
431 pop {r4-r5,pc}
433 ;---------------------
434 secondpass_filter8x8_only
435 sub r0, r0, r1, lsl #1
436 add r3, r12, r3, lsl #5
438 vld1.u8 {d18}, [r0], r1 ;load src data
439 vld1.s32 {q5, q6}, [r3] ;load second_pass filter
440 vld1.u8 {d19}, [r0], r1
441 vabs.s32 q7, q5
442 vld1.u8 {d20}, [r0], r1
443 vabs.s32 q8, q6
444 vld1.u8 {d21}, [r0], r1
445 mov r3, #2 ;loop counter
446 vld1.u8 {d22}, [r0], r1
447 vdup.8 d0, d14[0] ;second_pass filter parameters (d0-d5)
448 vld1.u8 {d23}, [r0], r1
449 vdup.8 d1, d14[4]
450 vld1.u8 {d24}, [r0], r1
451 vdup.8 d2, d15[0]
452 vld1.u8 {d25}, [r0], r1
453 vdup.8 d3, d15[4]
454 vld1.u8 {d26}, [r0], r1
455 vdup.8 d4, d16[0]
456 vld1.u8 {d27}, [r0], r1
457 vdup.8 d5, d16[4]
458 vld1.u8 {d28}, [r0], r1
459 vld1.u8 {d29}, [r0], r1
460 vld1.u8 {d30}, [r0], r1
462 ;Second pass: 8x8
463 filt_blk2d_spo8x8_loop_neon
464 vmull.u8 q3, d18, d0 ;(src_ptr[-2] * vp8_filter[0])
465 vmull.u8 q4, d19, d0
466 vmull.u8 q5, d20, d0
467 vmull.u8 q6, d21, d0
469 vmlsl.u8 q3, d19, d1 ;-(src_ptr[-1] * vp8_filter[1])
470 vmlsl.u8 q4, d20, d1
471 vmlsl.u8 q5, d21, d1
472 vmlsl.u8 q6, d22, d1
474 vmlsl.u8 q3, d22, d4 ;-(src_ptr[2] * vp8_filter[4])
475 vmlsl.u8 q4, d23, d4
476 vmlsl.u8 q5, d24, d4
477 vmlsl.u8 q6, d25, d4
479 vmlal.u8 q3, d20, d2 ;(src_ptr[0] * vp8_filter[2])
480 vmlal.u8 q4, d21, d2
481 vmlal.u8 q5, d22, d2
482 vmlal.u8 q6, d23, d2
484 vmlal.u8 q3, d23, d5 ;(src_ptr[3] * vp8_filter[5])
485 vmlal.u8 q4, d24, d5
486 vmlal.u8 q5, d25, d5
487 vmlal.u8 q6, d26, d5
489 vmull.u8 q7, d21, d3 ;(src_ptr[1] * vp8_filter[3])
490 vmull.u8 q8, d22, d3
491 vmull.u8 q9, d23, d3
492 vmull.u8 q10, d24, d3
494 subs r3, r3, #1
496 vqadd.s16 q7, q3 ;sum of all (src_data*filter_parameters)
497 vqadd.s16 q8, q4
498 vqadd.s16 q9, q5
499 vqadd.s16 q10, q6
501 vqrshrun.s16 d6, q7, #7 ;shift/round/saturate to u8
502 vqrshrun.s16 d7, q8, #7
503 vqrshrun.s16 d8, q9, #7
504 vqrshrun.s16 d9, q10, #7
506 vmov q9, q11
507 vst1.u8 {d6}, [r4], r5 ;store result
508 vmov q10, q12
509 vst1.u8 {d7}, [r4], r5
510 vmov q11, q13
511 vst1.u8 {d8}, [r4], r5
512 vmov q12, q14
513 vst1.u8 {d9}, [r4], r5
514 vmov d26, d30
516 bne filt_blk2d_spo8x8_loop_neon
518 pop {r4-r5,pc}
520 ENDP
522 ;-----------------
524 END