]> git.proxmox.com Git - mirror_edk2.git/commitdiff
Fix CRLF format
authorTian, Hot <hot.tian@intel.com>
Wed, 22 Jan 2014 08:39:09 +0000 (08:39 +0000)
committerhhtian <hhtian@6f19259b-4bc3-4df7-8a09-765794883524>
Wed, 22 Jan 2014 08:39:09 +0000 (08:39 +0000)
Signed-off-by: Tian, Hot <hot.tian@intel.com>
git-svn-id: https://svn.code.sf.net/p/edk2/code/trunk/edk2@15156 6f19259b-4bc3-4df7-8a09-765794883524

MdePkg/Library/BaseLib/Arm/Math64.S

index f56998660805d6a26744883c5fd0d327216ed5ca..4d975739207a598cf27dd83c5e2ff5d645772b4e 100755 (executable)
-#------------------------------------------------------------------------------ 
-#
-# Replacement for Math64.c that is coded to use older GCC intrinsics. 
-# Doing this reduces the number of intrinsics that are required when
-# you port to a new version of gcc. 
-#
-# Need to split this into multple files to size optimize the image.
-#
-# Copyright (c) 2009 - 2010, Apple Inc. All rights reserved.<BR>
-# This program and the accompanying materials
-# are licensed and made available under the terms and conditions of the BSD License
-# which accompanies this distribution.  The full text of the license may be found at
-# http://opensource.org/licenses/bsd-license.php.
-#
-# THE PROGRAM IS DISTRIBUTED UNDER THE BSD LICENSE ON AN "AS IS" BASIS,
-# WITHOUT WARRANTIES OR REPRESENTATIONS OF ANY KIND, EITHER EXPRESS OR IMPLIED.
-#
-#------------------------------------------------------------------------------
-
-       .text
-       .align 2
-       GCC_ASM_EXPORT(InternalMathLShiftU64)
-
-ASM_PFX(InternalMathLShiftU64):
-       stmfd   sp!, {r4, r5, r6}
-       mov     r6, r1
-       rsb     ip, r2, #32
-       mov     r4, r6, asl r2
-       subs    r1, r2, #32
-       orr     r4, r4, r0, lsr ip
-       mov     r3, r0, asl r2
-       movpl   r4, r0, asl r1
-       mov     r5, r0
-       mov     r0, r3
-       mov     r1, r4
-       ldmfd   sp!, {r4, r5, r6}
-       bx      lr
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathRShiftU64)
-
-ASM_PFX(InternalMathRShiftU64):
-       stmfd   sp!, {r4, r5, r6}
-       mov     r5, r0
-       rsb     ip, r2, #32
-       mov     r3, r5, lsr r2
-       subs    r0, r2, #32
-       orr     r3, r3, r1, asl ip
-       mov     r4, r1, lsr r2
-       movpl   r3, r1, lsr r0
-       mov     r6, r1
-       mov     r0, r3
-       mov     r1, r4
-       ldmfd   sp!, {r4, r5, r6}
-       bx      lr
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathARShiftU64)
-
-ASM_PFX(InternalMathARShiftU64):
-       stmfd   sp!, {r4, r5, r6}
-       mov     r5, r0
-       rsb     ip, r2, #32
-       mov     r3, r5, lsr r2
-       subs    r0, r2, #32
-       orr     r3, r3, r1, asl ip
-       mov     r4, r1, asr r2
-       movpl   r3, r1, asr r0
-       mov     r6, r1
-       mov     r0, r3
-       mov     r1, r4
-       ldmfd   sp!, {r4, r5, r6}
-       bx      lr
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathLRotU64)
-
-ASM_PFX(InternalMathLRotU64):
-       stmfd   sp!, {r4, r5, r6, r7, lr}
-       add     r7, sp, #12
-       mov     r6, r1
-       rsb     ip, r2, #32
-       mov     r4, r6, asl r2
-       rsb     lr, r2, #64
-       subs    r1, r2, #32
-       orr     r4, r4, r0, lsr ip
-       mov     r3, r0, asl r2
-       movpl   r4, r0, asl r1
-       sub     ip, r2, #32
-       mov     r5, r0
-       mov     r0, r0, lsr lr
-       rsbs    r2, r2, #32
-       orr     r0, r0, r6, asl ip
-       mov     r1, r6, lsr lr
-       movpl   r0, r6, lsr r2
-       orr     r1, r1, r4
-       orr     r0, r0, r3
-       ldmfd   sp!, {r4, r5, r6, r7, pc}
-
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathRRotU64)
-
-ASM_PFX(InternalMathRRotU64):
-       stmfd   sp!, {r4, r5, r6, r7, lr}
-       add     r7, sp, #12
-       mov     r5, r0
-       rsb     ip, r2, #32
-       mov     r3, r5, lsr r2
-       rsb     lr, r2, #64
-       subs    r0, r2, #32
-       orr     r3, r3, r1, asl ip
-       mov     r4, r1, lsr r2
-       movpl   r3, r1, lsr r0
-       sub     ip, r2, #32
-       mov     r6, r1
-       mov     r1, r1, asl lr
-       rsbs    r2, r2, #32
-       orr     r1, r1, r5, lsr ip
-       mov     r0, r5, asl lr
-       movpl   r1, r5, asl r2
-       orr     r0, r0, r3
-       orr     r1, r1, r4
-       ldmfd   sp!, {r4, r5, r6, r7, pc}
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathMultU64x32)
-
-ASM_PFX(InternalMathMultU64x32):
-       stmfd   sp!, {r7, lr}
-       add     r7, sp, #0
-       mov     r3, #0
-       mov     ip, r0
-       mov     lr, r1
-       umull   r0, r1, ip, r2
-       mla     r1, lr, r2, r1
-       mla     r1, ip, r3, r1
-       ldmfd   sp!, {r7, pc}
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathMultU64x64)
-
-ASM_PFX(InternalMathMultU64x64):
-       stmfd   sp!, {r7, lr}
-       add     r7, sp, #0
-       mov     ip, r0
-       mov     lr, r1
-       umull   r0, r1, ip, r2
-       mla     r1, lr, r2, r1
-       mla     r1, ip, r3, r1
-       ldmfd   sp!, {r7, pc}
-
-       .align 2
-       GCC_ASM_EXPORT(InternalMathDivU64x32)
-
-ASM_PFX(InternalMathDivU64x32):
-       stmfd   sp!, {r7, lr}
-       add     r7, sp, #0
-       mov     r3, #0
-       bl      ASM_PFX(__udivdi3)
-       ldmfd   sp!, {r7, pc}
-       
-       
-       .align 2
-       GCC_ASM_EXPORT(InternalMathModU64x32)
-
-ASM_PFX(InternalMathModU64x32):
-       stmfd   sp!, {r7, lr}
-       add     r7, sp, #0
-       mov     r3, #0
-       bl      ASM_PFX(__umoddi3)
-       ldmfd   sp!, {r7, pc}
-       
-       
-       .align 2
-       GCC_ASM_EXPORT(InternalMathDivRemU64x32)
-
-ASM_PFX(InternalMathDivRemU64x32):
-       stmfd   sp!, {r4, r5, r6, r7, lr}
-       add     r7, sp, #12
-       stmfd   sp!, {r10, r11}
-       subs    r6, r3, #0
-       mov     r10, r0
-       mov     r11, r1
-       moveq   r4, r2
-       moveq   r5, #0
-       beq     L22
-       mov     r4, r2
-       mov     r5, #0
-       mov     r3, #0
-       bl      ASM_PFX(__umoddi3)
-       str     r0, [r6, #0]
-L22:
-       mov     r0, r10
-       mov     r1, r11
-       mov     r2, r4
-       mov     r3, r5
-       bl      ASM_PFX(__udivdi3)
-       ldmfd   sp!, {r10, r11}
-       ldmfd   sp!, {r4, r5, r6, r7, pc}
-       
-       
-       .align 2
-       GCC_ASM_EXPORT(InternalMathDivRemU64x64)
-
-ASM_PFX(InternalMathDivRemU64x64):
-       stmfd   sp!, {r4, r5, r6, r7, lr}
-       add     r7, sp, #12
-       stmfd   sp!, {r10, r11}
-       ldr     r6, [sp, #28]
-       mov     r4, r0
-       cmp     r6, #0
-       mov     r5, r1
-       mov     r10, r2
-       mov     r11, r3
-       beq     L26
-       bl      ASM_PFX(__umoddi3)
-       stmia   r6, {r0-r1}
-L26:
-       mov     r0, r4
-       mov     r1, r5
-       mov     r2, r10
-       mov     r3, r11
-       bl      ASM_PFX(__udivdi3)
-       ldmfd   sp!, {r10, r11}
-       ldmfd   sp!, {r4, r5, r6, r7, pc}
-       
-       
-       .align 2
-       GCC_ASM_EXPORT(InternalMathDivRemS64x64)
-
-ASM_PFX(InternalMathDivRemS64x64):
-       stmfd   sp!, {r4, r5, r6, r7, lr}
-       add     r7, sp, #12
-       stmfd   sp!, {r10, r11}
-       ldr     r6, [sp, #28]
-       mov     r4, r0
-       cmp     r6, #0
-       mov     r5, r1
-       mov     r10, r2
-       mov     r11, r3
-       beq     L30
-       bl      ASM_PFX(__moddi3)
-       stmia   r6, {r0-r1}
-L30:
-       mov     r0, r4
-       mov     r1, r5
-       mov     r2, r10
-       mov     r3, r11
-       bl      ASM_PFX(__divdi3)
-       ldmfd   sp!, {r10, r11}
-       ldmfd   sp!, {r4, r5, r6, r7, pc}
-       
-       
-       .align 2
-       GCC_ASM_EXPORT(InternalMathSwapBytes64)
-
-ASM_PFX(InternalMathSwapBytes64):
-       @ args = 0, pretend = 0, frame = 0
-       @ frame_needed = 1, uses_anonymous_args = 0
-       stmfd   sp!, {r4, r5, r6, r7, lr}
-       add     r7, sp, #12
-       mov     r5, r1
-       bl      ASM_PFX(SwapBytes32)
-       mov     r6, r0
-       mov     r0, r5
-       bl      ASM_PFX(SwapBytes32)
-       mov     r4, r6
-       mov     r5, r4, asr #31
-       mov     r2, #0
-       mov     r1, r0, asr #31
-       orr     r0, r0, r2
-       orr     r1, r1, r4
-       ldmfd   sp!, {r4, r5, r6, r7, pc}
-
-
+#------------------------------------------------------------------------------ \r
+#\r
+# Replacement for Math64.c that is coded to use older GCC intrinsics. \r
+# Doing this reduces the number of intrinsics that are required when\r
+# you port to a new version of gcc. \r
+#\r
+# Need to split this into multple files to size optimize the image.\r
+#\r
+# Copyright (c) 2009 - 2010, Apple Inc. All rights reserved.<BR>\r
+# This program and the accompanying materials\r
+# are licensed and made available under the terms and conditions of the BSD License\r
+# which accompanies this distribution.  The full text of the license may be found at\r
+# http://opensource.org/licenses/bsd-license.php.\r
+#\r
+# THE PROGRAM IS DISTRIBUTED UNDER THE BSD LICENSE ON AN "AS IS" BASIS,\r
+# WITHOUT WARRANTIES OR REPRESENTATIONS OF ANY KIND, EITHER EXPRESS OR IMPLIED.\r
+#\r
+#------------------------------------------------------------------------------\r
+\r
+       .text\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathLShiftU64)\r
+\r
+ASM_PFX(InternalMathLShiftU64):\r
+       stmfd   sp!, {r4, r5, r6}\r
+       mov     r6, r1\r
+       rsb     ip, r2, #32\r
+       mov     r4, r6, asl r2\r
+       subs    r1, r2, #32\r
+       orr     r4, r4, r0, lsr ip\r
+       mov     r3, r0, asl r2\r
+       movpl   r4, r0, asl r1\r
+       mov     r5, r0\r
+       mov     r0, r3\r
+       mov     r1, r4\r
+       ldmfd   sp!, {r4, r5, r6}\r
+       bx      lr\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathRShiftU64)\r
+\r
+ASM_PFX(InternalMathRShiftU64):\r
+       stmfd   sp!, {r4, r5, r6}\r
+       mov     r5, r0\r
+       rsb     ip, r2, #32\r
+       mov     r3, r5, lsr r2\r
+       subs    r0, r2, #32\r
+       orr     r3, r3, r1, asl ip\r
+       mov     r4, r1, lsr r2\r
+       movpl   r3, r1, lsr r0\r
+       mov     r6, r1\r
+       mov     r0, r3\r
+       mov     r1, r4\r
+       ldmfd   sp!, {r4, r5, r6}\r
+       bx      lr\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathARShiftU64)\r
+\r
+ASM_PFX(InternalMathARShiftU64):\r
+       stmfd   sp!, {r4, r5, r6}\r
+       mov     r5, r0\r
+       rsb     ip, r2, #32\r
+       mov     r3, r5, lsr r2\r
+       subs    r0, r2, #32\r
+       orr     r3, r3, r1, asl ip\r
+       mov     r4, r1, asr r2\r
+       movpl   r3, r1, asr r0\r
+       mov     r6, r1\r
+       mov     r0, r3\r
+       mov     r1, r4\r
+       ldmfd   sp!, {r4, r5, r6}\r
+       bx      lr\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathLRotU64)\r
+\r
+ASM_PFX(InternalMathLRotU64):\r
+       stmfd   sp!, {r4, r5, r6, r7, lr}\r
+       add     r7, sp, #12\r
+       mov     r6, r1\r
+       rsb     ip, r2, #32\r
+       mov     r4, r6, asl r2\r
+       rsb     lr, r2, #64\r
+       subs    r1, r2, #32\r
+       orr     r4, r4, r0, lsr ip\r
+       mov     r3, r0, asl r2\r
+       movpl   r4, r0, asl r1\r
+       sub     ip, r2, #32\r
+       mov     r5, r0\r
+       mov     r0, r0, lsr lr\r
+       rsbs    r2, r2, #32\r
+       orr     r0, r0, r6, asl ip\r
+       mov     r1, r6, lsr lr\r
+       movpl   r0, r6, lsr r2\r
+       orr     r1, r1, r4\r
+       orr     r0, r0, r3\r
+       ldmfd   sp!, {r4, r5, r6, r7, pc}\r
+\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathRRotU64)\r
+\r
+ASM_PFX(InternalMathRRotU64):\r
+       stmfd   sp!, {r4, r5, r6, r7, lr}\r
+       add     r7, sp, #12\r
+       mov     r5, r0\r
+       rsb     ip, r2, #32\r
+       mov     r3, r5, lsr r2\r
+       rsb     lr, r2, #64\r
+       subs    r0, r2, #32\r
+       orr     r3, r3, r1, asl ip\r
+       mov     r4, r1, lsr r2\r
+       movpl   r3, r1, lsr r0\r
+       sub     ip, r2, #32\r
+       mov     r6, r1\r
+       mov     r1, r1, asl lr\r
+       rsbs    r2, r2, #32\r
+       orr     r1, r1, r5, lsr ip\r
+       mov     r0, r5, asl lr\r
+       movpl   r1, r5, asl r2\r
+       orr     r0, r0, r3\r
+       orr     r1, r1, r4\r
+       ldmfd   sp!, {r4, r5, r6, r7, pc}\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathMultU64x32)\r
+\r
+ASM_PFX(InternalMathMultU64x32):\r
+       stmfd   sp!, {r7, lr}\r
+       add     r7, sp, #0\r
+       mov     r3, #0\r
+       mov     ip, r0\r
+       mov     lr, r1\r
+       umull   r0, r1, ip, r2\r
+       mla     r1, lr, r2, r1\r
+       mla     r1, ip, r3, r1\r
+       ldmfd   sp!, {r7, pc}\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathMultU64x64)\r
+\r
+ASM_PFX(InternalMathMultU64x64):\r
+       stmfd   sp!, {r7, lr}\r
+       add     r7, sp, #0\r
+       mov     ip, r0\r
+       mov     lr, r1\r
+       umull   r0, r1, ip, r2\r
+       mla     r1, lr, r2, r1\r
+       mla     r1, ip, r3, r1\r
+       ldmfd   sp!, {r7, pc}\r
+\r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathDivU64x32)\r
+\r
+ASM_PFX(InternalMathDivU64x32):\r
+       stmfd   sp!, {r7, lr}\r
+       add     r7, sp, #0\r
+       mov     r3, #0\r
+       bl      ASM_PFX(__udivdi3)\r
+       ldmfd   sp!, {r7, pc}\r
+       \r
+       \r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathModU64x32)\r
+\r
+ASM_PFX(InternalMathModU64x32):\r
+       stmfd   sp!, {r7, lr}\r
+       add     r7, sp, #0\r
+       mov     r3, #0\r
+       bl      ASM_PFX(__umoddi3)\r
+       ldmfd   sp!, {r7, pc}\r
+       \r
+       \r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathDivRemU64x32)\r
+\r
+ASM_PFX(InternalMathDivRemU64x32):\r
+       stmfd   sp!, {r4, r5, r6, r7, lr}\r
+       add     r7, sp, #12\r
+       stmfd   sp!, {r10, r11}\r
+       subs    r6, r3, #0\r
+       mov     r10, r0\r
+       mov     r11, r1\r
+       moveq   r4, r2\r
+       moveq   r5, #0\r
+       beq     L22\r
+       mov     r4, r2\r
+       mov     r5, #0\r
+       mov     r3, #0\r
+       bl      ASM_PFX(__umoddi3)\r
+       str     r0, [r6, #0]\r
+L22:\r
+       mov     r0, r10\r
+       mov     r1, r11\r
+       mov     r2, r4\r
+       mov     r3, r5\r
+       bl      ASM_PFX(__udivdi3)\r
+       ldmfd   sp!, {r10, r11}\r
+       ldmfd   sp!, {r4, r5, r6, r7, pc}\r
+       \r
+       \r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathDivRemU64x64)\r
+\r
+ASM_PFX(InternalMathDivRemU64x64):\r
+       stmfd   sp!, {r4, r5, r6, r7, lr}\r
+       add     r7, sp, #12\r
+       stmfd   sp!, {r10, r11}\r
+       ldr     r6, [sp, #28]\r
+       mov     r4, r0\r
+       cmp     r6, #0\r
+       mov     r5, r1\r
+       mov     r10, r2\r
+       mov     r11, r3\r
+       beq     L26\r
+       bl      ASM_PFX(__umoddi3)\r
+       stmia   r6, {r0-r1}\r
+L26:\r
+       mov     r0, r4\r
+       mov     r1, r5\r
+       mov     r2, r10\r
+       mov     r3, r11\r
+       bl      ASM_PFX(__udivdi3)\r
+       ldmfd   sp!, {r10, r11}\r
+       ldmfd   sp!, {r4, r5, r6, r7, pc}\r
+       \r
+       \r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathDivRemS64x64)\r
+\r
+ASM_PFX(InternalMathDivRemS64x64):\r
+       stmfd   sp!, {r4, r5, r6, r7, lr}\r
+       add     r7, sp, #12\r
+       stmfd   sp!, {r10, r11}\r
+       ldr     r6, [sp, #28]\r
+       mov     r4, r0\r
+       cmp     r6, #0\r
+       mov     r5, r1\r
+       mov     r10, r2\r
+       mov     r11, r3\r
+       beq     L30\r
+       bl      ASM_PFX(__moddi3)\r
+       stmia   r6, {r0-r1}\r
+L30:\r
+       mov     r0, r4\r
+       mov     r1, r5\r
+       mov     r2, r10\r
+       mov     r3, r11\r
+       bl      ASM_PFX(__divdi3)\r
+       ldmfd   sp!, {r10, r11}\r
+       ldmfd   sp!, {r4, r5, r6, r7, pc}\r
+       \r
+       \r
+       .align 2\r
+       GCC_ASM_EXPORT(InternalMathSwapBytes64)\r
+\r
+ASM_PFX(InternalMathSwapBytes64):\r
+       @ args = 0, pretend = 0, frame = 0\r
+       @ frame_needed = 1, uses_anonymous_args = 0\r
+       stmfd   sp!, {r4, r5, r6, r7, lr}\r
+       add     r7, sp, #12\r
+       mov     r5, r1\r
+       bl      ASM_PFX(SwapBytes32)\r
+       mov     r6, r0\r
+       mov     r0, r5\r
+       bl      ASM_PFX(SwapBytes32)\r
+       mov     r4, r6\r
+       mov     r5, r4, asr #31\r
+       mov     r2, #0\r
+       mov     r1, r0, asr #31\r
+       orr     r0, r0, r2\r
+       orr     r1, r1, r4\r
+       ldmfd   sp!, {r4, r5, r6, r7, pc}\r
+\r
+\r
 ASM_FUNCTION_REMOVE_IF_UNREFERENCED
\ No newline at end of file