Linux-libre 5.3.12-gnu
[librecmc/linux-libre.git] / arch / arm64 / Makefile
1 #
2 # arch/arm64/Makefile
3 #
4 # This file is included by the global makefile so that you can add your own
5 # architecture-specific flags and dependencies.
6 #
7 # This file is subject to the terms and conditions of the GNU General Public
8 # License.  See the file "COPYING" in the main directory of this archive
9 # for more details.
10 #
11 # Copyright (C) 1995-2001 by Russell King
12
13 LDFLAGS_vmlinux :=--no-undefined -X
14 CPPFLAGS_vmlinux.lds = -DTEXT_OFFSET=$(TEXT_OFFSET)
15 GZFLAGS         :=-9
16
17 ifeq ($(CONFIG_RELOCATABLE), y)
18 # Pass --no-apply-dynamic-relocs to restore pre-binutils-2.27 behaviour
19 # for relative relocs, since this leads to better Image compression
20 # with the relocation offsets always being zero.
21 LDFLAGS_vmlinux         += -shared -Bsymbolic -z notext -z norelro \
22                         $(call ld-option, --no-apply-dynamic-relocs)
23 endif
24
25 ifeq ($(CONFIG_ARM64_ERRATUM_843419),y)
26   ifeq ($(call ld-option, --fix-cortex-a53-843419),)
27 $(warning ld does not support --fix-cortex-a53-843419; kernel may be susceptible to erratum)
28   else
29 LDFLAGS_vmlinux += --fix-cortex-a53-843419
30   endif
31 endif
32
33 # Check for binutils support for specific extensions
34 lseinstr := $(call as-instr,.arch_extension lse,-DCONFIG_AS_LSE=1)
35
36 ifeq ($(CONFIG_ARM64_LSE_ATOMICS), y)
37   ifeq ($(lseinstr),)
38 $(warning LSE atomics not supported by binutils)
39   endif
40 endif
41
42 ifeq ($(CONFIG_ARM64), y)
43 brokengasinst := $(call as-instr,1:\n.inst 0\n.rept . - 1b\n\nnop\n.endr\n,,-DCONFIG_BROKEN_GAS_INST=1)
44
45   ifneq ($(brokengasinst),)
46 $(warning Detected assembler with broken .inst; disassembly will be unreliable)
47   endif
48 endif
49
50 ifeq ($(CONFIG_CC_IS_CLANG), y)
51 COMPATCC ?= $(CC) --target=$(notdir $(CROSS_COMPILE_COMPAT:%-=%))
52 else
53 COMPATCC ?= $(CROSS_COMPILE_COMPAT)gcc
54 endif
55 export COMPATCC
56
57 ifeq ($(CONFIG_GENERIC_COMPAT_VDSO), y)
58   export CONFIG_COMPAT_VDSO := y
59   compat_vdso := -DCONFIG_COMPAT_VDSO=1
60 endif
61
62 KBUILD_CFLAGS   += -mgeneral-regs-only $(lseinstr) $(brokengasinst) $(compat_vdso)
63 KBUILD_CFLAGS   += -fno-asynchronous-unwind-tables
64 KBUILD_CFLAGS   += $(call cc-disable-warning, psabi)
65 KBUILD_AFLAGS   += $(lseinstr) $(brokengasinst) $(compat_vdso)
66
67 KBUILD_CFLAGS   += $(call cc-option,-mabi=lp64)
68 KBUILD_AFLAGS   += $(call cc-option,-mabi=lp64)
69
70 ifeq ($(CONFIG_STACKPROTECTOR_PER_TASK),y)
71 prepare: stack_protector_prepare
72 stack_protector_prepare: prepare0
73         $(eval KBUILD_CFLAGS += -mstack-protector-guard=sysreg            \
74                                 -mstack-protector-guard-reg=sp_el0        \
75                                 -mstack-protector-guard-offset=$(shell    \
76                         awk '{if ($$2 == "TSK_STACK_CANARY") print $$3;}' \
77                                         include/generated/asm-offsets.h))
78 endif
79
80 ifeq ($(CONFIG_CPU_BIG_ENDIAN), y)
81 KBUILD_CPPFLAGS += -mbig-endian
82 CHECKFLAGS      += -D__AARCH64EB__
83 AS              += -EB
84 # Prefer the baremetal ELF build target, but not all toolchains include
85 # it so fall back to the standard linux version if needed.
86 KBUILD_LDFLAGS  += -EB $(call ld-option, -maarch64elfb, -maarch64linuxb)
87 UTS_MACHINE     := aarch64_be
88 else
89 KBUILD_CPPFLAGS += -mlittle-endian
90 CHECKFLAGS      += -D__AARCH64EL__
91 AS              += -EL
92 # Same as above, prefer ELF but fall back to linux target if needed.
93 KBUILD_LDFLAGS  += -EL $(call ld-option, -maarch64elf, -maarch64linux)
94 UTS_MACHINE     := aarch64
95 endif
96
97 CHECKFLAGS      += -D__aarch64__
98
99 ifeq ($(CONFIG_ARM64_MODULE_PLTS),y)
100 KBUILD_LDFLAGS_MODULE   += -T $(srctree)/arch/arm64/kernel/module.lds
101 endif
102
103 # Default value
104 head-y          := arch/arm64/kernel/head.o
105
106 # The byte offset of the kernel image in RAM from the start of RAM.
107 ifeq ($(CONFIG_ARM64_RANDOMIZE_TEXT_OFFSET), y)
108 TEXT_OFFSET := $(shell awk "BEGIN {srand(); printf \"0x%06x\n\", \
109                  int(2 * 1024 * 1024 / (2 ^ $(CONFIG_ARM64_PAGE_SHIFT)) * \
110                  rand()) * (2 ^ $(CONFIG_ARM64_PAGE_SHIFT))}")
111 else
112 TEXT_OFFSET := 0x00080000
113 endif
114
115 ifeq ($(CONFIG_KASAN_SW_TAGS), y)
116 KASAN_SHADOW_SCALE_SHIFT := 4
117 else
118 KASAN_SHADOW_SCALE_SHIFT := 3
119 endif
120
121 KBUILD_CFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
122 KBUILD_CPPFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
123 KBUILD_AFLAGS += -DKASAN_SHADOW_SCALE_SHIFT=$(KASAN_SHADOW_SCALE_SHIFT)
124
125 # KASAN_SHADOW_OFFSET = VA_START + (1 << (VA_BITS - KASAN_SHADOW_SCALE_SHIFT))
126 #                                - (1 << (64 - KASAN_SHADOW_SCALE_SHIFT))
127 # in 32-bit arithmetic
128 KASAN_SHADOW_OFFSET := $(shell printf "0x%08x00000000\n" $$(( \
129         (0xffffffff & (-1 << ($(CONFIG_ARM64_VA_BITS) - 32))) \
130         + (1 << ($(CONFIG_ARM64_VA_BITS) - 32 - $(KASAN_SHADOW_SCALE_SHIFT))) \
131         - (1 << (64 - 32 - $(KASAN_SHADOW_SCALE_SHIFT))) )) )
132
133 export  TEXT_OFFSET GZFLAGS
134
135 core-y          += arch/arm64/kernel/ arch/arm64/mm/
136 core-$(CONFIG_NET) += arch/arm64/net/
137 core-$(CONFIG_KVM) += arch/arm64/kvm/
138 core-$(CONFIG_XEN) += arch/arm64/xen/
139 core-$(CONFIG_CRYPTO) += arch/arm64/crypto/
140 libs-y          := arch/arm64/lib/ $(libs-y)
141 core-$(CONFIG_EFI_STUB) += $(objtree)/drivers/firmware/efi/libstub/lib.a
142
143 # Default target when executing plain make
144 boot            := arch/arm64/boot
145 KBUILD_IMAGE    := $(boot)/Image.gz
146
147 all:    Image.gz
148
149
150 Image: vmlinux
151         $(Q)$(MAKE) $(build)=$(boot) $(boot)/$@
152
153 Image.%: Image
154         $(Q)$(MAKE) $(build)=$(boot) $(boot)/$@
155
156 zinstall install:
157         $(Q)$(MAKE) $(build)=$(boot) $@
158
159 PHONY += vdso_install
160 vdso_install:
161         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso $@
162
163 # We use MRPROPER_FILES and CLEAN_FILES now
164 archclean:
165         $(Q)$(MAKE) $(clean)=$(boot)
166
167 ifeq ($(KBUILD_EXTMOD),)
168 # We need to generate vdso-offsets.h before compiling certain files in kernel/.
169 # In order to do that, we should use the archprepare target, but we can't since
170 # asm-offsets.h is included in some files used to generate vdso-offsets.h, and
171 # asm-offsets.h is built in prepare0, for which archprepare is a dependency.
172 # Therefore we need to generate the header after prepare0 has been made, hence
173 # this hack.
174 prepare: vdso_prepare
175 vdso_prepare: prepare0
176         $(Q)$(MAKE) $(build)=arch/arm64/kernel/vdso include/generated/vdso-offsets.h
177         $(if $(CONFIG_COMPAT_VDSO),$(Q)$(MAKE) \
178                 $(build)=arch/arm64/kernel/vdso32  \
179                 include/generated/vdso32-offsets.h)
180 endif
181
182 define archhelp
183   echo  '* Image.gz      - Compressed kernel image (arch/$(ARCH)/boot/Image.gz)'
184   echo  '  Image         - Uncompressed kernel image (arch/$(ARCH)/boot/Image)'
185   echo  '  install       - Install uncompressed kernel'
186   echo  '  zinstall      - Install compressed kernel'
187   echo  '                  Install using (your) ~/bin/installkernel or'
188   echo  '                  (distribution) /sbin/installkernel or'
189   echo  '                  install to $$(INSTALL_PATH) and run lilo'
190 endef