Pulled in newer 3.18 patches
authornynex <nynex>
Tue, 5 May 2015 13:56:09 +0000 (13:56 +0000)
committernynex <nynex>
Tue, 5 May 2015 13:56:09 +0000 (13:56 +0000)
222 files changed:
trunk/target/linux/generic/patches-3.18/000-keep_initrafs_the_default.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/020-ssb_update.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/030-nl80211-Allow-set-network-namespace-by-fd.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/050-backport_netfilter_rtcache.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/060-mips_decompressor_memmove.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/070-bgmac-register-napi-before-the-device.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/071-bgmac-activate-irqs-only-if-there-is-nothing-to-poll.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/072-bgmac-fix-device-initialization-on-Northstar-SoCs-co.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/073-bgmac-Clean-warning-messages.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/074-bgmac-register-fixed-PHY-for-ARM-BCM470X-BCM5301X-ch.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/075-bgmac-allow-enabling-on-ARCH_BCM_5301X.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/076-net-phy-export-fixed_phy_register.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-01-bgmac-fix-descriptor-frame-start-end-definitions.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-02-bgmac-implement-GRO-and-use-build_skb.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-03-bgmac-implement-scatter-gather-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-04-bgmac-simplify-tx-ring-index-handling.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-05-bgmac-leave-interrupts-disabled-as-long-as-there-is-.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-06-bgmac-set-received-skb-headroom-to-NET_SKB_PAD.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-07-bgmac-simplify-rx-DMA-error-handling.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-08-bgmac-add-check-for-oversized-packets.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-09-bgmac-increase-rx-ring-size-from-511-to-512.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-10-bgmac-simplify-dma-init-cleanup.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-11-bgmac-fix-DMA-rx-corruption.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-12-bgmac-drop-ring-num_slots.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-13-bgmac-fix-MAC-soft-reset-bit-for-corerev-4.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/077-14-bgmac-reset-all-4-GMAC-cores-on-init.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-00-fib_trie-Fix-proc-net-fib_trie-when-CONFIG_IP_MULTIP.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-01-fib_trie-Fix-trie-balancing-issue-if-new-node-pushes.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-02-fib_trie-Update-usage-stats-to-be-percpu-instead-of-.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-03-fib_trie-Make-leaf-and-tnode-more-uniform.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-04-fib_trie-Merge-tnode_free-and-leaf_free-into-node_fr.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-05-fib_trie-Merge-leaf-into-tnode.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-06-fib_trie-Optimize-fib_table_lookup-to-avoid-wasting-.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-07-fib_trie-Optimize-fib_find_node.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-08-fib_trie-Optimize-fib_table_insert.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-09-fib_trie-Update-meaning-of-pos-to-represent-unchecke.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-10-fib_trie-Use-unsigned-long-for-anything-dealing-with.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-11-fib_trie-Push-rcu_read_lock-unlock-to-callers.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-12-fib_trie-Move-resize-to-after-inflate-halve.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-13-fib_trie-Add-functions-should_inflate-and-should_hal.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-14-fib_trie-Push-assignment-of-child-to-parent-down-int.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-15-fib_trie-Push-tnode-flushing-down-to-inflate-halve.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-16-fib_trie-inflate-halve-nodes-in-a-more-RCU-friendly-.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-17-fib_trie-Remove-checks-for-index-tnode_child_length-.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-18-fib_trie-Add-tracking-value-for-suffix-length.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-20-fib_trie-Fix-RCU-bug-and-merge-similar-bits-of-infla.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-21-fib_trie-Fall-back-to-slen-update-on-inflate-halve-f.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-22-fib_trie-Add-collapse-and-should_collapse-to-resize.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-23-fib_trie-Use-empty_children-instead-of-counting-empt.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-24-fib_trie-Move-fib_find_alias-to-file-where-it-is-use.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/080-25-fib_trie-Various-clean-ups-for-handling-slen.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/102-ehci_hcd_ignore_oc.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/110-jffs2-use-.rename2-and-add-RENAME_WHITEOUT-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/120-bridge_allow_receiption_on_disabled_port.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/132-mips_inline_dma_ops.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/200-fix_localversion.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/201-extra_optimization.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/202-reduce_module_size.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/203-kallsyms_uncompressed.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/204-module_strip.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/210-darwin_scripts_include.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/212-byteshift_portability.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/213-x86_vdso_portability.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/214-spidev_h_portability.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/220-gc_sections.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/221-module_exports.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/230-openwrt_lzma_options.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/250-netfilter_depends.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/251-sound_kconfig.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/252-mv_cesa_depends.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/253-ssb_b43_default_on.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/254-textsearch_kconfig_hacks.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/255-lib80211_kconfig_hacks.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/256-crypto_add_kconfig_prompts.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/257-wireless_ext_kconfig_hack.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/258-netfilter_netlink_kconfig_hack.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/259-regmap_dynamic.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/260-crypto_test_dependencies.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/262-compressor_kconfig_hack.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/270-bridge_header_fix.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/300-mips_expose_boot_raw.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/301-mips_image_cmdline_hack.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/302-mips_no_branch_likely.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/304-mips_disable_fpu.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/305-mips_module_reloc.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/306-mips_mem_functions_performance.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/309-mips_fuse_workaround.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/310-arm_module_unresolved_weak_sym.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/320-ppc4xx_optimization.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/321-powerpc_crtsavres_prereq.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/330-MIPS-kexec-Accept-command-line-parameters-from-users.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/400-mtd-add-rootfs-split-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/401-mtd-add-support-for-different-partition-parser-types.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/402-mtd-use-typed-mtd-parsers-for-rootfs-and-firmware-split.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/403-mtd-hook-mtdsplit-to-Kbuild.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/404-mtd-add-more-helper-functions.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/405-mtd-old-firmware-uimage-splitter.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/406-mtd-old-rootfs-squashfs-splitter.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/410-mtd-move-forward-declaration-of-struct-mtd_info.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/411-mtd-partial_eraseblock_write.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/412-mtd-partial_eraseblock_unlock.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/420-mtd-redboot_space.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/430-mtd-add-myloader-partition-parser.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/440-block2mtd_init.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/441-block2mtd_probe.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/450-mtd-nand-allow-to-use-platform-specific-chip-fixup.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/451-mtd-nand-fix-return-code-of-nand_correct_data-function.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/460-mtd-cfi_cmdset_0002-no-erase_suspend.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/461-mtd-cfi_cmdset_0002-add-buffer-write-cmd-timeout.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/472-mtd-m25p80-add-support-for-Winbond-W25X05-flash.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/473-mtd-spi-nor-add-support-for-the-Macronix-MX25L512E-S.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/474-mtd-spi-nor-add-support-for-the-ISSI-SI25CD512-SPI-f.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/480-mtd-set-rootfs-to-be-root-dev.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/490-ubi-auto-attach-mtd-device-named-ubi-or-data-on-boot.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/491-ubi-auto-create-ubiblock-device-for-rootfs.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/492-try-auto-mounting-ubi0-rootfs-in-init-do_mounts.c.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/493-ubi-set-ROOT_DEV-to-ubiblock-rootfs-if-unset.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/494-mtd-ubi-add-EOF-marker-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/500-yaffs-Kbuild-integration.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/501-yaffs-add-missing-flush-arguments.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/502-yaffs-fix-compat-tags-handling.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/503-yaffs-add-tags-9bytes-mount-option.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/504-yaffs-3.16-new-fops.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/520-squashfs_update_xz_comp_opts.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/530-jffs2_make_lzma_available.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/531-debloat_lzma.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/532-jffs2_eofdetect.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/540-crypto-xz-decompression-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/541-ubifs-xz-decompression-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/550-ubifs-symlink-xattr-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/551-ubifs-fix-default-compression-selection.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/600-netfilter_conntrack_flush.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/610-netfilter_match_bypass_default_checks.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/611-netfilter_match_bypass_default_table.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/612-netfilter_match_reduce_memory_access.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/613-netfilter_optional_tcp_window_check.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/615-netfilter_add_xt_id_match.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/616-net_optimize_xfrm_calls.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/620-sched_esfq.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/621-sched_act_connmark.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/630-packet_socket_type.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/640-bridge_no_eap_forward.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/641-bridge_always_accept_eap.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/642-bridge_port_isolate.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/643-bridge_remove_ipv6_dependency.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/644-bridge_optimize_netfilter_hooks.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/645-bridge_multicast_to_unicast.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/650-pppoe_header_pad.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/651-wireless_mesh_header.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/652-atm_header_changes.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/653-disable_netlink_trim.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/655-increase_skb_pad.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/656-skb_reduce_truesize-helper.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/657-qdisc_reduce_truesize.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/660-fq_codel_defaults.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/661-fq_codel_keep_dropped_stats.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/662-use_fq_codel_by_default.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/663-remove_pfifo_fast.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/666-Add-support-for-MAP-E-FMRs-mesh-mode.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/670-ipv6-allow-rejecting-with-source-address-failed-policy.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/671-net-provide-defines-for-_POLICY_FAILED-until-all-cod.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/680-NET-skip-GRO-for-foreign-MAC-addresses.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/700-swconfig.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/701-phy_extension.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/702-phy_add_aneg_done_function.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/703-phy-add-detach-callback-to-struct-phy_driver.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/704-phy-no-genphy-soft-reset.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/710-phy-add-mdio_register_board_info.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/720-phy_adm6996.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/721-phy_packets.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/722-phy_mvswitch.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/723-phy_ip175c.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/724-phy_ar8216.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/725-phy_rtl8306.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/726-phy_rtl8366.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/727-phy-rtl8367.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/728-phy-rtl8367b.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/729-phy-tantos.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/730-phy_b53.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/731-phy_mvswitch_3.10_compilation.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/732-phy-ar8216-led-support.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/733-phy_mvsw61xx.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/750-hostap_txpower.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/773-bgmac-add-srab-switch.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/780-igb-Fix-Null-pointer-dereference-in-igb_reset_q_vect.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/785-hso-support-0af0-9300.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/810-pci_disable_common_quirks.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/811-pci_disable_usb_common_quirks.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/820-usb_add_usb_find_device_by_name.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/821-usb-dwc2-dualrole.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/830-ledtrig_morse.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/831-ledtrig_netdev.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/832-ledtrig_usbdev.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/834-ledtrig-libata.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/840-rtc7301.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/841-rtc_pt7c4338.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/861-04_spi_gpio_implement_spi_delay.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/862-gpio_spi_driver.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/863-gpiommc.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/864-gpiommc_configfs_locking.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/870-hifn795x_byteswap.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/880-gateworks_system_controller.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/890-8250_optional_sysrq.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/900-slab_maxsize.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/901-debloat_sock_diag.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/902-debloat_proc.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/903-debloat_direct_io.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/910-kobject_uevent.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/911-kobject_add_broadcast_uevent.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/921-use_preinit_as_init.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/922-always-create-console-node-in-initramfs.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/930-crashlog.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/940-ocf_kbuild_integration.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/941-ocf_20120127.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/960-decompress_unlzo_fix.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/970-remove-unsane-filenames-from-deps_initramfs-list.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/980-arm_openwrt_machtypes.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/990-gpio_wdt.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/995-mangle_bootargs.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/997-device_tree_cmdline.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/998-enable_wilink_platform_without_drivers.patch [new file with mode: 0644]
trunk/target/linux/generic/patches-3.18/999-seccomp_log.patch [new file with mode: 0644]

diff --git a/trunk/target/linux/generic/patches-3.18/000-keep_initrafs_the_default.patch b/trunk/target/linux/generic/patches-3.18/000-keep_initrafs_the_default.patch
new file mode 100644 (file)
index 0000000..d4164ca
--- /dev/null
@@ -0,0 +1,25 @@
+Upstream changed the default rootfs to tmpfs when none has been passed
+to the kernel - this doesn't fit our purposes, so change it back.
+
+Signed-off-by: Imre Kaloz <kaloz@openwrt.org>
+
+--- a/init/do_mounts.c
++++ b/init/do_mounts.c
+@@ -623,6 +623,7 @@ int __init init_rootfs(void)
+       if (err)
+               return err;
++#if 0
+       if (IS_ENABLED(CONFIG_TMPFS) && !saved_root_name[0] &&
+               (!root_fs_names || strstr(root_fs_names, "tmpfs"))) {
+               err = shmem_init();
+@@ -630,6 +631,9 @@ int __init init_rootfs(void)
+       } else {
+               err = init_ramfs_fs();
+       }
++#else
++      err = init_ramfs_fs();
++#endif
+       if (err)
+               unregister_filesystem(&rootfs_fs_type);
diff --git a/trunk/target/linux/generic/patches-3.18/020-ssb_update.patch b/trunk/target/linux/generic/patches-3.18/020-ssb_update.patch
new file mode 100644 (file)
index 0000000..7afba07
--- /dev/null
@@ -0,0 +1,133 @@
+--- a/drivers/ssb/pcihost_wrapper.c
++++ b/drivers/ssb/pcihost_wrapper.c
+@@ -11,15 +11,17 @@
+  * Licensed under the GNU/GPL. See COPYING for details.
+  */
++#include <linux/pm.h>
+ #include <linux/pci.h>
+ #include <linux/export.h>
+ #include <linux/slab.h>
+ #include <linux/ssb/ssb.h>
+-#ifdef CONFIG_PM
+-static int ssb_pcihost_suspend(struct pci_dev *dev, pm_message_t state)
++#ifdef CONFIG_PM_SLEEP
++static int ssb_pcihost_suspend(struct device *d)
+ {
++      struct pci_dev *dev = to_pci_dev(d);
+       struct ssb_bus *ssb = pci_get_drvdata(dev);
+       int err;
+@@ -28,17 +30,23 @@ static int ssb_pcihost_suspend(struct pc
+               return err;
+       pci_save_state(dev);
+       pci_disable_device(dev);
+-      pci_set_power_state(dev, pci_choose_state(dev, state));
++
++      /* if there is a wakeup enabled child device on ssb bus,
++         enable pci wakeup posibility. */
++      device_set_wakeup_enable(d, d->power.wakeup_path);
++
++      pci_prepare_to_sleep(dev);
+       return 0;
+ }
+-static int ssb_pcihost_resume(struct pci_dev *dev)
++static int ssb_pcihost_resume(struct device *d)
+ {
++      struct pci_dev *dev = to_pci_dev(d);
+       struct ssb_bus *ssb = pci_get_drvdata(dev);
+       int err;
+-      pci_set_power_state(dev, PCI_D0);
++      pci_back_from_sleep(dev);
+       err = pci_enable_device(dev);
+       if (err)
+               return err;
+@@ -49,10 +57,12 @@ static int ssb_pcihost_resume(struct pci
+       return 0;
+ }
+-#else /* CONFIG_PM */
+-# define ssb_pcihost_suspend  NULL
+-# define ssb_pcihost_resume   NULL
+-#endif /* CONFIG_PM */
++
++static const struct dev_pm_ops ssb_pcihost_pm_ops = {
++      SET_SYSTEM_SLEEP_PM_OPS(ssb_pcihost_suspend, ssb_pcihost_resume)
++};
++
++#endif /* CONFIG_PM_SLEEP */
+ static int ssb_pcihost_probe(struct pci_dev *dev,
+                            const struct pci_device_id *id)
+@@ -115,8 +125,9 @@ int ssb_pcihost_register(struct pci_driv
+ {
+       driver->probe = ssb_pcihost_probe;
+       driver->remove = ssb_pcihost_remove;
+-      driver->suspend = ssb_pcihost_suspend;
+-      driver->resume = ssb_pcihost_resume;
++#ifdef CONFIG_PM_SLEEP
++      driver->driver.pm = &ssb_pcihost_pm_ops;
++#endif
+       return pci_register_driver(driver);
+ }
+--- a/drivers/ssb/driver_pcicore.c
++++ b/drivers/ssb/driver_pcicore.c
+@@ -357,6 +357,15 @@ static void ssb_pcicore_init_hostmode(st
+       pcicore_write32(pc, SSB_PCICORE_SBTOPCI2,
+                       SSB_PCICORE_SBTOPCI_MEM | SSB_PCI_DMA);
++      /*
++       * Accessing PCI config without a proper delay after devices reset (not
++       * GPIO reset) was causing reboots on WRT300N v1.0.
++       * Tested delay 850 us lowered reboot chance to 50-80%, 1000 us fixed it
++       * completely. Flushing all writes was also tested but with no luck.
++       */
++      if (pc->dev->bus->chip_id == 0x4704)
++              usleep_range(1000, 2000);
++
+       /* Enable PCI bridge BAR0 prefetch and burst */
+       val = PCI_COMMAND_MASTER | PCI_COMMAND_MEMORY;
+       ssb_extpci_write_config(pc, 0, 0, 0, PCI_COMMAND, &val, 2);
+--- a/drivers/ssb/main.c
++++ b/drivers/ssb/main.c
+@@ -90,25 +90,6 @@ found:
+ }
+ #endif /* CONFIG_SSB_PCMCIAHOST */
+-#ifdef CONFIG_SSB_SDIOHOST
+-struct ssb_bus *ssb_sdio_func_to_bus(struct sdio_func *func)
+-{
+-      struct ssb_bus *bus;
+-
+-      ssb_buses_lock();
+-      list_for_each_entry(bus, &buses, list) {
+-              if (bus->bustype == SSB_BUSTYPE_SDIO &&
+-                  bus->host_sdio == func)
+-                      goto found;
+-      }
+-      bus = NULL;
+-found:
+-      ssb_buses_unlock();
+-
+-      return bus;
+-}
+-#endif /* CONFIG_SSB_SDIOHOST */
+-
+ int ssb_for_each_bus_call(unsigned long data,
+                         int (*func)(struct ssb_bus *bus, unsigned long data))
+ {
+@@ -1154,6 +1135,8 @@ static u32 ssb_tmslow_reject_bitmask(str
+       case SSB_IDLOW_SSBREV_25:     /* TODO - find the proper REJECT bit */
+       case SSB_IDLOW_SSBREV_27:     /* same here */
+               return SSB_TMSLOW_REJECT;       /* this is a guess */
++      case SSB_IDLOW_SSBREV:
++              break;
+       default:
+               WARN(1, KERN_INFO "ssb: Backplane Revision 0x%.8X\n", rev);
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/030-nl80211-Allow-set-network-namespace-by-fd.patch b/trunk/target/linux/generic/patches-3.18/030-nl80211-Allow-set-network-namespace-by-fd.patch
new file mode 100644 (file)
index 0000000..52a2391
--- /dev/null
@@ -0,0 +1,21 @@
+From: Vadim Kochan <vadim4j@gmail.com>
+Date: Mon, 12 Jan 2015 16:34:05 +0200
+Subject: [PATCH] nl80211: Allow set network namespace by fd
+
+Added new NL80211_ATTR_NETNS_FD which allows to
+set namespace via nl80211 by fd.
+
+Signed-off-by: Vadim Kochan <vadim4j@gmail.com>
+Signed-off-by: Johannes Berg <johannes.berg@intel.com>
+---
+
+--- a/net/core/net_namespace.c
++++ b/net/core/net_namespace.c
+@@ -361,6 +361,7 @@ struct net *get_net_ns_by_fd(int fd)
+       return ERR_PTR(-EINVAL);
+ }
+ #endif
++EXPORT_SYMBOL_GPL(get_net_ns_by_fd);
+ struct net *get_net_ns_by_pid(pid_t pid)
+ {
diff --git a/trunk/target/linux/generic/patches-3.18/050-backport_netfilter_rtcache.patch b/trunk/target/linux/generic/patches-3.18/050-backport_netfilter_rtcache.patch
new file mode 100644 (file)
index 0000000..9f23db6
--- /dev/null
@@ -0,0 +1,509 @@
+Subject: netfilter: conntrack: cache route for forwarded connections
+
+... to avoid per-packet FIB lookup if possible.
+
+The cached dst is re-used provided the input interface
+is the same as that of the previous packet in the same direction.
+
+If not, the cached dst is invalidated.
+
+For ipv6 we also need to store sernum, else dst_check doesn't work,
+pointed out by Eric Dumazet.
+
+This should speed up forwarding when conntrack is already in use
+anyway, especially when using reverse path filtering -- active RPF
+enforces two FIB lookups for each packet.
+
+Before the routing cache removal this didn't matter since RPF was performed
+only when route cache didn't yield a result; but without route cache it
+comes at higher price.
+
+Julian Anastasov suggested to add NETDEV_UNREGISTER handler to
+avoid holding on to dsts of 'frozen' conntracks.
+
+Signed-off-by: Florian Westphal <fw@strlen.de>
+
+--- a/include/net/netfilter/nf_conntrack_extend.h
++++ b/include/net/netfilter/nf_conntrack_extend.h
+@@ -30,6 +30,9 @@ enum nf_ct_ext_id {
+ #if IS_ENABLED(CONFIG_NETFILTER_SYNPROXY)
+       NF_CT_EXT_SYNPROXY,
+ #endif
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_RTCACHE)
++      NF_CT_EXT_RTCACHE,
++#endif
+       NF_CT_EXT_NUM,
+ };
+@@ -43,6 +46,7 @@ enum nf_ct_ext_id {
+ #define NF_CT_EXT_TIMEOUT_TYPE struct nf_conn_timeout
+ #define NF_CT_EXT_LABELS_TYPE struct nf_conn_labels
+ #define NF_CT_EXT_SYNPROXY_TYPE struct nf_conn_synproxy
++#define NF_CT_EXT_RTCACHE_TYPE struct nf_conn_rtcache
+ /* Extensions: optional stuff which isn't permanently in struct. */
+ struct nf_ct_ext {
+--- /dev/null
++++ b/include/net/netfilter/nf_conntrack_rtcache.h
+@@ -0,0 +1,34 @@
++#include <linux/gfp.h>
++#include <net/netfilter/nf_conntrack.h>
++#include <net/netfilter/nf_conntrack_extend.h>
++
++struct dst_entry;
++
++struct nf_conn_dst_cache {
++      struct dst_entry *dst;
++      int iif;
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_IPV6)
++      u32 cookie;
++#endif
++
++};
++
++struct nf_conn_rtcache {
++      struct nf_conn_dst_cache cached_dst[IP_CT_DIR_MAX];
++};
++
++static inline
++struct nf_conn_rtcache *nf_ct_rtcache_find(const struct nf_conn *ct)
++{
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_RTCACHE)
++      return nf_ct_ext_find(ct, NF_CT_EXT_RTCACHE);
++#else
++      return NULL;
++#endif
++}
++
++static inline int nf_conn_rtcache_iif_get(const struct nf_conn_rtcache *rtc,
++                                        enum ip_conntrack_dir dir)
++{
++      return rtc->cached_dst[dir].iif;
++}
+--- a/net/netfilter/Kconfig
++++ b/net/netfilter/Kconfig
+@@ -106,6 +106,18 @@ config NF_CONNTRACK_EVENTS
+         If unsure, say `N'.
++config NF_CONNTRACK_RTCACHE
++      tristate "Cache route entries in conntrack objects"
++      depends on NETFILTER_ADVANCED
++      depends on NF_CONNTRACK
++      help
++        If this option is enabled, the connection tracking code will
++        cache routing information for each connection that is being
++        forwarded, at a cost of 32 bytes per conntrack object.
++
++        To compile it as a module, choose M here.  If unsure, say N.
++        The module will be called nf_conntrack_rtcache.
++
+ config NF_CONNTRACK_TIMEOUT
+       bool  'Connection tracking timeout'
+       depends on NETFILTER_ADVANCED
+--- a/net/netfilter/Makefile
++++ b/net/netfilter/Makefile
+@@ -18,6 +18,9 @@ obj-$(CONFIG_NETFILTER_NETLINK_LOG) += n
+ # connection tracking
+ obj-$(CONFIG_NF_CONNTRACK) += nf_conntrack.o
++# optional conntrack route cache extension
++obj-$(CONFIG_NF_CONNTRACK_RTCACHE) += nf_conntrack_rtcache.o
++
+ # SCTP protocol connection tracking
+ obj-$(CONFIG_NF_CT_PROTO_DCCP) += nf_conntrack_proto_dccp.o
+ obj-$(CONFIG_NF_CT_PROTO_GRE) += nf_conntrack_proto_gre.o
+--- /dev/null
++++ b/net/netfilter/nf_conntrack_rtcache.c
+@@ -0,0 +1,391 @@
++/* route cache for netfilter.
++ *
++ * (C) 2014 Red Hat GmbH
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ */
++
++#define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
++
++#include <linux/types.h>
++#include <linux/netfilter.h>
++#include <linux/skbuff.h>
++#include <linux/stddef.h>
++#include <linux/kernel.h>
++#include <linux/netdevice.h>
++#include <linux/export.h>
++#include <linux/module.h>
++
++#include <net/dst.h>
++
++#include <net/netfilter/nf_conntrack.h>
++#include <net/netfilter/nf_conntrack_core.h>
++#include <net/netfilter/nf_conntrack_extend.h>
++#include <net/netfilter/nf_conntrack_rtcache.h>
++
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_IPV6)
++#include <net/ip6_fib.h>
++#endif
++
++static void __nf_conn_rtcache_destroy(struct nf_conn_rtcache *rtc,
++                                    enum ip_conntrack_dir dir)
++{
++      struct dst_entry *dst = rtc->cached_dst[dir].dst;
++
++      dst_release(dst);
++}
++
++static void nf_conn_rtcache_destroy(struct nf_conn *ct)
++{
++      struct nf_conn_rtcache *rtc = nf_ct_rtcache_find(ct);
++
++      if (!rtc)
++              return;
++
++      __nf_conn_rtcache_destroy(rtc, IP_CT_DIR_ORIGINAL);
++      __nf_conn_rtcache_destroy(rtc, IP_CT_DIR_REPLY);
++}
++
++static void nf_ct_rtcache_ext_add(struct nf_conn *ct)
++{
++      struct nf_conn_rtcache *rtc;
++
++      rtc = nf_ct_ext_add(ct, NF_CT_EXT_RTCACHE, GFP_ATOMIC);
++      if (rtc) {
++              rtc->cached_dst[IP_CT_DIR_ORIGINAL].iif = -1;
++              rtc->cached_dst[IP_CT_DIR_ORIGINAL].dst = NULL;
++              rtc->cached_dst[IP_CT_DIR_REPLY].iif = -1;
++              rtc->cached_dst[IP_CT_DIR_REPLY].dst = NULL;
++      }
++}
++
++static struct nf_conn_rtcache *nf_ct_rtcache_find_usable(struct nf_conn *ct)
++{
++      if (nf_ct_is_untracked(ct))
++              return NULL;
++      return nf_ct_rtcache_find(ct);
++}
++
++static struct dst_entry *
++nf_conn_rtcache_dst_get(const struct nf_conn_rtcache *rtc,
++                      enum ip_conntrack_dir dir)
++{
++      return rtc->cached_dst[dir].dst;
++}
++
++static u32 nf_rtcache_get_cookie(int pf, const struct dst_entry *dst)
++{
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_IPV6)
++      if (pf == NFPROTO_IPV6) {
++              const struct rt6_info *rt = (const struct rt6_info *)dst;
++
++              if (rt->rt6i_node)
++                      return (u32)rt->rt6i_node->fn_sernum;
++      }
++#endif
++      return 0;
++}
++
++static void nf_conn_rtcache_dst_set(int pf,
++                                  struct nf_conn_rtcache *rtc,
++                                  struct dst_entry *dst,
++                                  enum ip_conntrack_dir dir, int iif)
++{
++      if (rtc->cached_dst[dir].iif != iif)
++              rtc->cached_dst[dir].iif = iif;
++
++      if (rtc->cached_dst[dir].dst != dst) {
++              struct dst_entry *old;
++
++              dst_hold(dst);
++
++              old = xchg(&rtc->cached_dst[dir].dst, dst);
++              dst_release(old);
++
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_IPV6)
++              if (pf == NFPROTO_IPV6)
++                      rtc->cached_dst[dir].cookie =
++                              nf_rtcache_get_cookie(pf, dst);
++#endif
++      }
++}
++
++static void nf_conn_rtcache_dst_obsolete(struct nf_conn_rtcache *rtc,
++                                       enum ip_conntrack_dir dir)
++{
++      struct dst_entry *old;
++
++      pr_debug("Invalidate iif %d for dir %d on cache %p\n",
++               rtc->cached_dst[dir].iif, dir, rtc);
++
++      old = xchg(&rtc->cached_dst[dir].dst, NULL);
++      dst_release(old);
++      rtc->cached_dst[dir].iif = -1;
++}
++
++static unsigned int nf_rtcache_in(const struct nf_hook_ops *ops,
++                                struct sk_buff *skb,
++                                const struct net_device *in,
++                                const struct net_device *out,
++                                int (*okfn)(struct sk_buff *))
++{
++      struct nf_conn_rtcache *rtc;
++      enum ip_conntrack_info ctinfo;
++      enum ip_conntrack_dir dir;
++      struct dst_entry *dst;
++      struct nf_conn *ct;
++      int iif;
++      u32 cookie;
++
++      if (skb_dst(skb) || skb->sk)
++              return NF_ACCEPT;
++
++      ct = nf_ct_get(skb, &ctinfo);
++      if (!ct)
++              return NF_ACCEPT;
++
++      rtc = nf_ct_rtcache_find_usable(ct);
++      if (!rtc)
++              return NF_ACCEPT;
++
++      /* if iif changes, don't use cache and let ip stack
++       * do route lookup.
++       *
++       * If rp_filter is enabled it might toss skb, so
++       * we don't want to avoid these checks.
++       */
++      dir = CTINFO2DIR(ctinfo);
++      iif = nf_conn_rtcache_iif_get(rtc, dir);
++      if (in->ifindex != iif) {
++              pr_debug("ct %p, iif %d, cached iif %d, skip cached entry\n",
++                       ct, iif, in->ifindex);
++              return NF_ACCEPT;
++      }
++      dst = nf_conn_rtcache_dst_get(rtc, dir);
++      if (dst == NULL)
++              return NF_ACCEPT;
++
++      cookie = nf_rtcache_get_cookie(ops->pf, dst);
++
++      dst = dst_check(dst, cookie);
++      pr_debug("obtained dst %p for skb %p, cookie %d\n", dst, skb, cookie);
++      if (likely(dst))
++              skb_dst_set_noref_force(skb, dst);
++      else
++              nf_conn_rtcache_dst_obsolete(rtc, dir);
++
++      return NF_ACCEPT;
++}
++
++static unsigned int nf_rtcache_forward(const struct nf_hook_ops *ops,
++                                     struct sk_buff *skb,
++                                     const struct net_device *in,
++                                     const struct net_device *out,
++                                     int (*okfn)(struct sk_buff *))
++{
++      struct nf_conn_rtcache *rtc;
++      enum ip_conntrack_info ctinfo;
++      enum ip_conntrack_dir dir;
++      struct nf_conn *ct;
++      struct dst_entry *dst = skb_dst(skb);
++      int iif;
++
++      ct = nf_ct_get(skb, &ctinfo);
++      if (!ct)
++              return NF_ACCEPT;
++
++      if (dst && dst_xfrm(dst))
++              return NF_ACCEPT;
++
++      if (!nf_ct_is_confirmed(ct)) {
++              if (WARN_ON(nf_ct_rtcache_find(ct)))
++                      return NF_ACCEPT;
++              nf_ct_rtcache_ext_add(ct);
++              return NF_ACCEPT;
++      }
++
++      rtc = nf_ct_rtcache_find_usable(ct);
++      if (!rtc)
++              return NF_ACCEPT;
++
++      dir = CTINFO2DIR(ctinfo);
++      iif = nf_conn_rtcache_iif_get(rtc, dir);
++      pr_debug("ct %p, skb %p, dir %d, iif %d, cached iif %d\n",
++               ct, skb, dir, iif, in->ifindex);
++      if (likely(in->ifindex == iif))
++              return NF_ACCEPT;
++
++      nf_conn_rtcache_dst_set(ops->pf, rtc, skb_dst(skb), dir, in->ifindex);
++      return NF_ACCEPT;
++}
++
++static int nf_rtcache_dst_remove(struct nf_conn *ct, void *data)
++{
++      struct nf_conn_rtcache *rtc = nf_ct_rtcache_find(ct);
++      struct net_device *dev = data;
++
++      if (!rtc)
++              return 0;
++
++      if (dev->ifindex == rtc->cached_dst[IP_CT_DIR_ORIGINAL].iif ||
++          dev->ifindex == rtc->cached_dst[IP_CT_DIR_REPLY].iif) {
++              nf_conn_rtcache_dst_obsolete(rtc, IP_CT_DIR_ORIGINAL);
++              nf_conn_rtcache_dst_obsolete(rtc, IP_CT_DIR_REPLY);
++      }
++
++      return 0;
++}
++
++static int nf_rtcache_netdev_event(struct notifier_block *this,
++                                 unsigned long event, void *ptr)
++{
++      struct net_device *dev = netdev_notifier_info_to_dev(ptr);
++      struct net *net = dev_net(dev);
++
++      if (event == NETDEV_DOWN)
++              nf_ct_iterate_cleanup(net, nf_rtcache_dst_remove, dev, 0, 0);
++
++      return NOTIFY_DONE;
++}
++
++static struct notifier_block nf_rtcache_notifier = {
++      .notifier_call = nf_rtcache_netdev_event,
++};
++
++static struct nf_hook_ops rtcache_ops[] = {
++      {
++              .hook           = nf_rtcache_in,
++              .owner          = THIS_MODULE,
++              .pf             = NFPROTO_IPV4,
++              .hooknum        = NF_INET_PRE_ROUTING,
++              .priority       = NF_IP_PRI_LAST,
++      },
++      {
++              .hook           = nf_rtcache_forward,
++              .owner          = THIS_MODULE,
++              .pf             = NFPROTO_IPV4,
++              .hooknum        = NF_INET_FORWARD,
++              .priority       = NF_IP_PRI_LAST,
++      },
++#if IS_ENABLED(CONFIG_NF_CONNTRACK_IPV6)
++      {
++              .hook           = nf_rtcache_in,
++              .owner          = THIS_MODULE,
++              .pf             = NFPROTO_IPV6,
++              .hooknum        = NF_INET_PRE_ROUTING,
++              .priority       = NF_IP_PRI_LAST,
++      },
++      {
++              .hook           = nf_rtcache_forward,
++              .owner          = THIS_MODULE,
++              .pf             = NFPROTO_IPV6,
++              .hooknum        = NF_INET_FORWARD,
++              .priority       = NF_IP_PRI_LAST,
++      },
++#endif
++};
++
++static struct nf_ct_ext_type rtcache_extend __read_mostly = {
++      .len    = sizeof(struct nf_conn_rtcache),
++      .align  = __alignof__(struct nf_conn_rtcache),
++      .id     = NF_CT_EXT_RTCACHE,
++      .destroy = nf_conn_rtcache_destroy,
++};
++
++static int __init nf_conntrack_rtcache_init(void)
++{
++      int ret = nf_ct_extend_register(&rtcache_extend);
++
++      if (ret < 0) {
++              pr_err("nf_conntrack_rtcache: Unable to register extension\n");
++              return ret;
++      }
++
++      ret = nf_register_hooks(rtcache_ops, ARRAY_SIZE(rtcache_ops));
++      if (ret < 0) {
++              nf_ct_extend_unregister(&rtcache_extend);
++              return ret;
++      }
++
++      ret = register_netdevice_notifier(&nf_rtcache_notifier);
++      if (ret) {
++              nf_unregister_hooks(rtcache_ops, ARRAY_SIZE(rtcache_ops));
++              nf_ct_extend_unregister(&rtcache_extend);
++      }
++
++      return ret;
++}
++
++static int nf_rtcache_ext_remove(struct nf_conn *ct, void *data)
++{
++      struct nf_conn_rtcache *rtc = nf_ct_rtcache_find(ct);
++
++      return rtc != NULL;
++}
++
++static bool __exit nf_conntrack_rtcache_wait_for_dying(struct net *net)
++{
++      bool wait = false;
++      int cpu;
++
++      for_each_possible_cpu(cpu) {
++              struct nf_conntrack_tuple_hash *h;
++              struct hlist_nulls_node *n;
++              struct nf_conn *ct;
++              struct ct_pcpu *pcpu = per_cpu_ptr(net->ct.pcpu_lists, cpu);
++
++              rcu_read_lock();
++              spin_lock_bh(&pcpu->lock);
++
++              hlist_nulls_for_each_entry(h, n, &pcpu->dying, hnnode) {
++                      ct = nf_ct_tuplehash_to_ctrack(h);
++                      if (nf_ct_rtcache_find(ct) != NULL) {
++                              wait = true;
++                              break;
++                      }
++              }
++              spin_unlock_bh(&pcpu->lock);
++              rcu_read_unlock();
++      }
++
++      return wait;
++}
++
++static void __exit nf_conntrack_rtcache_fini(void)
++{
++      struct net *net;
++      int count = 0;
++
++      /* remove hooks so no new connections get rtcache extension */
++      nf_unregister_hooks(rtcache_ops, ARRAY_SIZE(rtcache_ops));
++
++      synchronize_net();
++
++      unregister_netdevice_notifier(&nf_rtcache_notifier);
++
++      rtnl_lock();
++
++      /* zap all conntracks with rtcache extension */
++      for_each_net(net)
++              nf_ct_iterate_cleanup(net, nf_rtcache_ext_remove, NULL, 0, 0);
++
++      for_each_net(net) {
++              /* .. and make sure they're gone from dying list, too */
++              while (nf_conntrack_rtcache_wait_for_dying(net)) {
++                      msleep(200);
++                      WARN_ONCE(++count > 25, "Waiting for all rtcache conntracks to go away\n");
++              }
++      }
++
++      rtnl_unlock();
++      synchronize_net();
++      nf_ct_extend_unregister(&rtcache_extend);
++}
++module_init(nf_conntrack_rtcache_init);
++module_exit(nf_conntrack_rtcache_fini);
++
++MODULE_LICENSE("GPL");
++MODULE_AUTHOR("Florian Westphal <fw@strlen.de>");
++MODULE_DESCRIPTION("Conntrack route cache extension");
diff --git a/trunk/target/linux/generic/patches-3.18/060-mips_decompressor_memmove.patch b/trunk/target/linux/generic/patches-3.18/060-mips_decompressor_memmove.patch
new file mode 100644 (file)
index 0000000..d215b80
--- /dev/null
@@ -0,0 +1,22 @@
+--- a/arch/mips/boot/compressed/string.c
++++ b/arch/mips/boot/compressed/string.c
+@@ -26,3 +26,19 @@ void *memset(void *s, int c, size_t n)
+               ss[i] = c;
+       return s;
+ }
++
++void *memmove(void *__dest, __const void *__src, size_t count)
++{
++      unsigned char *d = __dest;
++      const unsigned char *s = __src;
++
++      if (__dest == __src)
++              return __dest;
++
++      if (__dest < __src)
++              return memcpy(__dest, __src, count);
++
++      while (count--)
++              d[count] = s[count];
++      return __dest;
++}
diff --git a/trunk/target/linux/generic/patches-3.18/070-bgmac-register-napi-before-the-device.patch b/trunk/target/linux/generic/patches-3.18/070-bgmac-register-napi-before-the-device.patch
new file mode 100644 (file)
index 0000000..aa45860
--- /dev/null
@@ -0,0 +1,44 @@
+From 6216642f200258708e47170ff14ba8ecb486f4f0 Mon Sep 17 00:00:00 2001
+From: Hauke Mehrtens <hauke@hauke-m.de>
+Date: Sun, 18 Jan 2015 19:49:58 +0100
+Subject: [PATCH] bgmac: register napi before the device
+
+napi should get registered before the netdev and not after.
+
+Signed-off-by: Hauke Mehrtens <hauke@hauke-m.de>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/ethernet/broadcom/bgmac.c | 6 +++---
+ 1 file changed, 3 insertions(+), 3 deletions(-)
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -1515,6 +1515,8 @@ static int bgmac_probe(struct bcma_devic
+       if (core->bus->sprom.boardflags_lo & BGMAC_BFL_ENETADM)
+               bgmac_warn(bgmac, "Support for ADMtek ethernet switch not implemented\n");
++      netif_napi_add(net_dev, &bgmac->napi, bgmac_poll, BGMAC_WEIGHT);
++
+       err = bgmac_mii_register(bgmac);
+       if (err) {
+               bgmac_err(bgmac, "Cannot register MDIO\n");
+@@ -1529,8 +1531,6 @@ static int bgmac_probe(struct bcma_devic
+       netif_carrier_off(net_dev);
+-      netif_napi_add(net_dev, &bgmac->napi, bgmac_poll, BGMAC_WEIGHT);
+-
+       return 0;
+ err_mii_unregister:
+@@ -1549,9 +1549,9 @@ static void bgmac_remove(struct bcma_dev
+ {
+       struct bgmac *bgmac = bcma_get_drvdata(core);
+-      netif_napi_del(&bgmac->napi);
+       unregister_netdev(bgmac->net_dev);
+       bgmac_mii_unregister(bgmac);
++      netif_napi_del(&bgmac->napi);
+       bgmac_dma_free(bgmac);
+       bcma_set_drvdata(core, NULL);
+       free_netdev(bgmac->net_dev);
diff --git a/trunk/target/linux/generic/patches-3.18/071-bgmac-activate-irqs-only-if-there-is-nothing-to-poll.patch b/trunk/target/linux/generic/patches-3.18/071-bgmac-activate-irqs-only-if-there-is-nothing-to-poll.patch
new file mode 100644 (file)
index 0000000..cc43d36
--- /dev/null
@@ -0,0 +1,30 @@
+From 43f159c60a99318b1ef7d1d7c16c4dfdd06bfd90 Mon Sep 17 00:00:00 2001
+From: Hauke Mehrtens <hauke@hauke-m.de>
+Date: Sun, 18 Jan 2015 19:49:59 +0100
+Subject: [PATCH] bgmac: activate irqs only if there is nothing to poll
+
+IRQs should only get activated when there is nothing to poll in the
+queue any more and to after every poll.
+
+Signed-off-by: Hauke Mehrtens <hauke@hauke-m.de>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/ethernet/broadcom/bgmac.c | 6 +++---
+ 1 file changed, 3 insertions(+), 3 deletions(-)
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -1167,10 +1167,10 @@ static int bgmac_poll(struct napi_struct
+               bgmac->int_status = 0;
+       }
+-      if (handled < weight)
++      if (handled < weight) {
+               napi_complete(napi);
+-
+-      bgmac_chip_intrs_on(bgmac);
++              bgmac_chip_intrs_on(bgmac);
++      }
+       return handled;
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/072-bgmac-fix-device-initialization-on-Northstar-SoCs-co.patch b/trunk/target/linux/generic/patches-3.18/072-bgmac-fix-device-initialization-on-Northstar-SoCs-co.patch
new file mode 100644 (file)
index 0000000..121d2f4
--- /dev/null
@@ -0,0 +1,40 @@
+From 21697336d46b71dd031f29e426dda0b1e7f06cc0 Mon Sep 17 00:00:00 2001
+From: =?UTF-8?q?Rafa=C5=82=20Mi=C5=82ecki?= <zajec5@gmail.com>
+Date: Wed, 11 Feb 2015 18:06:34 +0100
+Subject: [PATCH] bgmac: fix device initialization on Northstar SoCs (condition
+ typo)
+MIME-Version: 1.0
+Content-Type: text/plain; charset=UTF-8
+Content-Transfer-Encoding: 8bit
+
+On Northstar (Broadcom's ARM architecture) we need to manually enable
+all cores. Code for that is already in place, but the condition for it
+was wrong.
+
+Signed-off-by: RafaÅ‚ MiÅ‚ecki <zajec5@gmail.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/ethernet/broadcom/bgmac.c | 5 +++--
+ 1 file changed, 3 insertions(+), 2 deletions(-)
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -1412,6 +1412,7 @@ static void bgmac_mii_unregister(struct
+ /* http://bcm-v4.sipsolutions.net/mac-gbit/gmac/chipattach */
+ static int bgmac_probe(struct bcma_device *core)
+ {
++      struct bcma_chipinfo *ci = &core->bus->chipinfo;
+       struct net_device *net_dev;
+       struct bgmac *bgmac;
+       struct ssb_sprom *sprom = &core->bus->sprom;
+@@ -1474,8 +1475,8 @@ static int bgmac_probe(struct bcma_devic
+       bgmac_chip_reset(bgmac);
+       /* For Northstar, we have to take all GMAC core out of reset */
+-      if (core->id.id == BCMA_CHIP_ID_BCM4707 ||
+-          core->id.id == BCMA_CHIP_ID_BCM53018) {
++      if (ci->id == BCMA_CHIP_ID_BCM4707 ||
++          ci->id == BCMA_CHIP_ID_BCM53018) {
+               struct bcma_device *ns_core;
+               int ns_gmac;
diff --git a/trunk/target/linux/generic/patches-3.18/073-bgmac-Clean-warning-messages.patch b/trunk/target/linux/generic/patches-3.18/073-bgmac-Clean-warning-messages.patch
new file mode 100644 (file)
index 0000000..17fe5df
--- /dev/null
@@ -0,0 +1,50 @@
+From 8edfe3b6fad28da191c8fa15e4e0d8f7335a0091 Mon Sep 17 00:00:00 2001
+From: Peter Senna Tschudin <peter.senna@gmail.com>
+Date: Sat, 7 Mar 2015 12:10:26 +0100
+Subject: [PATCH] bgmac: Clean warning messages
+MIME-Version: 1.0
+Content-Type: text/plain; charset=UTF-8
+Content-Transfer-Encoding: 8bit
+
+On my test environment the throughput of a file transfer drops
+from 4.4MBps to 116KBps due the number of repeated warning
+messages. This patch removes the warning messages as DMA works
+correctly with addresses using 0xC0000000 bits.
+
+Signed-off-by: Peter Senna Tschudin <peter.senna@gmail.com>
+Acked-by: RafaÅ‚ MiÅ‚ecki <zajec5@gmail.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/ethernet/broadcom/bgmac.c | 7 -------
+ 1 file changed, 7 deletions(-)
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -302,9 +302,6 @@ static int bgmac_dma_rx_skb_for_slot(str
+       slot->skb = skb;
+       slot->dma_addr = dma_addr;
+-      if (slot->dma_addr & 0xC0000000)
+-              bgmac_warn(bgmac, "DMA address using 0xC0000000 bit(s), it may need translation trick\n");
+-
+       return 0;
+ }
+@@ -505,8 +502,6 @@ static int bgmac_dma_alloc(struct bgmac
+                                 ring->mmio_base);
+                       goto err_dma_free;
+               }
+-              if (ring->dma_base & 0xC0000000)
+-                      bgmac_warn(bgmac, "DMA address using 0xC0000000 bit(s), it may need translation trick\n");
+               ring->unaligned = bgmac_dma_unaligned(bgmac, ring,
+                                                     BGMAC_DMA_RING_TX);
+@@ -536,8 +531,6 @@ static int bgmac_dma_alloc(struct bgmac
+                       err = -ENOMEM;
+                       goto err_dma_free;
+               }
+-              if (ring->dma_base & 0xC0000000)
+-                      bgmac_warn(bgmac, "DMA address using 0xC0000000 bit(s), it may need translation trick\n");
+               ring->unaligned = bgmac_dma_unaligned(bgmac, ring,
+                                                     BGMAC_DMA_RING_RX);
diff --git a/trunk/target/linux/generic/patches-3.18/074-bgmac-register-fixed-PHY-for-ARM-BCM470X-BCM5301X-ch.patch b/trunk/target/linux/generic/patches-3.18/074-bgmac-register-fixed-PHY-for-ARM-BCM470X-BCM5301X-ch.patch
new file mode 100644 (file)
index 0000000..9f0baff
--- /dev/null
@@ -0,0 +1,76 @@
+From c25b23b8a387e7d31f7a74af8e37b61e9e6ebb21 Mon Sep 17 00:00:00 2001
+From: =?UTF-8?q?Rafa=C5=82=20Mi=C5=82ecki?= <zajec5@gmail.com>
+Date: Fri, 20 Mar 2015 23:14:31 +0100
+Subject: [PATCH] bgmac: register fixed PHY for ARM BCM470X / BCM5301X chipsets
+MIME-Version: 1.0
+Content-Type: text/plain; charset=UTF-8
+Content-Transfer-Encoding: 8bit
+
+On ARM SoCs with bgmac Ethernet hardware we don't have any normal PHY.
+There is always a switch attached but it's not even controlled over MDIO
+like in case of MIPS devices.
+We need a fixed PHY to be able to send/receive packets from the switch.
+
+Signed-off-by: RafaÅ‚ MiÅ‚ecki <zajec5@gmail.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/ethernet/broadcom/bgmac.c | 34 ++++++++++++++++++++++++++++++++++
+ 1 file changed, 34 insertions(+)
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -14,6 +14,7 @@
+ #include <linux/etherdevice.h>
+ #include <linux/mii.h>
+ #include <linux/phy.h>
++#include <linux/phy_fixed.h>
+ #include <linux/interrupt.h>
+ #include <linux/dma-mapping.h>
+ #include <bcm47xx_nvram.h>
+@@ -1330,13 +1331,46 @@ static void bgmac_adjust_link(struct net
+       }
+ }
++static int bgmac_fixed_phy_register(struct bgmac *bgmac)
++{
++      struct fixed_phy_status fphy_status = {
++              .link = 1,
++              .speed = SPEED_1000,
++              .duplex = DUPLEX_FULL,
++      };
++      struct phy_device *phy_dev;
++      int err;
++
++      phy_dev = fixed_phy_register(PHY_POLL, &fphy_status, NULL);
++      if (!phy_dev || IS_ERR(phy_dev)) {
++              bgmac_err(bgmac, "Failed to register fixed PHY device\n");
++              return -ENODEV;
++      }
++
++      err = phy_connect_direct(bgmac->net_dev, phy_dev, bgmac_adjust_link,
++                               PHY_INTERFACE_MODE_MII);
++      if (err) {
++              bgmac_err(bgmac, "Connecting PHY failed\n");
++              return err;
++      }
++
++      bgmac->phy_dev = phy_dev;
++
++      return err;
++}
++
+ static int bgmac_mii_register(struct bgmac *bgmac)
+ {
++      struct bcma_chipinfo *ci = &bgmac->core->bus->chipinfo;
+       struct mii_bus *mii_bus;
+       struct phy_device *phy_dev;
+       char bus_id[MII_BUS_ID_SIZE + 3];
+       int i, err = 0;
++      if (ci->id == BCMA_CHIP_ID_BCM4707 ||
++          ci->id == BCMA_CHIP_ID_BCM53018)
++              return bgmac_fixed_phy_register(bgmac);
++
+       mii_bus = mdiobus_alloc();
+       if (!mii_bus)
+               return -ENOMEM;
diff --git a/trunk/target/linux/generic/patches-3.18/075-bgmac-allow-enabling-on-ARCH_BCM_5301X.patch b/trunk/target/linux/generic/patches-3.18/075-bgmac-allow-enabling-on-ARCH_BCM_5301X.patch
new file mode 100644 (file)
index 0000000..4513667
--- /dev/null
@@ -0,0 +1,28 @@
+From fc300dc3733fdc328e6e10c7b8379b60c26cd648 Mon Sep 17 00:00:00 2001
+From: =?UTF-8?q?Rafa=C5=82=20Mi=C5=82ecki?= <zajec5@gmail.com>
+Date: Fri, 20 Mar 2015 23:14:32 +0100
+Subject: [PATCH] bgmac: allow enabling on ARCH_BCM_5301X
+MIME-Version: 1.0
+Content-Type: text/plain; charset=UTF-8
+Content-Transfer-Encoding: 8bit
+
+Home routers based on ARM SoCs like BCM4708 also have bcma bus with core
+supported by bgmac.
+
+Signed-off-by: RafaÅ‚ MiÅ‚ecki <zajec5@gmail.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/ethernet/broadcom/Kconfig | 2 +-
+ 1 file changed, 1 insertion(+), 1 deletion(-)
+
+--- a/drivers/net/ethernet/broadcom/Kconfig
++++ b/drivers/net/ethernet/broadcom/Kconfig
+@@ -143,7 +143,7 @@ config BNX2X_SRIOV
+ config BGMAC
+       tristate "BCMA bus GBit core support"
+-      depends on BCMA_HOST_SOC && HAS_DMA && BCM47XX
++      depends on BCMA_HOST_SOC && HAS_DMA && (BCM47XX || ARCH_BCM_5301X)
+       select PHYLIB
+       ---help---
+         This driver supports GBit MAC and BCM4706 GBit MAC cores on BCMA bus.
diff --git a/trunk/target/linux/generic/patches-3.18/076-net-phy-export-fixed_phy_register.patch b/trunk/target/linux/generic/patches-3.18/076-net-phy-export-fixed_phy_register.patch
new file mode 100644 (file)
index 0000000..939016c
--- /dev/null
@@ -0,0 +1,30 @@
+From 37e9a6904520b525b542ecd67201164d06fdb95a Mon Sep 17 00:00:00 2001
+From: Mark Salter <msalter@redhat.com>
+Date: Thu, 11 Dec 2014 23:03:26 -0500
+Subject: [PATCH] net: phy: export fixed_phy_register()
+
+When building the bcmgenet driver as module, I get:
+
+ERROR: "fixed_phy_register" [drivers/net/ethernet/broadcom/genet/genet.ko] undefined!
+
+commit b0ba512e225d72 ("net: bcmgenet: enable driver to work without device
+tree") which added a call to fixed_phy_register. But fixed_phy_register
+needs to be exported if used from a module.
+
+Signed-off-by: Mark Salter <msalter@redhat.com>
+Acked-by: Florian Fainelli <f.fainelli@gmail.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+ drivers/net/phy/fixed.c | 1 +
+ 1 file changed, 1 insertion(+)
+
+--- a/drivers/net/phy/fixed.c
++++ b/drivers/net/phy/fixed.c
+@@ -274,6 +274,7 @@ struct phy_device *fixed_phy_register(un
+       return phy;
+ }
++EXPORT_SYMBOL_GPL(fixed_phy_register);
+ static int __init fixed_mdio_bus_init(void)
+ {
diff --git a/trunk/target/linux/generic/patches-3.18/077-01-bgmac-fix-descriptor-frame-start-end-definitions.patch b/trunk/target/linux/generic/patches-3.18/077-01-bgmac-fix-descriptor-frame-start-end-definitions.patch
new file mode 100644 (file)
index 0000000..fdfae3a
--- /dev/null
@@ -0,0 +1,24 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Mon, 23 Mar 2015 02:40:06 +0100
+Subject: [PATCH] bgmac: fix descriptor frame start/end definitions
+
+The start-of-frame and end-of-frame bits were accidentally swapped.
+In the current code it does not make any difference, since they are
+always used together.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -345,8 +345,8 @@
+ #define BGMAC_DESC_CTL0_EOT                   0x10000000      /* End of ring */
+ #define BGMAC_DESC_CTL0_IOC                   0x20000000      /* IRQ on complete */
+-#define BGMAC_DESC_CTL0_SOF                   0x40000000      /* Start of frame */
+-#define BGMAC_DESC_CTL0_EOF                   0x80000000      /* End of frame */
++#define BGMAC_DESC_CTL0_EOF                   0x40000000      /* End of frame */
++#define BGMAC_DESC_CTL0_SOF                   0x80000000      /* Start of frame */
+ #define BGMAC_DESC_CTL1_LEN                   0x00001FFF
+ #define BGMAC_PHY_NOREGS                      0x1E
diff --git a/trunk/target/linux/generic/patches-3.18/077-02-bgmac-implement-GRO-and-use-build_skb.patch b/trunk/target/linux/generic/patches-3.18/077-02-bgmac-implement-GRO-and-use-build_skb.patch
new file mode 100644 (file)
index 0000000..2a2df60
--- /dev/null
@@ -0,0 +1,189 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Mon, 23 Mar 2015 02:41:25 +0100
+Subject: [PATCH] bgmac: implement GRO and use build_skb
+
+This improves performance for routing and local rx
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -276,31 +276,31 @@ static int bgmac_dma_rx_skb_for_slot(str
+                                    struct bgmac_slot_info *slot)
+ {
+       struct device *dma_dev = bgmac->core->dma_dev;
+-      struct sk_buff *skb;
+       dma_addr_t dma_addr;
+       struct bgmac_rx_header *rx;
++      void *buf;
+       /* Alloc skb */
+-      skb = netdev_alloc_skb(bgmac->net_dev, BGMAC_RX_BUF_SIZE);
+-      if (!skb)
++      buf = netdev_alloc_frag(BGMAC_RX_ALLOC_SIZE);
++      if (!buf)
+               return -ENOMEM;
+       /* Poison - if everything goes fine, hardware will overwrite it */
+-      rx = (struct bgmac_rx_header *)skb->data;
++      rx = buf;
+       rx->len = cpu_to_le16(0xdead);
+       rx->flags = cpu_to_le16(0xbeef);
+       /* Map skb for the DMA */
+-      dma_addr = dma_map_single(dma_dev, skb->data,
+-                                BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
++      dma_addr = dma_map_single(dma_dev, buf, BGMAC_RX_BUF_SIZE,
++                                DMA_FROM_DEVICE);
+       if (dma_mapping_error(dma_dev, dma_addr)) {
+               bgmac_err(bgmac, "DMA mapping error\n");
+-              dev_kfree_skb(skb);
++              put_page(virt_to_head_page(buf));
+               return -ENOMEM;
+       }
+       /* Update the slot */
+-      slot->skb = skb;
++      slot->buf = buf;
+       slot->dma_addr = dma_addr;
+       return 0;
+@@ -343,8 +343,9 @@ static int bgmac_dma_rx_read(struct bgma
+       while (ring->start != ring->end) {
+               struct device *dma_dev = bgmac->core->dma_dev;
+               struct bgmac_slot_info *slot = &ring->slots[ring->start];
+-              struct sk_buff *skb = slot->skb;
+-              struct bgmac_rx_header *rx;
++              struct bgmac_rx_header *rx = slot->buf;
++              struct sk_buff *skb;
++              void *buf = slot->buf;
+               u16 len, flags;
+               /* Unmap buffer to make it accessible to the CPU */
+@@ -352,7 +353,6 @@ static int bgmac_dma_rx_read(struct bgma
+                                       BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
+               /* Get info from the header */
+-              rx = (struct bgmac_rx_header *)skb->data;
+               len = le16_to_cpu(rx->len);
+               flags = le16_to_cpu(rx->flags);
+@@ -393,12 +393,13 @@ static int bgmac_dma_rx_read(struct bgma
+                       dma_unmap_single(dma_dev, old_dma_addr,
+                                        BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
++                      skb = build_skb(buf, BGMAC_RX_ALLOC_SIZE);
+                       skb_put(skb, BGMAC_RX_FRAME_OFFSET + len);
+                       skb_pull(skb, BGMAC_RX_FRAME_OFFSET);
+                       skb_checksum_none_assert(skb);
+                       skb->protocol = eth_type_trans(skb, bgmac->net_dev);
+-                      netif_receive_skb(skb);
++                      napi_gro_receive(&bgmac->napi, skb);
+                       handled++;
+               } while (0);
+@@ -434,12 +435,11 @@ static bool bgmac_dma_unaligned(struct b
+       return false;
+ }
+-static void bgmac_dma_ring_free(struct bgmac *bgmac,
+-                              struct bgmac_dma_ring *ring)
++static void bgmac_dma_tx_ring_free(struct bgmac *bgmac,
++                                 struct bgmac_dma_ring *ring)
+ {
+       struct device *dma_dev = bgmac->core->dma_dev;
+       struct bgmac_slot_info *slot;
+-      int size;
+       int i;
+       for (i = 0; i < ring->num_slots; i++) {
+@@ -451,23 +451,55 @@ static void bgmac_dma_ring_free(struct b
+                       dev_kfree_skb(slot->skb);
+               }
+       }
++}
++
++static void bgmac_dma_rx_ring_free(struct bgmac *bgmac,
++                                 struct bgmac_dma_ring *ring)
++{
++      struct device *dma_dev = bgmac->core->dma_dev;
++      struct bgmac_slot_info *slot;
++      int i;
++
++      for (i = 0; i < ring->num_slots; i++) {
++              slot = &ring->slots[i];
++              if (!slot->buf)
++                      continue;
+-      if (ring->cpu_base) {
+-              /* Free ring of descriptors */
+-              size = ring->num_slots * sizeof(struct bgmac_dma_desc);
+-              dma_free_coherent(dma_dev, size, ring->cpu_base,
+-                                ring->dma_base);
++              if (slot->dma_addr)
++                      dma_unmap_single(dma_dev, slot->dma_addr,
++                                       BGMAC_RX_BUF_SIZE,
++                                       DMA_FROM_DEVICE);
++              put_page(virt_to_head_page(slot->buf));
+       }
+ }
++static void bgmac_dma_ring_desc_free(struct bgmac *bgmac,
++                                   struct bgmac_dma_ring *ring)
++{
++      struct device *dma_dev = bgmac->core->dma_dev;
++      int size;
++
++      if (!ring->cpu_base)
++          return;
++
++      /* Free ring of descriptors */
++      size = ring->num_slots * sizeof(struct bgmac_dma_desc);
++      dma_free_coherent(dma_dev, size, ring->cpu_base,
++                        ring->dma_base);
++}
++
+ static void bgmac_dma_free(struct bgmac *bgmac)
+ {
+       int i;
+-      for (i = 0; i < BGMAC_MAX_TX_RINGS; i++)
+-              bgmac_dma_ring_free(bgmac, &bgmac->tx_ring[i]);
+-      for (i = 0; i < BGMAC_MAX_RX_RINGS; i++)
+-              bgmac_dma_ring_free(bgmac, &bgmac->rx_ring[i]);
++      for (i = 0; i < BGMAC_MAX_TX_RINGS; i++) {
++              bgmac_dma_tx_ring_free(bgmac, &bgmac->tx_ring[i]);
++              bgmac_dma_ring_desc_free(bgmac, &bgmac->tx_ring[i]);
++      }
++      for (i = 0; i < BGMAC_MAX_RX_RINGS; i++) {
++              bgmac_dma_rx_ring_free(bgmac, &bgmac->rx_ring[i]);
++              bgmac_dma_ring_desc_free(bgmac, &bgmac->rx_ring[i]);
++      }
+ }
+ static int bgmac_dma_alloc(struct bgmac *bgmac)
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -362,6 +362,8 @@
+ #define BGMAC_RX_FRAME_OFFSET                 30              /* There are 2 unused bytes between header and real data */
+ #define BGMAC_RX_MAX_FRAME_SIZE                       1536            /* Copied from b44/tg3 */
+ #define BGMAC_RX_BUF_SIZE                     (BGMAC_RX_FRAME_OFFSET + BGMAC_RX_MAX_FRAME_SIZE)
++#define BGMAC_RX_ALLOC_SIZE                   (SKB_DATA_ALIGN(BGMAC_RX_BUF_SIZE) + \
++                                               SKB_DATA_ALIGN(sizeof(struct skb_shared_info)))
+ #define BGMAC_BFL_ENETROBO                    0x0010          /* has ephy roboswitch spi */
+ #define BGMAC_BFL_ENETADM                     0x0080          /* has ADMtek switch */
+@@ -383,7 +385,10 @@
+ #define ETHER_MAX_LEN   1518
+ struct bgmac_slot_info {
+-      struct sk_buff *skb;
++      union {
++              struct sk_buff *skb;
++              void *buf;
++      };
+       dma_addr_t dma_addr;
+ };
diff --git a/trunk/target/linux/generic/patches-3.18/077-03-bgmac-implement-scatter-gather-support.patch b/trunk/target/linux/generic/patches-3.18/077-03-bgmac-implement-scatter-gather-support.patch
new file mode 100644 (file)
index 0000000..5cb21a5
--- /dev/null
@@ -0,0 +1,267 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Mon, 23 Mar 2015 02:42:26 +0100
+Subject: [PATCH] bgmac: implement scatter/gather support
+
+Always use software checksumming, since the hardware does not have any
+checksum offload support.
+This significantly improves local TCP tx performance.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -115,53 +115,91 @@ static void bgmac_dma_tx_enable(struct b
+       bgmac_write(bgmac, ring->mmio_base + BGMAC_DMA_TX_CTL, ctl);
+ }
++static void
++bgmac_dma_tx_add_buf(struct bgmac *bgmac, struct bgmac_dma_ring *ring,
++                   int i, int len, u32 ctl0)
++{
++      struct bgmac_slot_info *slot;
++      struct bgmac_dma_desc *dma_desc;
++      u32 ctl1;
++
++      if (i == ring->num_slots - 1)
++              ctl0 |= BGMAC_DESC_CTL0_EOT;
++
++      ctl1 = len & BGMAC_DESC_CTL1_LEN;
++
++      slot = &ring->slots[i];
++      dma_desc = &ring->cpu_base[i];
++      dma_desc->addr_low = cpu_to_le32(lower_32_bits(slot->dma_addr));
++      dma_desc->addr_high = cpu_to_le32(upper_32_bits(slot->dma_addr));
++      dma_desc->ctl0 = cpu_to_le32(ctl0);
++      dma_desc->ctl1 = cpu_to_le32(ctl1);
++}
++
+ static netdev_tx_t bgmac_dma_tx_add(struct bgmac *bgmac,
+                                   struct bgmac_dma_ring *ring,
+                                   struct sk_buff *skb)
+ {
+       struct device *dma_dev = bgmac->core->dma_dev;
+       struct net_device *net_dev = bgmac->net_dev;
+-      struct bgmac_dma_desc *dma_desc;
+-      struct bgmac_slot_info *slot;
+-      u32 ctl0, ctl1;
++      struct bgmac_slot_info *slot = &ring->slots[ring->end];
+       int free_slots;
++      int nr_frags;
++      u32 flags;
++      int index = ring->end;
++      int i;
+       if (skb->len > BGMAC_DESC_CTL1_LEN) {
+               bgmac_err(bgmac, "Too long skb (%d)\n", skb->len);
+-              goto err_stop_drop;
++              goto err_drop;
+       }
++      if (skb->ip_summed == CHECKSUM_PARTIAL)
++              skb_checksum_help(skb);
++
++      nr_frags = skb_shinfo(skb)->nr_frags;
++
+       if (ring->start <= ring->end)
+               free_slots = ring->start - ring->end + BGMAC_TX_RING_SLOTS;
+       else
+               free_slots = ring->start - ring->end;
+-      if (free_slots == 1) {
++
++      if (free_slots <= nr_frags + 1) {
+               bgmac_err(bgmac, "TX ring is full, queue should be stopped!\n");
+               netif_stop_queue(net_dev);
+               return NETDEV_TX_BUSY;
+       }
+-      slot = &ring->slots[ring->end];
+-      slot->skb = skb;
+-      slot->dma_addr = dma_map_single(dma_dev, skb->data, skb->len,
++      slot->dma_addr = dma_map_single(dma_dev, skb->data, skb_headlen(skb),
+                                       DMA_TO_DEVICE);
+-      if (dma_mapping_error(dma_dev, slot->dma_addr)) {
+-              bgmac_err(bgmac, "Mapping error of skb on ring 0x%X\n",
+-                        ring->mmio_base);
+-              goto err_stop_drop;
+-      }
++      if (unlikely(dma_mapping_error(dma_dev, slot->dma_addr)))
++              goto err_dma_head;
+-      ctl0 = BGMAC_DESC_CTL0_IOC | BGMAC_DESC_CTL0_SOF | BGMAC_DESC_CTL0_EOF;
+-      if (ring->end == ring->num_slots - 1)
+-              ctl0 |= BGMAC_DESC_CTL0_EOT;
+-      ctl1 = skb->len & BGMAC_DESC_CTL1_LEN;
++      flags = BGMAC_DESC_CTL0_SOF;
++      if (!nr_frags)
++              flags |= BGMAC_DESC_CTL0_EOF | BGMAC_DESC_CTL0_IOC;
++
++      bgmac_dma_tx_add_buf(bgmac, ring, index, skb_headlen(skb), flags);
++      flags = 0;
++
++      for (i = 0; i < nr_frags; i++) {
++              struct skb_frag_struct *frag = &skb_shinfo(skb)->frags[i];
++              int len = skb_frag_size(frag);
++
++              index = (index + 1) % BGMAC_TX_RING_SLOTS;
++              slot = &ring->slots[index];
++              slot->dma_addr = skb_frag_dma_map(dma_dev, frag, 0,
++                                                len, DMA_TO_DEVICE);
++              if (unlikely(dma_mapping_error(dma_dev, slot->dma_addr)))
++                      goto err_dma;
+-      dma_desc = ring->cpu_base;
+-      dma_desc += ring->end;
+-      dma_desc->addr_low = cpu_to_le32(lower_32_bits(slot->dma_addr));
+-      dma_desc->addr_high = cpu_to_le32(upper_32_bits(slot->dma_addr));
+-      dma_desc->ctl0 = cpu_to_le32(ctl0);
+-      dma_desc->ctl1 = cpu_to_le32(ctl1);
++              if (i == nr_frags - 1)
++                      flags |= BGMAC_DESC_CTL0_EOF | BGMAC_DESC_CTL0_IOC;
++
++              bgmac_dma_tx_add_buf(bgmac, ring, index, len, flags);
++      }
++
++      slot->skb = skb;
+       netdev_sent_queue(net_dev, skb->len);
+@@ -170,20 +208,35 @@ static netdev_tx_t bgmac_dma_tx_add(stru
+       /* Increase ring->end to point empty slot. We tell hardware the first
+        * slot it should *not* read.
+        */
+-      if (++ring->end >= BGMAC_TX_RING_SLOTS)
+-              ring->end = 0;
++      ring->end = (index + 1) % BGMAC_TX_RING_SLOTS;
+       bgmac_write(bgmac, ring->mmio_base + BGMAC_DMA_TX_INDEX,
+                   ring->index_base +
+                   ring->end * sizeof(struct bgmac_dma_desc));
+-      /* Always keep one slot free to allow detecting bugged calls. */
+-      if (--free_slots == 1)
++      free_slots -= nr_frags + 1;
++      if (free_slots < 8)
+               netif_stop_queue(net_dev);
+       return NETDEV_TX_OK;
+-err_stop_drop:
+-      netif_stop_queue(net_dev);
++err_dma:
++      dma_unmap_single(dma_dev, slot->dma_addr, skb_headlen(skb),
++                       DMA_TO_DEVICE);
++
++      while (i > 0) {
++              int index = (ring->end + i) % BGMAC_TX_RING_SLOTS;
++              struct bgmac_slot_info *slot = &ring->slots[index];
++              u32 ctl1 = le32_to_cpu(ring->cpu_base[index].ctl1);
++              int len = ctl1 & BGMAC_DESC_CTL1_LEN;
++
++              dma_unmap_page(dma_dev, slot->dma_addr, len, DMA_TO_DEVICE);
++      }
++
++err_dma_head:
++      bgmac_err(bgmac, "Mapping error of skb on ring 0x%X\n",
++                ring->mmio_base);
++
++err_drop:
+       dev_kfree_skb(skb);
+       return NETDEV_TX_OK;
+ }
+@@ -205,32 +258,45 @@ static void bgmac_dma_tx_free(struct bgm
+       while (ring->start != empty_slot) {
+               struct bgmac_slot_info *slot = &ring->slots[ring->start];
++              u32 ctl1 = le32_to_cpu(ring->cpu_base[ring->start].ctl1);
++              int len = ctl1 & BGMAC_DESC_CTL1_LEN;
+-              if (slot->skb) {
++              if (!slot->dma_addr) {
++                      bgmac_err(bgmac, "Hardware reported transmission for empty TX ring slot %d! End of ring: %d\n",
++                                ring->start, ring->end);
++                      goto next;
++              }
++
++              if (ctl1 & BGMAC_DESC_CTL0_SOF)
+                       /* Unmap no longer used buffer */
+-                      dma_unmap_single(dma_dev, slot->dma_addr,
+-                                       slot->skb->len, DMA_TO_DEVICE);
+-                      slot->dma_addr = 0;
++                      dma_unmap_single(dma_dev, slot->dma_addr, len,
++                                       DMA_TO_DEVICE);
++              else
++                      dma_unmap_page(dma_dev, slot->dma_addr, len,
++                                     DMA_TO_DEVICE);
++              if (slot->skb) {
+                       bytes_compl += slot->skb->len;
+                       pkts_compl++;
+                       /* Free memory! :) */
+                       dev_kfree_skb(slot->skb);
+                       slot->skb = NULL;
+-              } else {
+-                      bgmac_err(bgmac, "Hardware reported transmission for empty TX ring slot %d! End of ring: %d\n",
+-                                ring->start, ring->end);
+               }
++next:
++              slot->dma_addr = 0;
+               if (++ring->start >= BGMAC_TX_RING_SLOTS)
+                       ring->start = 0;
+               freed = true;
+       }
++      if (!pkts_compl)
++              return;
++
+       netdev_completed_queue(bgmac->net_dev, pkts_compl, bytes_compl);
+-      if (freed && netif_queue_stopped(bgmac->net_dev))
++      if (netif_queue_stopped(bgmac->net_dev))
+               netif_wake_queue(bgmac->net_dev);
+ }
+@@ -439,17 +505,25 @@ static void bgmac_dma_tx_ring_free(struc
+                                  struct bgmac_dma_ring *ring)
+ {
+       struct device *dma_dev = bgmac->core->dma_dev;
++      struct bgmac_dma_desc *dma_desc = ring->cpu_base;
+       struct bgmac_slot_info *slot;
+       int i;
+       for (i = 0; i < ring->num_slots; i++) {
++              int len = dma_desc[i].ctl1 & BGMAC_DESC_CTL1_LEN;
++
+               slot = &ring->slots[i];
+-              if (slot->skb) {
+-                      if (slot->dma_addr)
+-                              dma_unmap_single(dma_dev, slot->dma_addr,
+-                                               slot->skb->len, DMA_TO_DEVICE);
+-                      dev_kfree_skb(slot->skb);
+-              }
++              dev_kfree_skb(slot->skb);
++
++              if (!slot->dma_addr)
++                      continue;
++
++              if (slot->skb)
++                      dma_unmap_single(dma_dev, slot->dma_addr,
++                                       len, DMA_TO_DEVICE);
++              else
++                      dma_unmap_page(dma_dev, slot->dma_addr,
++                                     len, DMA_TO_DEVICE);
+       }
+ }
+@@ -1583,6 +1657,10 @@ static int bgmac_probe(struct bcma_devic
+               goto err_dma_free;
+       }
++      net_dev->features = NETIF_F_SG | NETIF_F_IP_CSUM | NETIF_F_IPV6_CSUM;
++      net_dev->hw_features = net_dev->features;
++      net_dev->vlan_features = net_dev->features;
++
+       err = register_netdev(bgmac->net_dev);
+       if (err) {
+               bgmac_err(bgmac, "Cannot register net device\n");
diff --git a/trunk/target/linux/generic/patches-3.18/077-04-bgmac-simplify-tx-ring-index-handling.patch b/trunk/target/linux/generic/patches-3.18/077-04-bgmac-simplify-tx-ring-index-handling.patch
new file mode 100644 (file)
index 0000000..241a308
--- /dev/null
@@ -0,0 +1,125 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 09:58:56 +0200
+Subject: [PATCH] bgmac: simplify tx ring index handling
+
+Keep incrementing ring->start and ring->end instead of pointing it to
+the actual ring slot entry. This simplifies the calculation of the
+number of free slots.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -142,11 +142,10 @@ static netdev_tx_t bgmac_dma_tx_add(stru
+ {
+       struct device *dma_dev = bgmac->core->dma_dev;
+       struct net_device *net_dev = bgmac->net_dev;
+-      struct bgmac_slot_info *slot = &ring->slots[ring->end];
+-      int free_slots;
++      int index = ring->end % BGMAC_TX_RING_SLOTS;
++      struct bgmac_slot_info *slot = &ring->slots[index];
+       int nr_frags;
+       u32 flags;
+-      int index = ring->end;
+       int i;
+       if (skb->len > BGMAC_DESC_CTL1_LEN) {
+@@ -159,12 +158,10 @@ static netdev_tx_t bgmac_dma_tx_add(stru
+       nr_frags = skb_shinfo(skb)->nr_frags;
+-      if (ring->start <= ring->end)
+-              free_slots = ring->start - ring->end + BGMAC_TX_RING_SLOTS;
+-      else
+-              free_slots = ring->start - ring->end;
+-
+-      if (free_slots <= nr_frags + 1) {
++      /* ring->end - ring->start will return the number of valid slots,
++       * even when ring->end overflows
++       */
++      if (ring->end - ring->start + nr_frags + 1 >= BGMAC_TX_RING_SLOTS) {
+               bgmac_err(bgmac, "TX ring is full, queue should be stopped!\n");
+               netif_stop_queue(net_dev);
+               return NETDEV_TX_BUSY;
+@@ -200,7 +197,7 @@ static netdev_tx_t bgmac_dma_tx_add(stru
+       }
+       slot->skb = skb;
+-
++      ring->end += nr_frags + 1;
+       netdev_sent_queue(net_dev, skb->len);
+       wmb();
+@@ -208,13 +205,12 @@ static netdev_tx_t bgmac_dma_tx_add(stru
+       /* Increase ring->end to point empty slot. We tell hardware the first
+        * slot it should *not* read.
+        */
+-      ring->end = (index + 1) % BGMAC_TX_RING_SLOTS;
+       bgmac_write(bgmac, ring->mmio_base + BGMAC_DMA_TX_INDEX,
+                   ring->index_base +
+-                  ring->end * sizeof(struct bgmac_dma_desc));
++                  (ring->end % BGMAC_TX_RING_SLOTS) *
++                  sizeof(struct bgmac_dma_desc));
+-      free_slots -= nr_frags + 1;
+-      if (free_slots < 8)
++      if (ring->end - ring->start >= BGMAC_TX_RING_SLOTS - 8)
+               netif_stop_queue(net_dev);
+       return NETDEV_TX_OK;
+@@ -256,17 +252,17 @@ static void bgmac_dma_tx_free(struct bgm
+       empty_slot &= BGMAC_DMA_TX_STATDPTR;
+       empty_slot /= sizeof(struct bgmac_dma_desc);
+-      while (ring->start != empty_slot) {
+-              struct bgmac_slot_info *slot = &ring->slots[ring->start];
+-              u32 ctl1 = le32_to_cpu(ring->cpu_base[ring->start].ctl1);
+-              int len = ctl1 & BGMAC_DESC_CTL1_LEN;
++      while (ring->start != ring->end) {
++              int slot_idx = ring->start % BGMAC_TX_RING_SLOTS;
++              struct bgmac_slot_info *slot = &ring->slots[slot_idx];
++              u32 ctl1;
++              int len;
+-              if (!slot->dma_addr) {
+-                      bgmac_err(bgmac, "Hardware reported transmission for empty TX ring slot %d! End of ring: %d\n",
+-                                ring->start, ring->end);
+-                      goto next;
+-              }
++              if (slot_idx == empty_slot)
++                      break;
++              ctl1 = le32_to_cpu(ring->cpu_base[slot_idx].ctl1);
++              len = ctl1 & BGMAC_DESC_CTL1_LEN;
+               if (ctl1 & BGMAC_DESC_CTL0_SOF)
+                       /* Unmap no longer used buffer */
+                       dma_unmap_single(dma_dev, slot->dma_addr, len,
+@@ -284,10 +280,8 @@ static void bgmac_dma_tx_free(struct bgm
+                       slot->skb = NULL;
+               }
+-next:
+               slot->dma_addr = 0;
+-              if (++ring->start >= BGMAC_TX_RING_SLOTS)
+-                      ring->start = 0;
++              ring->start++;
+               freed = true;
+       }
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -414,10 +414,10 @@ enum bgmac_dma_ring_type {
+  * empty.
+  */
+ struct bgmac_dma_ring {
+-      u16 num_slots;
+-      u16 start;
+-      u16 end;
++      u32 start;
++      u32 end;
++      u16 num_slots;
+       u16 mmio_base;
+       struct bgmac_dma_desc *cpu_base;
+       dma_addr_t dma_base;
diff --git a/trunk/target/linux/generic/patches-3.18/077-05-bgmac-leave-interrupts-disabled-as-long-as-there-is-.patch b/trunk/target/linux/generic/patches-3.18/077-05-bgmac-leave-interrupts-disabled-as-long-as-there-is-.patch
new file mode 100644 (file)
index 0000000..3bbe9ea
--- /dev/null
@@ -0,0 +1,87 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 10:08:04 +0200
+Subject: [PATCH] bgmac: leave interrupts disabled as long as there is work
+ to do
+
+Always poll rx and tx during NAPI poll instead of relying on the status
+of the first interrupt. This prevents bgmac_poll from leaving unfinished
+work around until the next IRQ.
+In my tests this makes bridging/routing throughput under heavy load more
+stable and ensures that no new IRQs arrive as long as bgmac_poll uses up
+the entire budget.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -1109,8 +1109,6 @@ static void bgmac_chip_reset(struct bgma
+       bgmac_phy_init(bgmac);
+       netdev_reset_queue(bgmac->net_dev);
+-
+-      bgmac->int_status = 0;
+ }
+ static void bgmac_chip_intrs_on(struct bgmac *bgmac)
+@@ -1225,14 +1223,13 @@ static irqreturn_t bgmac_interrupt(int i
+       if (!int_status)
+               return IRQ_NONE;
+-      /* Ack */
+-      bgmac_write(bgmac, BGMAC_INT_STATUS, int_status);
++      int_status &= ~(BGMAC_IS_TX0 | BGMAC_IS_RX);
++      if (int_status)
++              bgmac_err(bgmac, "Unknown IRQs: 0x%08X\n", int_status);
+       /* Disable new interrupts until handling existing ones */
+       bgmac_chip_intrs_off(bgmac);
+-      bgmac->int_status = int_status;
+-
+       napi_schedule(&bgmac->napi);
+       return IRQ_HANDLED;
+@@ -1241,25 +1238,17 @@ static irqreturn_t bgmac_interrupt(int i
+ static int bgmac_poll(struct napi_struct *napi, int weight)
+ {
+       struct bgmac *bgmac = container_of(napi, struct bgmac, napi);
+-      struct bgmac_dma_ring *ring;
+       int handled = 0;
+-      if (bgmac->int_status & BGMAC_IS_TX0) {
+-              ring = &bgmac->tx_ring[0];
+-              bgmac_dma_tx_free(bgmac, ring);
+-              bgmac->int_status &= ~BGMAC_IS_TX0;
+-      }
++      /* Ack */
++      bgmac_write(bgmac, BGMAC_INT_STATUS, ~0);
+-      if (bgmac->int_status & BGMAC_IS_RX) {
+-              ring = &bgmac->rx_ring[0];
+-              handled += bgmac_dma_rx_read(bgmac, ring, weight);
+-              bgmac->int_status &= ~BGMAC_IS_RX;
+-      }
++      bgmac_dma_tx_free(bgmac, &bgmac->tx_ring[0]);
++      handled += bgmac_dma_rx_read(bgmac, &bgmac->rx_ring[0], weight);
+-      if (bgmac->int_status) {
+-              bgmac_err(bgmac, "Unknown IRQs: 0x%08X\n", bgmac->int_status);
+-              bgmac->int_status = 0;
+-      }
++      /* Poll again if more events arrived in the meantime */
++      if (bgmac_read(bgmac, BGMAC_INT_STATUS) & (BGMAC_IS_TX0 | BGMAC_IS_RX))
++              return handled;
+       if (handled < weight) {
+               napi_complete(napi);
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -452,7 +452,6 @@ struct bgmac {
+       /* Int */
+       u32 int_mask;
+-      u32 int_status;
+       /* Current MAC state */
+       int mac_speed;
diff --git a/trunk/target/linux/generic/patches-3.18/077-06-bgmac-set-received-skb-headroom-to-NET_SKB_PAD.patch b/trunk/target/linux/generic/patches-3.18/077-06-bgmac-set-received-skb-headroom-to-NET_SKB_PAD.patch
new file mode 100644 (file)
index 0000000..2c490ef
--- /dev/null
@@ -0,0 +1,66 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 10:13:28 +0200
+Subject: [PATCH] bgmac: set received skb headroom to NET_SKB_PAD
+
+A packet buffer offset of 30 bytes is inefficient, because the first 2
+bytes end up in a different cacheline.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -346,13 +346,13 @@ static int bgmac_dma_rx_skb_for_slot(str
+               return -ENOMEM;
+       /* Poison - if everything goes fine, hardware will overwrite it */
+-      rx = buf;
++      rx = buf + BGMAC_RX_BUF_OFFSET;
+       rx->len = cpu_to_le16(0xdead);
+       rx->flags = cpu_to_le16(0xbeef);
+       /* Map skb for the DMA */
+-      dma_addr = dma_map_single(dma_dev, buf, BGMAC_RX_BUF_SIZE,
+-                                DMA_FROM_DEVICE);
++      dma_addr = dma_map_single(dma_dev, buf + BGMAC_RX_BUF_OFFSET,
++                                BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
+       if (dma_mapping_error(dma_dev, dma_addr)) {
+               bgmac_err(bgmac, "DMA mapping error\n");
+               put_page(virt_to_head_page(buf));
+@@ -403,7 +403,7 @@ static int bgmac_dma_rx_read(struct bgma
+       while (ring->start != ring->end) {
+               struct device *dma_dev = bgmac->core->dma_dev;
+               struct bgmac_slot_info *slot = &ring->slots[ring->start];
+-              struct bgmac_rx_header *rx = slot->buf;
++              struct bgmac_rx_header *rx = slot->buf + BGMAC_RX_BUF_OFFSET;
+               struct sk_buff *skb;
+               void *buf = slot->buf;
+               u16 len, flags;
+@@ -454,8 +454,10 @@ static int bgmac_dma_rx_read(struct bgma
+                                        BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
+                       skb = build_skb(buf, BGMAC_RX_ALLOC_SIZE);
+-                      skb_put(skb, BGMAC_RX_FRAME_OFFSET + len);
+-                      skb_pull(skb, BGMAC_RX_FRAME_OFFSET);
++                      skb_put(skb, BGMAC_RX_FRAME_OFFSET +
++                              BGMAC_RX_BUF_OFFSET + len);
++                      skb_pull(skb, BGMAC_RX_FRAME_OFFSET +
++                               BGMAC_RX_BUF_OFFSET);
+                       skb_checksum_none_assert(skb);
+                       skb->protocol = eth_type_trans(skb, bgmac->net_dev);
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -360,9 +360,11 @@
+ #define BGMAC_RX_HEADER_LEN                   28              /* Last 24 bytes are unused. Well... */
+ #define BGMAC_RX_FRAME_OFFSET                 30              /* There are 2 unused bytes between header and real data */
++#define BGMAC_RX_BUF_OFFSET                   (NET_SKB_PAD + NET_IP_ALIGN - \
++                                               BGMAC_RX_FRAME_OFFSET)
+ #define BGMAC_RX_MAX_FRAME_SIZE                       1536            /* Copied from b44/tg3 */
+ #define BGMAC_RX_BUF_SIZE                     (BGMAC_RX_FRAME_OFFSET + BGMAC_RX_MAX_FRAME_SIZE)
+-#define BGMAC_RX_ALLOC_SIZE                   (SKB_DATA_ALIGN(BGMAC_RX_BUF_SIZE) + \
++#define BGMAC_RX_ALLOC_SIZE                   (SKB_DATA_ALIGN(BGMAC_RX_BUF_SIZE + BGMAC_RX_BUF_OFFSET) + \
+                                                SKB_DATA_ALIGN(sizeof(struct skb_shared_info)))
+ #define BGMAC_BFL_ENETROBO                    0x0010          /* has ephy roboswitch spi */
diff --git a/trunk/target/linux/generic/patches-3.18/077-07-bgmac-simplify-rx-DMA-error-handling.patch b/trunk/target/linux/generic/patches-3.18/077-07-bgmac-simplify-rx-DMA-error-handling.patch
new file mode 100644 (file)
index 0000000..2ca9d10
--- /dev/null
@@ -0,0 +1,130 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 22:23:07 +0200
+Subject: [PATCH] bgmac: simplify/optimize rx DMA error handling
+
+Allocate a new buffer before processing the completed one. If allocation
+fails, reuse the old buffer.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -386,6 +386,19 @@ static void bgmac_dma_rx_setup_desc(stru
+       dma_desc->ctl1 = cpu_to_le32(ctl1);
+ }
++static void bgmac_dma_rx_poison_buf(struct device *dma_dev,
++                                  struct bgmac_slot_info *slot)
++{
++      struct bgmac_rx_header *rx = slot->buf + BGMAC_RX_BUF_OFFSET;
++
++      dma_sync_single_for_cpu(dma_dev, slot->dma_addr, BGMAC_RX_BUF_SIZE,
++                              DMA_FROM_DEVICE);
++      rx->len = cpu_to_le16(0xdead);
++      rx->flags = cpu_to_le16(0xbeef);
++      dma_sync_single_for_device(dma_dev, slot->dma_addr, BGMAC_RX_BUF_SIZE,
++                                 DMA_FROM_DEVICE);
++}
++
+ static int bgmac_dma_rx_read(struct bgmac *bgmac, struct bgmac_dma_ring *ring,
+                            int weight)
+ {
+@@ -406,53 +419,35 @@ static int bgmac_dma_rx_read(struct bgma
+               struct bgmac_rx_header *rx = slot->buf + BGMAC_RX_BUF_OFFSET;
+               struct sk_buff *skb;
+               void *buf = slot->buf;
++              dma_addr_t dma_addr = slot->dma_addr;
+               u16 len, flags;
+-              /* Unmap buffer to make it accessible to the CPU */
+-              dma_sync_single_for_cpu(dma_dev, slot->dma_addr,
+-                                      BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
+-
+-              /* Get info from the header */
+-              len = le16_to_cpu(rx->len);
+-              flags = le16_to_cpu(rx->flags);
+-
+               do {
+-                      dma_addr_t old_dma_addr = slot->dma_addr;
+-                      int err;
++                      /* Prepare new skb as replacement */
++                      if (bgmac_dma_rx_skb_for_slot(bgmac, slot)) {
++                              bgmac_dma_rx_poison_buf(dma_dev, slot);
++                              break;
++                      }
++
++                      /* Unmap buffer to make it accessible to the CPU */
++                      dma_unmap_single(dma_dev, dma_addr,
++                                       BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
++
++                      /* Get info from the header */
++                      len = le16_to_cpu(rx->len);
++                      flags = le16_to_cpu(rx->flags);
+                       /* Check for poison and drop or pass the packet */
+                       if (len == 0xdead && flags == 0xbeef) {
+                               bgmac_err(bgmac, "Found poisoned packet at slot %d, DMA issue!\n",
+                                         ring->start);
+-                              dma_sync_single_for_device(dma_dev,
+-                                                         slot->dma_addr,
+-                                                         BGMAC_RX_BUF_SIZE,
+-                                                         DMA_FROM_DEVICE);
++                              put_page(virt_to_head_page(buf));
+                               break;
+                       }
+                       /* Omit CRC. */
+                       len -= ETH_FCS_LEN;
+-                      /* Prepare new skb as replacement */
+-                      err = bgmac_dma_rx_skb_for_slot(bgmac, slot);
+-                      if (err) {
+-                              /* Poison the old skb */
+-                              rx->len = cpu_to_le16(0xdead);
+-                              rx->flags = cpu_to_le16(0xbeef);
+-
+-                              dma_sync_single_for_device(dma_dev,
+-                                                         slot->dma_addr,
+-                                                         BGMAC_RX_BUF_SIZE,
+-                                                         DMA_FROM_DEVICE);
+-                              break;
+-                      }
+-                      bgmac_dma_rx_setup_desc(bgmac, ring, ring->start);
+-
+-                      /* Unmap old skb, we'll pass it to the netfif */
+-                      dma_unmap_single(dma_dev, old_dma_addr,
+-                                       BGMAC_RX_BUF_SIZE, DMA_FROM_DEVICE);
+-
+                       skb = build_skb(buf, BGMAC_RX_ALLOC_SIZE);
+                       skb_put(skb, BGMAC_RX_FRAME_OFFSET +
+                               BGMAC_RX_BUF_OFFSET + len);
+@@ -465,6 +460,8 @@ static int bgmac_dma_rx_read(struct bgma
+                       handled++;
+               } while (0);
++              bgmac_dma_rx_setup_desc(bgmac, ring, ring->start);
++
+               if (++ring->start >= BGMAC_RX_RING_SLOTS)
+                       ring->start = 0;
+@@ -532,14 +529,14 @@ static void bgmac_dma_rx_ring_free(struc
+       for (i = 0; i < ring->num_slots; i++) {
+               slot = &ring->slots[i];
+-              if (!slot->buf)
++              if (!slot->dma_addr)
+                       continue;
+-              if (slot->dma_addr)
+-                      dma_unmap_single(dma_dev, slot->dma_addr,
+-                                       BGMAC_RX_BUF_SIZE,
+-                                       DMA_FROM_DEVICE);
++              dma_unmap_single(dma_dev, slot->dma_addr,
++                               BGMAC_RX_BUF_SIZE,
++                               DMA_FROM_DEVICE);
+               put_page(virt_to_head_page(slot->buf));
++              slot->dma_addr = 0;
+       }
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/077-08-bgmac-add-check-for-oversized-packets.patch b/trunk/target/linux/generic/patches-3.18/077-08-bgmac-add-check-for-oversized-packets.patch
new file mode 100644 (file)
index 0000000..705aa2d
--- /dev/null
@@ -0,0 +1,27 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 22:28:20 +0200
+Subject: [PATCH] bgmac: add check for oversized packets
+
+In very rare cases, the MAC can catch an internal buffer that is bigger
+than it's supposed to be. Instead of crashing the kernel, simply pass
+the buffer back to the hardware
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -445,6 +445,13 @@ static int bgmac_dma_rx_read(struct bgma
+                               break;
+                       }
++                      if (len > BGMAC_RX_ALLOC_SIZE) {
++                              bgmac_err(bgmac, "Found oversized packet at slot %d, DMA issue!\n",
++                                        ring->start);
++                              put_page(virt_to_head_page(buf));
++                              break;
++                      }
++
+                       /* Omit CRC. */
+                       len -= ETH_FCS_LEN;
diff --git a/trunk/target/linux/generic/patches-3.18/077-09-bgmac-increase-rx-ring-size-from-511-to-512.patch b/trunk/target/linux/generic/patches-3.18/077-09-bgmac-increase-rx-ring-size-from-511-to-512.patch
new file mode 100644 (file)
index 0000000..4888cc3
--- /dev/null
@@ -0,0 +1,23 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 22:36:16 +0200
+Subject: [PATCH] bgmac: increase rx ring size from 511 to 512
+
+Limiting it to 511 looks like a failed attempt at leaving one descriptor
+empty to allow the hardware to stop processing a buffer that has not
+been prepared yet. However, this doesn't work because this affects the
+total ring size as well
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -356,7 +356,7 @@
+ #define BGMAC_MAX_RX_RINGS                    1
+ #define BGMAC_TX_RING_SLOTS                   128
+-#define BGMAC_RX_RING_SLOTS                   512 - 1         /* Why -1? Well, Broadcom does that... */
++#define BGMAC_RX_RING_SLOTS                   512
+ #define BGMAC_RX_HEADER_LEN                   28              /* Last 24 bytes are unused. Well... */
+ #define BGMAC_RX_FRAME_OFFSET                 30              /* There are 2 unused bytes between header and real data */
diff --git a/trunk/target/linux/generic/patches-3.18/077-10-bgmac-simplify-dma-init-cleanup.patch b/trunk/target/linux/generic/patches-3.18/077-10-bgmac-simplify-dma-init-cleanup.patch
new file mode 100644 (file)
index 0000000..ed03db0
--- /dev/null
@@ -0,0 +1,184 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 23:19:32 +0200
+Subject: [PATCH] bgmac: simplify dma init/cleanup
+
+Instead of allocating buffers at device init time and initializing
+descriptors at device open, do both at the same time (during open).
+Free all buffers when closing the device.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -562,18 +562,26 @@ static void bgmac_dma_ring_desc_free(str
+                         ring->dma_base);
+ }
+-static void bgmac_dma_free(struct bgmac *bgmac)
++static void bgmac_dma_cleanup(struct bgmac *bgmac)
+ {
+       int i;
+-      for (i = 0; i < BGMAC_MAX_TX_RINGS; i++) {
++      for (i = 0; i < BGMAC_MAX_TX_RINGS; i++)
+               bgmac_dma_tx_ring_free(bgmac, &bgmac->tx_ring[i]);
+-              bgmac_dma_ring_desc_free(bgmac, &bgmac->tx_ring[i]);
+-      }
+-      for (i = 0; i < BGMAC_MAX_RX_RINGS; i++) {
++
++      for (i = 0; i < BGMAC_MAX_RX_RINGS; i++)
+               bgmac_dma_rx_ring_free(bgmac, &bgmac->rx_ring[i]);
++}
++
++static void bgmac_dma_free(struct bgmac *bgmac)
++{
++      int i;
++
++      for (i = 0; i < BGMAC_MAX_TX_RINGS; i++)
++              bgmac_dma_ring_desc_free(bgmac, &bgmac->tx_ring[i]);
++
++      for (i = 0; i < BGMAC_MAX_RX_RINGS; i++)
+               bgmac_dma_ring_desc_free(bgmac, &bgmac->rx_ring[i]);
+-      }
+ }
+ static int bgmac_dma_alloc(struct bgmac *bgmac)
+@@ -621,8 +629,6 @@ static int bgmac_dma_alloc(struct bgmac 
+       }
+       for (i = 0; i < BGMAC_MAX_RX_RINGS; i++) {
+-              int j;
+-
+               ring = &bgmac->rx_ring[i];
+               ring->num_slots = BGMAC_RX_RING_SLOTS;
+               ring->mmio_base = ring_base[i];
+@@ -645,15 +651,6 @@ static int bgmac_dma_alloc(struct bgmac 
+                       ring->index_base = lower_32_bits(ring->dma_base);
+               else
+                       ring->index_base = 0;
+-
+-              /* Alloc RX slots */
+-              for (j = 0; j < ring->num_slots; j++) {
+-                      err = bgmac_dma_rx_skb_for_slot(bgmac, &ring->slots[j]);
+-                      if (err) {
+-                              bgmac_err(bgmac, "Can't allocate skb for slot in RX ring\n");
+-                              goto err_dma_free;
+-                      }
+-              }
+       }
+       return 0;
+@@ -663,10 +660,10 @@ err_dma_free:
+       return -ENOMEM;
+ }
+-static void bgmac_dma_init(struct bgmac *bgmac)
++static int bgmac_dma_init(struct bgmac *bgmac)
+ {
+       struct bgmac_dma_ring *ring;
+-      int i;
++      int i, err;
+       for (i = 0; i < BGMAC_MAX_TX_RINGS; i++) {
+               ring = &bgmac->tx_ring[i];
+@@ -698,8 +695,13 @@ static void bgmac_dma_init(struct bgmac 
+               if (ring->unaligned)
+                       bgmac_dma_rx_enable(bgmac, ring);
+-              for (j = 0; j < ring->num_slots; j++)
++              for (j = 0; j < ring->num_slots; j++) {
++                      err = bgmac_dma_rx_skb_for_slot(bgmac, &ring->slots[j]);
++                      if (err)
++                              goto error;
++
+                       bgmac_dma_rx_setup_desc(bgmac, ring, j);
++              }
+               bgmac_write(bgmac, ring->mmio_base + BGMAC_DMA_RX_INDEX,
+                           ring->index_base +
+@@ -708,6 +710,12 @@ static void bgmac_dma_init(struct bgmac 
+               ring->start = 0;
+               ring->end = 0;
+       }
++
++      return 0;
++
++error:
++      bgmac_dma_cleanup(bgmac);
++      return err;
+ }
+ /**************************************************
+@@ -1183,11 +1191,8 @@ static void bgmac_enable(struct bgmac *b
+ }
+ /* http://bcm-v4.sipsolutions.net/mac-gbit/gmac/chipinit */
+-static void bgmac_chip_init(struct bgmac *bgmac, bool full_init)
++static void bgmac_chip_init(struct bgmac *bgmac)
+ {
+-      struct bgmac_dma_ring *ring;
+-      int i;
+-
+       /* 1 interrupt per received frame */
+       bgmac_write(bgmac, BGMAC_INT_RECV_LAZY, 1 << BGMAC_IRL_FC_SHIFT);
+@@ -1205,16 +1210,7 @@ static void bgmac_chip_init(struct bgmac
+       bgmac_write(bgmac, BGMAC_RXMAX_LENGTH, 32 + ETHER_MAX_LEN);
+-      if (full_init) {
+-              bgmac_dma_init(bgmac);
+-              if (1) /* FIXME: is there any case we don't want IRQs? */
+-                      bgmac_chip_intrs_on(bgmac);
+-      } else {
+-              for (i = 0; i < BGMAC_MAX_RX_RINGS; i++) {
+-                      ring = &bgmac->rx_ring[i];
+-                      bgmac_dma_rx_enable(bgmac, ring);
+-              }
+-      }
++      bgmac_chip_intrs_on(bgmac);
+       bgmac_enable(bgmac);
+ }
+@@ -1274,23 +1270,27 @@ static int bgmac_open(struct net_device 
+       int err = 0;
+       bgmac_chip_reset(bgmac);
++
++      err = bgmac_dma_init(bgmac);
++      if (err)
++              return err;
++
+       /* Specs say about reclaiming rings here, but we do that in DMA init */
+-      bgmac_chip_init(bgmac, true);
++      bgmac_chip_init(bgmac);
+       err = request_irq(bgmac->core->irq, bgmac_interrupt, IRQF_SHARED,
+                         KBUILD_MODNAME, net_dev);
+       if (err < 0) {
+               bgmac_err(bgmac, "IRQ request error: %d!\n", err);
+-              goto err_out;
++              bgmac_dma_cleanup(bgmac);
++              return err;
+       }
+       napi_enable(&bgmac->napi);
+       phy_start(bgmac->phy_dev);
+       netif_carrier_on(net_dev);
+-
+-err_out:
+-      return err;
++      return 0;
+ }
+ static int bgmac_stop(struct net_device *net_dev)
+@@ -1306,6 +1306,7 @@ static int bgmac_stop(struct net_device 
+       free_irq(bgmac->core->irq, net_dev);
+       bgmac_chip_reset(bgmac);
++      bgmac_dma_cleanup(bgmac);
+       return 0;
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/077-11-bgmac-fix-DMA-rx-corruption.patch b/trunk/target/linux/generic/patches-3.18/077-11-bgmac-fix-DMA-rx-corruption.patch
new file mode 100644 (file)
index 0000000..2e670d8
--- /dev/null
@@ -0,0 +1,88 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 11:59:47 +0200
+Subject: [PATCH] bgmac: fix DMA rx corruption
+
+The driver needs to inform the hardware about the first invalid (not yet
+filled) rx slot, by writing its DMA descriptor pointer offset to the
+BGMAC_DMA_RX_INDEX register.
+
+This register was set to a value exceeding the rx ring size, effectively
+allowing the hardware constant access to the full ring, regardless of
+which slots are initialized.
+
+To fix this issue, always mark the last filled rx slot as invalid.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -366,6 +366,16 @@ static int bgmac_dma_rx_skb_for_slot(str
+       return 0;
+ }
++static void bgmac_dma_rx_update_index(struct bgmac *bgmac,
++                                    struct bgmac_dma_ring *ring)
++{
++      wmb();
++
++      bgmac_write(bgmac, ring->mmio_base + BGMAC_DMA_RX_INDEX,
++                  ring->index_base +
++                  ring->end * sizeof(struct bgmac_dma_desc));
++}
++
+ static void bgmac_dma_rx_setup_desc(struct bgmac *bgmac,
+                                   struct bgmac_dma_ring *ring, int desc_idx)
+ {
+@@ -384,6 +394,8 @@ static void bgmac_dma_rx_setup_desc(stru
+       dma_desc->addr_high = cpu_to_le32(upper_32_bits(ring->slots[desc_idx].dma_addr));
+       dma_desc->ctl0 = cpu_to_le32(ctl0);
+       dma_desc->ctl1 = cpu_to_le32(ctl1);
++
++      ring->end = desc_idx;
+ }
+ static void bgmac_dma_rx_poison_buf(struct device *dma_dev,
+@@ -411,9 +423,7 @@ static int bgmac_dma_rx_read(struct bgma
+       end_slot &= BGMAC_DMA_RX_STATDPTR;
+       end_slot /= sizeof(struct bgmac_dma_desc);
+-      ring->end = end_slot;
+-
+-      while (ring->start != ring->end) {
++      while (ring->start != end_slot) {
+               struct device *dma_dev = bgmac->core->dma_dev;
+               struct bgmac_slot_info *slot = &ring->slots[ring->start];
+               struct bgmac_rx_header *rx = slot->buf + BGMAC_RX_BUF_OFFSET;
+@@ -476,6 +486,8 @@ static int bgmac_dma_rx_read(struct bgma
+                       break;
+       }
++      bgmac_dma_rx_update_index(bgmac, ring);
++
+       return handled;
+ }
+@@ -695,6 +707,8 @@ static int bgmac_dma_init(struct bgmac *
+               if (ring->unaligned)
+                       bgmac_dma_rx_enable(bgmac, ring);
++              ring->start = 0;
++              ring->end = 0;
+               for (j = 0; j < ring->num_slots; j++) {
+                       err = bgmac_dma_rx_skb_for_slot(bgmac, &ring->slots[j]);
+                       if (err)
+@@ -703,12 +717,7 @@ static int bgmac_dma_init(struct bgmac *
+                       bgmac_dma_rx_setup_desc(bgmac, ring, j);
+               }
+-              bgmac_write(bgmac, ring->mmio_base + BGMAC_DMA_RX_INDEX,
+-                          ring->index_base +
+-                          ring->num_slots * sizeof(struct bgmac_dma_desc));
+-
+-              ring->start = 0;
+-              ring->end = 0;
++              bgmac_dma_rx_update_index(bgmac, ring);
+       }
+       return 0;
diff --git a/trunk/target/linux/generic/patches-3.18/077-12-bgmac-drop-ring-num_slots.patch b/trunk/target/linux/generic/patches-3.18/077-12-bgmac-drop-ring-num_slots.patch
new file mode 100644 (file)
index 0000000..90f3e6d
--- /dev/null
@@ -0,0 +1,132 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Sun, 12 Apr 2015 23:28:38 +0200
+Subject: [PATCH] bgmac: drop ring->num_slots
+
+The ring size is always known at compile time, so make the code a bit
+more efficient
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -123,7 +123,7 @@ bgmac_dma_tx_add_buf(struct bgmac *bgmac
+       struct bgmac_dma_desc *dma_desc;
+       u32 ctl1;
+-      if (i == ring->num_slots - 1)
++      if (i == BGMAC_TX_RING_SLOTS - 1)
+               ctl0 |= BGMAC_DESC_CTL0_EOT;
+       ctl1 = len & BGMAC_DESC_CTL1_LEN;
+@@ -382,7 +382,7 @@ static void bgmac_dma_rx_setup_desc(stru
+       struct bgmac_dma_desc *dma_desc = ring->cpu_base + desc_idx;
+       u32 ctl0 = 0, ctl1 = 0;
+-      if (desc_idx == ring->num_slots - 1)
++      if (desc_idx == BGMAC_RX_RING_SLOTS - 1)
+               ctl0 |= BGMAC_DESC_CTL0_EOT;
+       ctl1 |= BGMAC_RX_BUF_SIZE & BGMAC_DESC_CTL1_LEN;
+       /* Is there any BGMAC device that requires extension? */
+@@ -521,7 +521,7 @@ static void bgmac_dma_tx_ring_free(struc
+       struct bgmac_slot_info *slot;
+       int i;
+-      for (i = 0; i < ring->num_slots; i++) {
++      for (i = 0; i < BGMAC_TX_RING_SLOTS; i++) {
+               int len = dma_desc[i].ctl1 & BGMAC_DESC_CTL1_LEN;
+               slot = &ring->slots[i];
+@@ -546,7 +546,7 @@ static void bgmac_dma_rx_ring_free(struc
+       struct bgmac_slot_info *slot;
+       int i;
+-      for (i = 0; i < ring->num_slots; i++) {
++      for (i = 0; i < BGMAC_RX_RING_SLOTS; i++) {
+               slot = &ring->slots[i];
+               if (!slot->dma_addr)
+                       continue;
+@@ -560,7 +560,8 @@ static void bgmac_dma_rx_ring_free(struc
+ }
+ static void bgmac_dma_ring_desc_free(struct bgmac *bgmac,
+-                                   struct bgmac_dma_ring *ring)
++                                   struct bgmac_dma_ring *ring,
++                                   int num_slots)
+ {
+       struct device *dma_dev = bgmac->core->dma_dev;
+       int size;
+@@ -569,7 +570,7 @@ static void bgmac_dma_ring_desc_free(str
+           return;
+       /* Free ring of descriptors */
+-      size = ring->num_slots * sizeof(struct bgmac_dma_desc);
++      size = num_slots * sizeof(struct bgmac_dma_desc);
+       dma_free_coherent(dma_dev, size, ring->cpu_base,
+                         ring->dma_base);
+ }
+@@ -590,10 +591,12 @@ static void bgmac_dma_free(struct bgmac 
+       int i;
+       for (i = 0; i < BGMAC_MAX_TX_RINGS; i++)
+-              bgmac_dma_ring_desc_free(bgmac, &bgmac->tx_ring[i]);
++              bgmac_dma_ring_desc_free(bgmac, &bgmac->tx_ring[i],
++                                       BGMAC_TX_RING_SLOTS);
+       for (i = 0; i < BGMAC_MAX_RX_RINGS; i++)
+-              bgmac_dma_ring_desc_free(bgmac, &bgmac->rx_ring[i]);
++              bgmac_dma_ring_desc_free(bgmac, &bgmac->rx_ring[i],
++                                       BGMAC_RX_RING_SLOTS);
+ }
+ static int bgmac_dma_alloc(struct bgmac *bgmac)
+@@ -616,11 +619,10 @@ static int bgmac_dma_alloc(struct bgmac 
+       for (i = 0; i < BGMAC_MAX_TX_RINGS; i++) {
+               ring = &bgmac->tx_ring[i];
+-              ring->num_slots = BGMAC_TX_RING_SLOTS;
+               ring->mmio_base = ring_base[i];
+               /* Alloc ring of descriptors */
+-              size = ring->num_slots * sizeof(struct bgmac_dma_desc);
++              size = BGMAC_TX_RING_SLOTS * sizeof(struct bgmac_dma_desc);
+               ring->cpu_base = dma_zalloc_coherent(dma_dev, size,
+                                                    &ring->dma_base,
+                                                    GFP_KERNEL);
+@@ -642,11 +644,10 @@ static int bgmac_dma_alloc(struct bgmac 
+       for (i = 0; i < BGMAC_MAX_RX_RINGS; i++) {
+               ring = &bgmac->rx_ring[i];
+-              ring->num_slots = BGMAC_RX_RING_SLOTS;
+               ring->mmio_base = ring_base[i];
+               /* Alloc ring of descriptors */
+-              size = ring->num_slots * sizeof(struct bgmac_dma_desc);
++              size = BGMAC_RX_RING_SLOTS * sizeof(struct bgmac_dma_desc);
+               ring->cpu_base = dma_zalloc_coherent(dma_dev, size,
+                                                    &ring->dma_base,
+                                                    GFP_KERNEL);
+@@ -709,7 +710,7 @@ static int bgmac_dma_init(struct bgmac *
+               ring->start = 0;
+               ring->end = 0;
+-              for (j = 0; j < ring->num_slots; j++) {
++              for (j = 0; j < BGMAC_RX_RING_SLOTS; j++) {
+                       err = bgmac_dma_rx_skb_for_slot(bgmac, &ring->slots[j]);
+                       if (err)
+                               goto error;
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -419,11 +419,10 @@ struct bgmac_dma_ring {
+       u32 start;
+       u32 end;
+-      u16 num_slots;
+-      u16 mmio_base;
+       struct bgmac_dma_desc *cpu_base;
+       dma_addr_t dma_base;
+       u32 index_base; /* Used for unaligned rings only, otherwise 0 */
++      u16 mmio_base;
+       bool unaligned;
+       struct bgmac_slot_info slots[BGMAC_RX_RING_SLOTS];
diff --git a/trunk/target/linux/generic/patches-3.18/077-13-bgmac-fix-MAC-soft-reset-bit-for-corerev-4.patch b/trunk/target/linux/generic/patches-3.18/077-13-bgmac-fix-MAC-soft-reset-bit-for-corerev-4.patch
new file mode 100644 (file)
index 0000000..a3d9fd6
--- /dev/null
@@ -0,0 +1,24 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Mon, 13 Apr 2015 15:54:04 +0200
+Subject: [PATCH] bgmac: fix MAC soft-reset bit for corerev > 4
+
+Only core revisions older than 4 use BGMAC_CMDCFG_SR_REV0
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -198,9 +198,9 @@
+ #define  BGMAC_CMDCFG_TAI                     0x00000200
+ #define  BGMAC_CMDCFG_HD                      0x00000400      /* Set if in half duplex mode */
+ #define  BGMAC_CMDCFG_HD_SHIFT                        10
+-#define  BGMAC_CMDCFG_SR_REV0                 0x00000800      /* Set to reset mode, for other revs */
+-#define  BGMAC_CMDCFG_SR_REV4                 0x00002000      /* Set to reset mode, only for core rev 4 */
+-#define  BGMAC_CMDCFG_SR(rev)  ((rev == 4) ? BGMAC_CMDCFG_SR_REV4 : BGMAC_CMDCFG_SR_REV0)
++#define  BGMAC_CMDCFG_SR_REV0                 0x00000800      /* Set to reset mode, for core rev 0-3 */
++#define  BGMAC_CMDCFG_SR_REV4                 0x00002000      /* Set to reset mode, for core rev >= 4 */
++#define  BGMAC_CMDCFG_SR(rev)  ((rev >= 4) ? BGMAC_CMDCFG_SR_REV4 : BGMAC_CMDCFG_SR_REV0)
+ #define  BGMAC_CMDCFG_ML                      0x00008000      /* Set to activate mac loopback mode */
+ #define  BGMAC_CMDCFG_AE                      0x00400000
+ #define  BGMAC_CMDCFG_CFE                     0x00800000
diff --git a/trunk/target/linux/generic/patches-3.18/077-14-bgmac-reset-all-4-GMAC-cores-on-init.patch b/trunk/target/linux/generic/patches-3.18/077-14-bgmac-reset-all-4-GMAC-cores-on-init.patch
new file mode 100644 (file)
index 0000000..2a913a6
--- /dev/null
@@ -0,0 +1,28 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Mon, 13 Apr 2015 15:56:26 +0200
+Subject: [PATCH] bgmac: reset all 4 GMAC cores on init
+
+On a BCM4709 based device, I found that GMAC cores may be enabled at
+probe time, but only become usable after a full reset.
+Disable cores before re-enabling them to ensure that they are properly
+reset.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -1623,8 +1623,11 @@ static int bgmac_probe(struct bcma_devic
+                       ns_core = bcma_find_core_unit(core->bus,
+                                                     BCMA_CORE_MAC_GBIT,
+                                                     ns_gmac);
+-                      if (ns_core && !bcma_core_is_enabled(ns_core))
+-                              bcma_core_enable(ns_core, 0);
++                      if (!ns_core)
++                              continue;
++
++                      bcma_core_disable(ns_core, 0);
++                      bcma_core_enable(ns_core, 0);
+               }
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/080-00-fib_trie-Fix-proc-net-fib_trie-when-CONFIG_IP_MULTIP.patch b/trunk/target/linux/generic/patches-3.18/080-00-fib_trie-Fix-proc-net-fib_trie-when-CONFIG_IP_MULTIP.patch
new file mode 100644 (file)
index 0000000..5d99367
--- /dev/null
@@ -0,0 +1,46 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Tue, 2 Dec 2014 10:58:21 -0800
+Subject: [PATCH] fib_trie: Fix /proc/net/fib_trie when
+ CONFIG_IP_MULTIPLE_TABLES is not defined
+
+In recent testing I had disabled CONFIG_IP_MULTIPLE_TABLES and as a result
+when I ran "cat /proc/net/fib_trie" the main trie was displayed multiple
+times.  I found that the problem line of code was in the function
+fib_trie_seq_next.  Specifically the line below caused the indexes to go in
+the opposite direction of our traversal:
+
+       h = tb->tb_id & (FIB_TABLE_HASHSZ - 1);
+
+This issue was that the RT tables are defined such that RT_TABLE_LOCAL is ID
+255, while it is located at TABLE_LOCAL_INDEX of 0, and RT_TABLE_MAIN is 254
+with a TABLE_MAIN_INDEX of 1.  This means that the above line will return 1
+for the local table and 0 for main.  The result is that fib_trie_seq_next
+will return NULL at the end of the local table, fib_trie_seq_start will
+return the start of the main table, and then fib_trie_seq_next will loop on
+main forever as h will always return 0.
+
+The fix for this is to reverse the ordering of the two tables.  It has the
+advantage of making it so that the tables now print in the same order
+regardless of if multiple tables are enabled or not.  In order to make the
+definition consistent with the multiple tables case I simply masked the to
+RT_TABLE_XXX values by (FIB_TABLE_HASHSZ - 1).  This way the two table
+layouts should always stay consistent.
+
+Fixes: 93456b6 ("[IPV4]: Unify access to the routing tables")
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/include/net/ip_fib.h
++++ b/include/net/ip_fib.h
+@@ -201,8 +201,8 @@ void fib_free_table(struct fib_table *tb
+ #ifndef CONFIG_IP_MULTIPLE_TABLES
+-#define TABLE_LOCAL_INDEX     0
+-#define TABLE_MAIN_INDEX      1
++#define TABLE_LOCAL_INDEX     (RT_TABLE_LOCAL & (FIB_TABLE_HASHSZ - 1))
++#define TABLE_MAIN_INDEX      (RT_TABLE_MAIN  & (FIB_TABLE_HASHSZ - 1))
+ static inline struct fib_table *fib_get_table(struct net *net, u32 id)
+ {
diff --git a/trunk/target/linux/generic/patches-3.18/080-01-fib_trie-Fix-trie-balancing-issue-if-new-node-pushes.patch b/trunk/target/linux/generic/patches-3.18/080-01-fib_trie-Fix-trie-balancing-issue-if-new-node-pushes.patch
new file mode 100644 (file)
index 0000000..4e09f8a
--- /dev/null
@@ -0,0 +1,72 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 10 Dec 2014 21:49:22 -0800
+Subject: [PATCH] fib_trie: Fix trie balancing issue if new node pushes down
+ existing node
+
+This patch addresses an issue with the level compression of the fib_trie.
+Specifically in the case of adding a new leaf that triggers a new node to
+be added that takes the place of the old node.  The result is a trie where
+the 1 child tnode is on one side and one leaf is on the other which gives
+you a very deep trie.  Below is the script I used to generate a trie on
+dummy0 with a 10.X.X.X family of addresses.
+
+  ip link add type dummy
+  ipval=184549374
+  bit=2
+  for i in `seq 1 23`
+  do
+    ifconfig dummy0:$bit $ipval/8
+    ipval=`expr $ipval - $bit`
+    bit=`expr $bit \* 2`
+  done
+  cat /proc/net/fib_triestat
+
+Running the script before the patch:
+
+       Local:
+               Aver depth:     10.82
+               Max depth:      23
+               Leaves:         29
+               Prefixes:       30
+               Internal nodes: 27
+                 1: 26  2: 1
+               Pointers: 56
+       Null ptrs: 1
+       Total size: 5  kB
+
+After applying the patch and repeating:
+
+       Local:
+               Aver depth:     4.72
+               Max depth:      9
+               Leaves:         29
+               Prefixes:       30
+               Internal nodes: 12
+                 1: 3  2: 2  3: 7
+               Pointers: 70
+       Null ptrs: 30
+       Total size: 4  kB
+
+What this fix does is start the rebalance at the newly created tnode
+instead of at the parent tnode.  This way if there is a gap between the
+parent and the new node it doesn't prevent the new tnode from being
+coalesced with any pre-existing nodes that may have been pushed into one
+of the new nodes child branches.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -1143,8 +1143,9 @@ static struct list_head *fib_insert_node
+                       put_child(tp, cindex, (struct rt_trie_node *)tn);
+               } else {
+                       rcu_assign_pointer(t->trie, (struct rt_trie_node *)tn);
+-                      tp = tn;
+               }
++
++              tp = tn;
+       }
+       if (tp && tp->pos + tp->bits > 32)
diff --git a/trunk/target/linux/generic/patches-3.18/080-02-fib_trie-Update-usage-stats-to-be-percpu-instead-of-.patch b/trunk/target/linux/generic/patches-3.18/080-02-fib_trie-Update-usage-stats-to-be-percpu-instead-of-.patch
new file mode 100644 (file)
index 0000000..2e6deb5
--- /dev/null
@@ -0,0 +1,200 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:55:29 -0800
+Subject: [PATCH] fib_trie: Update usage stats to be percpu instead of
+ global variables
+
+The trie usage stats were currently being shared by all threads that were
+calling fib_table_lookup.  As a result when multiple threads were
+performing lookups simultaneously the trie would begin to cache bounce
+between those threads.
+
+In order to prevent this I have updated the usage stats to use a set of
+percpu variables.  By doing this we should be able to avoid the cache
+bouncing and still make use of these stats.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_frontend.c
++++ b/net/ipv4/fib_frontend.c
+@@ -67,7 +67,7 @@ static int __net_init fib4_rules_init(st
+       return 0;
+ fail:
+-      kfree(local_table);
++      fib_free_table(local_table);
+       return -ENOMEM;
+ }
+ #else
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -153,7 +153,7 @@ struct trie_stat {
+ struct trie {
+       struct rt_trie_node __rcu *trie;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-      struct trie_use_stats stats;
++      struct trie_use_stats __percpu *stats;
+ #endif
+ };
+@@ -631,7 +631,7 @@ static struct rt_trie_node *resize(struc
+               if (IS_ERR(tn)) {
+                       tn = old_tn;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      t->stats.resize_node_skipped++;
++                      this_cpu_inc(t->stats->resize_node_skipped);
+ #endif
+                       break;
+               }
+@@ -658,7 +658,7 @@ static struct rt_trie_node *resize(struc
+               if (IS_ERR(tn)) {
+                       tn = old_tn;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      t->stats.resize_node_skipped++;
++                      this_cpu_inc(t->stats->resize_node_skipped);
+ #endif
+                       break;
+               }
+@@ -1357,7 +1357,7 @@ static int check_leaf(struct fib_table *
+                       err = fib_props[fa->fa_type].error;
+                       if (err) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                              t->stats.semantic_match_passed++;
++                              this_cpu_inc(t->stats->semantic_match_passed);
+ #endif
+                               return err;
+                       }
+@@ -1372,7 +1372,7 @@ static int check_leaf(struct fib_table *
+                                       continue;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                              t->stats.semantic_match_passed++;
++                              this_cpu_inc(t->stats->semantic_match_passed);
+ #endif
+                               res->prefixlen = li->plen;
+                               res->nh_sel = nhsel;
+@@ -1388,7 +1388,7 @@ static int check_leaf(struct fib_table *
+               }
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-              t->stats.semantic_match_miss++;
++              this_cpu_inc(t->stats->semantic_match_miss);
+ #endif
+       }
+@@ -1399,6 +1399,9 @@ int fib_table_lookup(struct fib_table *t
+                    struct fib_result *res, int fib_flags)
+ {
+       struct trie *t = (struct trie *) tb->tb_data;
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++      struct trie_use_stats __percpu *stats = t->stats;
++#endif
+       int ret;
+       struct rt_trie_node *n;
+       struct tnode *pn;
+@@ -1417,7 +1420,7 @@ int fib_table_lookup(struct fib_table *t
+               goto failed;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-      t->stats.gets++;
++      this_cpu_inc(stats->gets);
+ #endif
+       /* Just a leaf? */
+@@ -1441,7 +1444,7 @@ int fib_table_lookup(struct fib_table *t
+               if (n == NULL) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      t->stats.null_node_hit++;
++                      this_cpu_inc(stats->null_node_hit);
+ #endif
+                       goto backtrace;
+               }
+@@ -1576,7 +1579,7 @@ backtrace:
+                       chopped_off = 0;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      t->stats.backtrack++;
++                      this_cpu_inc(stats->backtrack);
+ #endif
+                       goto backtrace;
+               }
+@@ -1830,6 +1833,11 @@ int fib_table_flush(struct fib_table *tb
+ void fib_free_table(struct fib_table *tb)
+ {
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++      struct trie *t = (struct trie *)tb->tb_data;
++
++      free_percpu(t->stats);
++#endif /* CONFIG_IP_FIB_TRIE_STATS */
+       kfree(tb);
+ }
+@@ -1973,7 +1981,14 @@ struct fib_table *fib_trie_table(u32 id)
+       tb->tb_num_default = 0;
+       t = (struct trie *) tb->tb_data;
+-      memset(t, 0, sizeof(*t));
++      RCU_INIT_POINTER(t->trie, NULL);
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++      t->stats = alloc_percpu(struct trie_use_stats);
++      if (!t->stats) {
++              kfree(tb);
++              tb = NULL;
++      }
++#endif
+       return tb;
+ }
+@@ -2139,18 +2154,31 @@ static void trie_show_stats(struct seq_f
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+ static void trie_show_usage(struct seq_file *seq,
+-                          const struct trie_use_stats *stats)
++                          const struct trie_use_stats __percpu *stats)
+ {
++      struct trie_use_stats s = { 0 };
++      int cpu;
++
++      /* loop through all of the CPUs and gather up the stats */
++      for_each_possible_cpu(cpu) {
++              const struct trie_use_stats *pcpu = per_cpu_ptr(stats, cpu);
++
++              s.gets += pcpu->gets;
++              s.backtrack += pcpu->backtrack;
++              s.semantic_match_passed += pcpu->semantic_match_passed;
++              s.semantic_match_miss += pcpu->semantic_match_miss;
++              s.null_node_hit += pcpu->null_node_hit;
++              s.resize_node_skipped += pcpu->resize_node_skipped;
++      }
++
+       seq_printf(seq, "\nCounters:\n---------\n");
+-      seq_printf(seq, "gets = %u\n", stats->gets);
+-      seq_printf(seq, "backtracks = %u\n", stats->backtrack);
++      seq_printf(seq, "gets = %u\n", s.gets);
++      seq_printf(seq, "backtracks = %u\n", s.backtrack);
+       seq_printf(seq, "semantic match passed = %u\n",
+-                 stats->semantic_match_passed);
+-      seq_printf(seq, "semantic match miss = %u\n",
+-                 stats->semantic_match_miss);
+-      seq_printf(seq, "null node hit= %u\n", stats->null_node_hit);
+-      seq_printf(seq, "skipped node resize = %u\n\n",
+-                 stats->resize_node_skipped);
++                 s.semantic_match_passed);
++      seq_printf(seq, "semantic match miss = %u\n", s.semantic_match_miss);
++      seq_printf(seq, "null node hit= %u\n", s.null_node_hit);
++      seq_printf(seq, "skipped node resize = %u\n\n", s.resize_node_skipped);
+ }
+ #endif /*  CONFIG_IP_FIB_TRIE_STATS */
+@@ -2191,7 +2219,7 @@ static int fib_triestat_seq_show(struct
+                       trie_collect_stats(t, &stat);
+                       trie_show_stats(seq, &stat);
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      trie_show_usage(seq, &t->stats);
++                      trie_show_usage(seq, t->stats);
+ #endif
+               }
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/080-03-fib_trie-Make-leaf-and-tnode-more-uniform.patch b/trunk/target/linux/generic/patches-3.18/080-03-fib_trie-Make-leaf-and-tnode-more-uniform.patch
new file mode 100644 (file)
index 0000000..4c727cd
--- /dev/null
@@ -0,0 +1,421 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:55:35 -0800
+Subject: [PATCH] fib_trie: Make leaf and tnode more uniform
+
+This change makes some fundamental changes to the way leaves and tnodes are
+constructed.  The big differences are:
+1.  Leaves now populate pos and bits indicating their full key size.
+2.  Trie nodes now mask out their lower bits to be consistent with the leaf
+3.  Both structures have been reordered so that rt_trie_node now consisists
+    of a much larger region including the pos, bits, and rcu portions of
+    the tnode structure.
+
+On 32b systems this will result in the leaf being 4B larger as the pos and
+bits values were added to a hole created by the key as it was only 4B in
+length.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -87,24 +87,38 @@
+ typedef unsigned int t_key;
+-#define T_TNODE 0
+-#define T_LEAF  1
+-#define NODE_TYPE_MASK        0x1UL
+-#define NODE_TYPE(node) ((node)->parent & NODE_TYPE_MASK)
++#define IS_TNODE(n) ((n)->bits)
++#define IS_LEAF(n) (!(n)->bits)
+-#define IS_TNODE(n) (!(n->parent & T_LEAF))
+-#define IS_LEAF(n) (n->parent & T_LEAF)
++struct tnode {
++      t_key key;
++      unsigned char bits;             /* 2log(KEYLENGTH) bits needed */
++      unsigned char pos;              /* 2log(KEYLENGTH) bits needed */
++      struct tnode __rcu *parent;
++      union {
++              struct rcu_head rcu;
++              struct tnode *tnode_free;
++      };
++      unsigned int full_children;     /* KEYLENGTH bits needed */
++      unsigned int empty_children;    /* KEYLENGTH bits needed */
++      struct rt_trie_node __rcu *child[0];
++};
+ struct rt_trie_node {
+-      unsigned long parent;
+       t_key key;
++      unsigned char bits;
++      unsigned char pos;
++      struct tnode __rcu *parent;
++      struct rcu_head rcu;
+ };
+ struct leaf {
+-      unsigned long parent;
+       t_key key;
+-      struct hlist_head list;
++      unsigned char bits;
++      unsigned char pos;
++      struct tnode __rcu *parent;
+       struct rcu_head rcu;
++      struct hlist_head list;
+ };
+ struct leaf_info {
+@@ -115,20 +129,6 @@ struct leaf_info {
+       struct rcu_head rcu;
+ };
+-struct tnode {
+-      unsigned long parent;
+-      t_key key;
+-      unsigned char pos;              /* 2log(KEYLENGTH) bits needed */
+-      unsigned char bits;             /* 2log(KEYLENGTH) bits needed */
+-      unsigned int full_children;     /* KEYLENGTH bits needed */
+-      unsigned int empty_children;    /* KEYLENGTH bits needed */
+-      union {
+-              struct rcu_head rcu;
+-              struct tnode *tnode_free;
+-      };
+-      struct rt_trie_node __rcu *child[0];
+-};
+-
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+ struct trie_use_stats {
+       unsigned int gets;
+@@ -176,38 +176,27 @@ static const int sync_pages = 128;
+ static struct kmem_cache *fn_alias_kmem __read_mostly;
+ static struct kmem_cache *trie_leaf_kmem __read_mostly;
+-/*
+- * caller must hold RTNL
+- */
+-static inline struct tnode *node_parent(const struct rt_trie_node *node)
+-{
+-      unsigned long parent;
++/* caller must hold RTNL */
++#define node_parent(n) rtnl_dereference((n)->parent)
+-      parent = rcu_dereference_index_check(node->parent, lockdep_rtnl_is_held());
++/* caller must hold RCU read lock or RTNL */
++#define node_parent_rcu(n) rcu_dereference_rtnl((n)->parent)
+-      return (struct tnode *)(parent & ~NODE_TYPE_MASK);
+-}
+-
+-/*
+- * caller must hold RCU read lock or RTNL
+- */
+-static inline struct tnode *node_parent_rcu(const struct rt_trie_node *node)
++/* wrapper for rcu_assign_pointer */
++static inline void node_set_parent(struct rt_trie_node *node, struct tnode *ptr)
+ {
+-      unsigned long parent;
+-
+-      parent = rcu_dereference_index_check(node->parent, rcu_read_lock_held() ||
+-                                                         lockdep_rtnl_is_held());
+-
+-      return (struct tnode *)(parent & ~NODE_TYPE_MASK);
++      if (node)
++              rcu_assign_pointer(node->parent, ptr);
+ }
+-/* Same as rcu_assign_pointer
+- * but that macro() assumes that value is a pointer.
++#define NODE_INIT_PARENT(n, p) RCU_INIT_POINTER((n)->parent, p)
++
++/* This provides us with the number of children in this node, in the case of a
++ * leaf this will return 0 meaning none of the children are accessible.
+  */
+-static inline void node_set_parent(struct rt_trie_node *node, struct tnode *ptr)
++static inline int tnode_child_length(const struct tnode *tn)
+ {
+-      smp_wmb();
+-      node->parent = (unsigned long)ptr | NODE_TYPE(node);
++      return (1ul << tn->bits) & ~(1ul);
+ }
+ /*
+@@ -215,7 +204,7 @@ static inline void node_set_parent(struc
+  */
+ static inline struct rt_trie_node *tnode_get_child(const struct tnode *tn, unsigned int i)
+ {
+-      BUG_ON(i >= 1U << tn->bits);
++      BUG_ON(i >= tnode_child_length(tn));
+       return rtnl_dereference(tn->child[i]);
+ }
+@@ -225,16 +214,11 @@ static inline struct rt_trie_node *tnode
+  */
+ static inline struct rt_trie_node *tnode_get_child_rcu(const struct tnode *tn, unsigned int i)
+ {
+-      BUG_ON(i >= 1U << tn->bits);
++      BUG_ON(i >= tnode_child_length(tn));
+       return rcu_dereference_rtnl(tn->child[i]);
+ }
+-static inline int tnode_child_length(const struct tnode *tn)
+-{
+-      return 1 << tn->bits;
+-}
+-
+ static inline t_key mask_pfx(t_key k, unsigned int l)
+ {
+       return (l == 0) ? 0 : k >> (KEYLENGTH-l) << (KEYLENGTH-l);
+@@ -336,11 +320,6 @@ static inline int tkey_mismatch(t_key a,
+ */
+-static inline void check_tnode(const struct tnode *tn)
+-{
+-      WARN_ON(tn && tn->pos+tn->bits > 32);
+-}
+-
+ static const int halve_threshold = 25;
+ static const int inflate_threshold = 50;
+ static const int halve_threshold_root = 15;
+@@ -426,11 +405,20 @@ static void tnode_free_flush(void)
+       }
+ }
+-static struct leaf *leaf_new(void)
++static struct leaf *leaf_new(t_key key)
+ {
+       struct leaf *l = kmem_cache_alloc(trie_leaf_kmem, GFP_KERNEL);
+       if (l) {
+-              l->parent = T_LEAF;
++              l->parent = NULL;
++              /* set key and pos to reflect full key value
++               * any trailing zeros in the key should be ignored
++               * as the nodes are searched
++               */
++              l->key = key;
++              l->pos = KEYLENGTH;
++              /* set bits to 0 indicating we are not a tnode */
++              l->bits = 0;
++
+               INIT_HLIST_HEAD(&l->list);
+       }
+       return l;
+@@ -451,12 +439,16 @@ static struct tnode *tnode_new(t_key key
+ {
+       size_t sz = sizeof(struct tnode) + (sizeof(struct rt_trie_node *) << bits);
+       struct tnode *tn = tnode_alloc(sz);
++      unsigned int shift = pos + bits;
++
++      /* verify bits and pos their msb bits clear and values are valid */
++      BUG_ON(!bits || (shift > KEYLENGTH));
+       if (tn) {
+-              tn->parent = T_TNODE;
++              tn->parent = NULL;
+               tn->pos = pos;
+               tn->bits = bits;
+-              tn->key = key;
++              tn->key = mask_pfx(key, pos);
+               tn->full_children = 0;
+               tn->empty_children = 1<<bits;
+       }
+@@ -473,10 +465,7 @@ static struct tnode *tnode_new(t_key key
+ static inline int tnode_full(const struct tnode *tn, const struct rt_trie_node *n)
+ {
+-      if (n == NULL || IS_LEAF(n))
+-              return 0;
+-
+-      return ((struct tnode *) n)->pos == tn->pos + tn->bits;
++      return n && IS_TNODE(n) && (n->pos == (tn->pos + tn->bits));
+ }
+ static inline void put_child(struct tnode *tn, int i,
+@@ -514,8 +503,7 @@ static void tnode_put_child_reorg(struct
+       else if (!wasfull && isfull)
+               tn->full_children++;
+-      if (n)
+-              node_set_parent(n, tn);
++      node_set_parent(n, tn);
+       rcu_assign_pointer(tn->child[i], n);
+ }
+@@ -523,7 +511,7 @@ static void tnode_put_child_reorg(struct
+ #define MAX_WORK 10
+ static struct rt_trie_node *resize(struct trie *t, struct tnode *tn)
+ {
+-      int i;
++      struct rt_trie_node *n = NULL;
+       struct tnode *old_tn;
+       int inflate_threshold_use;
+       int halve_threshold_use;
+@@ -536,12 +524,11 @@ static struct rt_trie_node *resize(struc
+                tn, inflate_threshold, halve_threshold);
+       /* No children */
+-      if (tn->empty_children == tnode_child_length(tn)) {
+-              tnode_free_safe(tn);
+-              return NULL;
+-      }
++      if (tn->empty_children > (tnode_child_length(tn) - 1))
++              goto no_children;
++
+       /* One child */
+-      if (tn->empty_children == tnode_child_length(tn) - 1)
++      if (tn->empty_children == (tnode_child_length(tn) - 1))
+               goto one_child;
+       /*
+        * Double as long as the resulting node has a number of
+@@ -607,11 +594,9 @@ static struct rt_trie_node *resize(struc
+        *
+        */
+-      check_tnode(tn);
+-
+       /* Keep root node larger  */
+-      if (!node_parent((struct rt_trie_node *)tn)) {
++      if (!node_parent(tn)) {
+               inflate_threshold_use = inflate_threshold_root;
+               halve_threshold_use = halve_threshold_root;
+       } else {
+@@ -637,8 +622,6 @@ static struct rt_trie_node *resize(struc
+               }
+       }
+-      check_tnode(tn);
+-
+       /* Return if at least one inflate is run */
+       if (max_work != MAX_WORK)
+               return (struct rt_trie_node *) tn;
+@@ -666,21 +649,16 @@ static struct rt_trie_node *resize(struc
+       /* Only one child remains */
+-      if (tn->empty_children == tnode_child_length(tn) - 1) {
++      if (tn->empty_children == (tnode_child_length(tn) - 1)) {
++              unsigned long i;
+ one_child:
+-              for (i = 0; i < tnode_child_length(tn); i++) {
+-                      struct rt_trie_node *n;
+-
+-                      n = rtnl_dereference(tn->child[i]);
+-                      if (!n)
+-                              continue;
+-
+-                      /* compress one level */
+-
+-                      node_set_parent(n, NULL);
+-                      tnode_free_safe(tn);
+-                      return n;
+-              }
++              for (i = tnode_child_length(tn); !n && i;)
++                      n = tnode_get_child(tn, --i);
++no_children:
++              /* compress one level */
++              node_set_parent(n, NULL);
++              tnode_free_safe(tn);
++              return n;
+       }
+       return (struct rt_trie_node *) tn;
+ }
+@@ -760,8 +738,7 @@ static struct tnode *inflate(struct trie
+               /* A leaf or an internal node with skipped bits */
+-              if (IS_LEAF(node) || ((struct tnode *) node)->pos >
+-                 tn->pos + tn->bits - 1) {
++              if (IS_LEAF(node) || (node->pos > (tn->pos + tn->bits - 1))) {
+                       put_child(tn,
+                               tkey_extract_bits(node->key, oldtnode->pos, oldtnode->bits + 1),
+                               node);
+@@ -958,11 +935,9 @@ fib_find_node(struct trie *t, u32 key)
+       pos = 0;
+       n = rcu_dereference_rtnl(t->trie);
+-      while (n != NULL &&  NODE_TYPE(n) == T_TNODE) {
++      while (n && IS_TNODE(n)) {
+               tn = (struct tnode *) n;
+-              check_tnode(tn);
+-
+               if (tkey_sub_equals(tn->key, pos, tn->pos-pos, key)) {
+                       pos = tn->pos + tn->bits;
+                       n = tnode_get_child_rcu(tn,
+@@ -988,7 +963,7 @@ static void trie_rebalance(struct trie *
+       key = tn->key;
+-      while (tn != NULL && (tp = node_parent((struct rt_trie_node *)tn)) != NULL) {
++      while (tn != NULL && (tp = node_parent(tn)) != NULL) {
+               cindex = tkey_extract_bits(key, tp->pos, tp->bits);
+               wasfull = tnode_full(tp, tnode_get_child(tp, cindex));
+               tn = (struct tnode *)resize(t, tn);
+@@ -996,7 +971,7 @@ static void trie_rebalance(struct trie *
+               tnode_put_child_reorg(tp, cindex,
+                                     (struct rt_trie_node *)tn, wasfull);
+-              tp = node_parent((struct rt_trie_node *) tn);
++              tp = node_parent(tn);
+               if (!tp)
+                       rcu_assign_pointer(t->trie, (struct rt_trie_node *)tn);
+@@ -1048,11 +1023,9 @@ static struct list_head *fib_insert_node
+        * If it doesn't, we need to replace it with a T_TNODE.
+        */
+-      while (n != NULL &&  NODE_TYPE(n) == T_TNODE) {
++      while (n && IS_TNODE(n)) {
+               tn = (struct tnode *) n;
+-              check_tnode(tn);
+-
+               if (tkey_sub_equals(tn->key, pos, tn->pos-pos, key)) {
+                       tp = tn;
+                       pos = tn->pos + tn->bits;
+@@ -1087,12 +1060,11 @@ static struct list_head *fib_insert_node
+               insert_leaf_info(&l->list, li);
+               goto done;
+       }
+-      l = leaf_new();
++      l = leaf_new(key);
+       if (!l)
+               return NULL;
+-      l->key = key;
+       li = leaf_info_new(plen);
+       if (!li) {
+@@ -1569,7 +1541,7 @@ backtrace:
+               if (chopped_off <= pn->bits) {
+                       cindex &= ~(1 << (chopped_off-1));
+               } else {
+-                      struct tnode *parent = node_parent_rcu((struct rt_trie_node *) pn);
++                      struct tnode *parent = node_parent_rcu(pn);
+                       if (!parent)
+                               goto failed;
+@@ -1597,7 +1569,7 @@ EXPORT_SYMBOL_GPL(fib_table_lookup);
+  */
+ static void trie_leaf_remove(struct trie *t, struct leaf *l)
+ {
+-      struct tnode *tp = node_parent((struct rt_trie_node *) l);
++      struct tnode *tp = node_parent(l);
+       pr_debug("entering trie_leaf_remove(%p)\n", l);
+@@ -2374,7 +2346,7 @@ static int fib_trie_seq_show(struct seq_
+       if (IS_TNODE(n)) {
+               struct tnode *tn = (struct tnode *) n;
+-              __be32 prf = htonl(mask_pfx(tn->key, tn->pos));
++              __be32 prf = htonl(tn->key);
+               seq_indent(seq, iter->depth-1);
+               seq_printf(seq, "  +-- %pI4/%d %d %d %d\n",
diff --git a/trunk/target/linux/generic/patches-3.18/080-04-fib_trie-Merge-tnode_free-and-leaf_free-into-node_fr.patch b/trunk/target/linux/generic/patches-3.18/080-04-fib_trie-Merge-tnode_free-and-leaf_free-into-node_fr.patch
new file mode 100644 (file)
index 0000000..3f8d030
--- /dev/null
@@ -0,0 +1,209 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:55:41 -0800
+Subject: [PATCH] fib_trie: Merge tnode_free and leaf_free into node_free
+
+Both the leaf and the tnode had an rcu_head in them, but they had them in
+slightly different places.  Since we now have them in the same spot and
+know that any node with bits == 0 is a leaf and the rest are either vmalloc
+or kmalloc tnodes depending on the value of bits it makes it easy to combine
+the functions and reduce overhead.
+
+In addition I have taken advantage of the rcu_head pointer to go ahead and
+put together a simple linked list instead of using the tnode pointer as
+this way we can merge either type of structure for freeing.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -95,15 +95,17 @@ struct tnode {
+       unsigned char bits;             /* 2log(KEYLENGTH) bits needed */
+       unsigned char pos;              /* 2log(KEYLENGTH) bits needed */
+       struct tnode __rcu *parent;
+-      union {
+-              struct rcu_head rcu;
+-              struct tnode *tnode_free;
+-      };
++      struct rcu_head rcu;
++      /* everything above this comment must be the same as rt_trie_node */
+       unsigned int full_children;     /* KEYLENGTH bits needed */
+       unsigned int empty_children;    /* KEYLENGTH bits needed */
+       struct rt_trie_node __rcu *child[0];
+ };
++/* This struct represents the shared bits between tnode and leaf.  If any
++ * ordering is changed here is must also be updated in tnode and leaf as
++ * well.
++ */
+ struct rt_trie_node {
+       t_key key;
+       unsigned char bits;
+@@ -118,6 +120,7 @@ struct leaf {
+       unsigned char pos;
+       struct tnode __rcu *parent;
+       struct rcu_head rcu;
++      /* everything above this comment must be the same as rt_trie_node */
+       struct hlist_head list;
+ };
+@@ -163,7 +166,7 @@ static struct rt_trie_node *resize(struc
+ static struct tnode *inflate(struct trie *t, struct tnode *tn);
+ static struct tnode *halve(struct trie *t, struct tnode *tn);
+ /* tnodes to free after resize(); protected by RTNL */
+-static struct tnode *tnode_free_head;
++static struct callback_head *tnode_free_head;
+ static size_t tnode_free_size;
+ /*
+@@ -336,17 +339,23 @@ static inline void alias_free_mem_rcu(st
+       call_rcu(&fa->rcu, __alias_free_mem);
+ }
+-static void __leaf_free_rcu(struct rcu_head *head)
+-{
+-      struct leaf *l = container_of(head, struct leaf, rcu);
+-      kmem_cache_free(trie_leaf_kmem, l);
+-}
++#define TNODE_KMALLOC_MAX \
++      ilog2((PAGE_SIZE - sizeof(struct tnode)) / sizeof(struct rt_trie_node *))
+-static inline void free_leaf(struct leaf *l)
++static void __node_free_rcu(struct rcu_head *head)
+ {
+-      call_rcu(&l->rcu, __leaf_free_rcu);
++      struct rt_trie_node *n = container_of(head, struct rt_trie_node, rcu);
++
++      if (IS_LEAF(n))
++              kmem_cache_free(trie_leaf_kmem, n);
++      else if (n->bits <= TNODE_KMALLOC_MAX)
++              kfree(n);
++      else
++              vfree(n);
+ }
++#define node_free(n) call_rcu(&n->rcu, __node_free_rcu)
++
+ static inline void free_leaf_info(struct leaf_info *leaf)
+ {
+       kfree_rcu(leaf, rcu);
+@@ -360,43 +369,24 @@ static struct tnode *tnode_alloc(size_t
+               return vzalloc(size);
+ }
+-static void __tnode_free_rcu(struct rcu_head *head)
+-{
+-      struct tnode *tn = container_of(head, struct tnode, rcu);
+-      size_t size = sizeof(struct tnode) +
+-                    (sizeof(struct rt_trie_node *) << tn->bits);
+-
+-      if (size <= PAGE_SIZE)
+-              kfree(tn);
+-      else
+-              vfree(tn);
+-}
+-
+-static inline void tnode_free(struct tnode *tn)
+-{
+-      if (IS_LEAF(tn))
+-              free_leaf((struct leaf *) tn);
+-      else
+-              call_rcu(&tn->rcu, __tnode_free_rcu);
+-}
+-
+ static void tnode_free_safe(struct tnode *tn)
+ {
+       BUG_ON(IS_LEAF(tn));
+-      tn->tnode_free = tnode_free_head;
+-      tnode_free_head = tn;
+-      tnode_free_size += sizeof(struct tnode) +
+-                         (sizeof(struct rt_trie_node *) << tn->bits);
++      tn->rcu.next = tnode_free_head;
++      tnode_free_head = &tn->rcu;
+ }
+ static void tnode_free_flush(void)
+ {
+-      struct tnode *tn;
++      struct callback_head *head;
++
++      while ((head = tnode_free_head)) {
++              struct tnode *tn = container_of(head, struct tnode, rcu);
++
++              tnode_free_head = head->next;
++              tnode_free_size += offsetof(struct tnode, child[1 << tn->bits]);
+-      while ((tn = tnode_free_head)) {
+-              tnode_free_head = tn->tnode_free;
+-              tn->tnode_free = NULL;
+-              tnode_free(tn);
++              node_free(tn);
+       }
+       if (tnode_free_size >= PAGE_SIZE * sync_pages) {
+@@ -437,7 +427,7 @@ static struct leaf_info *leaf_info_new(i
+ static struct tnode *tnode_new(t_key key, int pos, int bits)
+ {
+-      size_t sz = sizeof(struct tnode) + (sizeof(struct rt_trie_node *) << bits);
++      size_t sz = offsetof(struct tnode, child[1 << bits]);
+       struct tnode *tn = tnode_alloc(sz);
+       unsigned int shift = pos + bits;
+@@ -666,15 +656,15 @@ no_children:
+ static void tnode_clean_free(struct tnode *tn)
+ {
++      struct rt_trie_node *tofree;
+       int i;
+-      struct tnode *tofree;
+       for (i = 0; i < tnode_child_length(tn); i++) {
+-              tofree = (struct tnode *)rtnl_dereference(tn->child[i]);
++              tofree = rtnl_dereference(tn->child[i]);
+               if (tofree)
+-                      tnode_free(tofree);
++                      node_free(tofree);
+       }
+-      tnode_free(tn);
++      node_free(tn);
+ }
+ static struct tnode *inflate(struct trie *t, struct tnode *tn)
+@@ -717,7 +707,7 @@ static struct tnode *inflate(struct trie
+                                         inode->bits - 1);
+                       if (!right) {
+-                              tnode_free(left);
++                              node_free(left);
+                               goto nomem;
+                       }
+@@ -1068,7 +1058,7 @@ static struct list_head *fib_insert_node
+       li = leaf_info_new(plen);
+       if (!li) {
+-              free_leaf(l);
++              node_free(l);
+               return NULL;
+       }
+@@ -1100,7 +1090,7 @@ static struct list_head *fib_insert_node
+               if (!tn) {
+                       free_leaf_info(li);
+-                      free_leaf(l);
++                      node_free(l);
+                       return NULL;
+               }
+@@ -1580,7 +1570,7 @@ static void trie_leaf_remove(struct trie
+       } else
+               RCU_INIT_POINTER(t->trie, NULL);
+-      free_leaf(l);
++      node_free(l);
+ }
+ /*
diff --git a/trunk/target/linux/generic/patches-3.18/080-05-fib_trie-Merge-leaf-into-tnode.patch b/trunk/target/linux/generic/patches-3.18/080-05-fib_trie-Merge-leaf-into-tnode.patch
new file mode 100644 (file)
index 0000000..a3393bf
--- /dev/null
@@ -0,0 +1,928 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:55:47 -0800
+Subject: [PATCH] fib_trie: Merge leaf into tnode
+
+This change makes it so that leaf and tnode are the same struct.  As a
+result there is no need for rt_trie_node anymore since everyting can be
+merged into tnode.
+
+On 32b systems this results in the leaf being 4 bytes larger, however I
+don't know if that is really an issue as this and an eariler patch that
+added bits & pos have increased the size from 20 to 28.  If I am not
+mistaken slub/slab allocate on power of 2 sizes so 20 was likely being
+rounded up to 32 anyway.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -96,32 +96,16 @@ struct tnode {
+       unsigned char pos;              /* 2log(KEYLENGTH) bits needed */
+       struct tnode __rcu *parent;
+       struct rcu_head rcu;
+-      /* everything above this comment must be the same as rt_trie_node */
+-      unsigned int full_children;     /* KEYLENGTH bits needed */
+-      unsigned int empty_children;    /* KEYLENGTH bits needed */
+-      struct rt_trie_node __rcu *child[0];
+-};
+-
+-/* This struct represents the shared bits between tnode and leaf.  If any
+- * ordering is changed here is must also be updated in tnode and leaf as
+- * well.
+- */
+-struct rt_trie_node {
+-      t_key key;
+-      unsigned char bits;
+-      unsigned char pos;
+-      struct tnode __rcu *parent;
+-      struct rcu_head rcu;
+-};
+-
+-struct leaf {
+-      t_key key;
+-      unsigned char bits;
+-      unsigned char pos;
+-      struct tnode __rcu *parent;
+-      struct rcu_head rcu;
+-      /* everything above this comment must be the same as rt_trie_node */
+-      struct hlist_head list;
++      union {
++              /* The fields in this struct are valid if bits > 0 (TNODE) */
++              struct {
++                      unsigned int full_children;  /* KEYLENGTH bits needed */
++                      unsigned int empty_children; /* KEYLENGTH bits needed */
++                      struct tnode __rcu *child[0];
++              };
++              /* This list pointer if valid if bits == 0 (LEAF) */
++              struct hlist_head list;
++      };
+ };
+ struct leaf_info {
+@@ -154,15 +138,15 @@ struct trie_stat {
+ };
+ struct trie {
+-      struct rt_trie_node __rcu *trie;
++      struct tnode __rcu *trie;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+       struct trie_use_stats __percpu *stats;
+ #endif
+ };
+-static void tnode_put_child_reorg(struct tnode *tn, int i, struct rt_trie_node *n,
++static void tnode_put_child_reorg(struct tnode *tn, int i, struct tnode *n,
+                                 int wasfull);
+-static struct rt_trie_node *resize(struct trie *t, struct tnode *tn);
++static struct tnode *resize(struct trie *t, struct tnode *tn);
+ static struct tnode *inflate(struct trie *t, struct tnode *tn);
+ static struct tnode *halve(struct trie *t, struct tnode *tn);
+ /* tnodes to free after resize(); protected by RTNL */
+@@ -186,10 +170,10 @@ static struct kmem_cache *trie_leaf_kmem
+ #define node_parent_rcu(n) rcu_dereference_rtnl((n)->parent)
+ /* wrapper for rcu_assign_pointer */
+-static inline void node_set_parent(struct rt_trie_node *node, struct tnode *ptr)
++static inline void node_set_parent(struct tnode *n, struct tnode *tp)
+ {
+-      if (node)
+-              rcu_assign_pointer(node->parent, ptr);
++      if (n)
++              rcu_assign_pointer(n->parent, tp);
+ }
+ #define NODE_INIT_PARENT(n, p) RCU_INIT_POINTER((n)->parent, p)
+@@ -205,7 +189,7 @@ static inline int tnode_child_length(con
+ /*
+  * caller must hold RTNL
+  */
+-static inline struct rt_trie_node *tnode_get_child(const struct tnode *tn, unsigned int i)
++static inline struct tnode *tnode_get_child(const struct tnode *tn, unsigned int i)
+ {
+       BUG_ON(i >= tnode_child_length(tn));
+@@ -215,7 +199,7 @@ static inline struct rt_trie_node *tnode
+ /*
+  * caller must hold RCU read lock or RTNL
+  */
+-static inline struct rt_trie_node *tnode_get_child_rcu(const struct tnode *tn, unsigned int i)
++static inline struct tnode *tnode_get_child_rcu(const struct tnode *tn, unsigned int i)
+ {
+       BUG_ON(i >= tnode_child_length(tn));
+@@ -340,11 +324,11 @@ static inline void alias_free_mem_rcu(st
+ }
+ #define TNODE_KMALLOC_MAX \
+-      ilog2((PAGE_SIZE - sizeof(struct tnode)) / sizeof(struct rt_trie_node *))
++      ilog2((PAGE_SIZE - sizeof(struct tnode)) / sizeof(struct tnode *))
+ static void __node_free_rcu(struct rcu_head *head)
+ {
+-      struct rt_trie_node *n = container_of(head, struct rt_trie_node, rcu);
++      struct tnode *n = container_of(head, struct tnode, rcu);
+       if (IS_LEAF(n))
+               kmem_cache_free(trie_leaf_kmem, n);
+@@ -395,9 +379,9 @@ static void tnode_free_flush(void)
+       }
+ }
+-static struct leaf *leaf_new(t_key key)
++static struct tnode *leaf_new(t_key key)
+ {
+-      struct leaf *l = kmem_cache_alloc(trie_leaf_kmem, GFP_KERNEL);
++      struct tnode *l = kmem_cache_alloc(trie_leaf_kmem, GFP_KERNEL);
+       if (l) {
+               l->parent = NULL;
+               /* set key and pos to reflect full key value
+@@ -444,7 +428,7 @@ static struct tnode *tnode_new(t_key key
+       }
+       pr_debug("AT %p s=%zu %zu\n", tn, sizeof(struct tnode),
+-               sizeof(struct rt_trie_node *) << bits);
++               sizeof(struct tnode *) << bits);
+       return tn;
+ }
+@@ -453,13 +437,13 @@ static struct tnode *tnode_new(t_key key
+  * and no bits are skipped. See discussion in dyntree paper p. 6
+  */
+-static inline int tnode_full(const struct tnode *tn, const struct rt_trie_node *n)
++static inline int tnode_full(const struct tnode *tn, const struct tnode *n)
+ {
+       return n && IS_TNODE(n) && (n->pos == (tn->pos + tn->bits));
+ }
+ static inline void put_child(struct tnode *tn, int i,
+-                           struct rt_trie_node *n)
++                           struct tnode *n)
+ {
+       tnode_put_child_reorg(tn, i, n, -1);
+ }
+@@ -469,10 +453,10 @@ static inline void put_child(struct tnod
+   * Update the value of full_children and empty_children.
+   */
+-static void tnode_put_child_reorg(struct tnode *tn, int i, struct rt_trie_node *n,
++static void tnode_put_child_reorg(struct tnode *tn, int i, struct tnode *n,
+                                 int wasfull)
+ {
+-      struct rt_trie_node *chi = rtnl_dereference(tn->child[i]);
++      struct tnode *chi = rtnl_dereference(tn->child[i]);
+       int isfull;
+       BUG_ON(i >= 1<<tn->bits);
+@@ -499,10 +483,9 @@ static void tnode_put_child_reorg(struct
+ }
+ #define MAX_WORK 10
+-static struct rt_trie_node *resize(struct trie *t, struct tnode *tn)
++static struct tnode *resize(struct trie *t, struct tnode *tn)
+ {
+-      struct rt_trie_node *n = NULL;
+-      struct tnode *old_tn;
++      struct tnode *old_tn, *n = NULL;
+       int inflate_threshold_use;
+       int halve_threshold_use;
+       int max_work;
+@@ -614,7 +597,7 @@ static struct rt_trie_node *resize(struc
+       /* Return if at least one inflate is run */
+       if (max_work != MAX_WORK)
+-              return (struct rt_trie_node *) tn;
++              return tn;
+       /*
+        * Halve as long as the number of empty children in this
+@@ -650,13 +633,13 @@ no_children:
+               tnode_free_safe(tn);
+               return n;
+       }
+-      return (struct rt_trie_node *) tn;
++      return tn;
+ }
+ static void tnode_clean_free(struct tnode *tn)
+ {
+-      struct rt_trie_node *tofree;
++      struct tnode *tofree;
+       int i;
+       for (i = 0; i < tnode_child_length(tn); i++) {
+@@ -667,10 +650,10 @@ static void tnode_clean_free(struct tnod
+       node_free(tn);
+ }
+-static struct tnode *inflate(struct trie *t, struct tnode *tn)
++static struct tnode *inflate(struct trie *t, struct tnode *oldtnode)
+ {
+-      struct tnode *oldtnode = tn;
+-      int olen = tnode_child_length(tn);
++      int olen = tnode_child_length(oldtnode);
++      struct tnode *tn;
+       int i;
+       pr_debug("In inflate\n");
+@@ -690,11 +673,8 @@ static struct tnode *inflate(struct trie
+       for (i = 0; i < olen; i++) {
+               struct tnode *inode;
+-              inode = (struct tnode *) tnode_get_child(oldtnode, i);
+-              if (inode &&
+-                  IS_TNODE(inode) &&
+-                  inode->pos == oldtnode->pos + oldtnode->bits &&
+-                  inode->bits > 1) {
++              inode = tnode_get_child(oldtnode, i);
++              if (tnode_full(oldtnode, inode) && inode->bits > 1) {
+                       struct tnode *left, *right;
+                       t_key m = ~0U << (KEYLENGTH - 1) >> inode->pos;
+@@ -711,33 +691,29 @@ static struct tnode *inflate(struct trie
+                               goto nomem;
+                       }
+-                      put_child(tn, 2*i, (struct rt_trie_node *) left);
+-                      put_child(tn, 2*i+1, (struct rt_trie_node *) right);
++                      put_child(tn, 2*i, left);
++                      put_child(tn, 2*i+1, right);
+               }
+       }
+       for (i = 0; i < olen; i++) {
+-              struct tnode *inode;
+-              struct rt_trie_node *node = tnode_get_child(oldtnode, i);
++              struct tnode *inode = tnode_get_child(oldtnode, i);
+               struct tnode *left, *right;
+               int size, j;
+               /* An empty child */
+-              if (node == NULL)
++              if (inode == NULL)
+                       continue;
+               /* A leaf or an internal node with skipped bits */
+-
+-              if (IS_LEAF(node) || (node->pos > (tn->pos + tn->bits - 1))) {
++              if (!tnode_full(oldtnode, inode)) {
+                       put_child(tn,
+-                              tkey_extract_bits(node->key, oldtnode->pos, oldtnode->bits + 1),
+-                              node);
++                              tkey_extract_bits(inode->key, tn->pos, tn->bits),
++                              inode);
+                       continue;
+               }
+               /* An internal node with two children */
+-              inode = (struct tnode *) node;
+-
+               if (inode->bits == 1) {
+                       put_child(tn, 2*i, rtnl_dereference(inode->child[0]));
+                       put_child(tn, 2*i+1, rtnl_dereference(inode->child[1]));
+@@ -769,12 +745,12 @@ static struct tnode *inflate(struct trie
+                *   bit to zero.
+                */
+-              left = (struct tnode *) tnode_get_child(tn, 2*i);
++              left = tnode_get_child(tn, 2*i);
+               put_child(tn, 2*i, NULL);
+               BUG_ON(!left);
+-              right = (struct tnode *) tnode_get_child(tn, 2*i+1);
++              right = tnode_get_child(tn, 2*i+1);
+               put_child(tn, 2*i+1, NULL);
+               BUG_ON(!right);
+@@ -796,12 +772,11 @@ nomem:
+       return ERR_PTR(-ENOMEM);
+ }
+-static struct tnode *halve(struct trie *t, struct tnode *tn)
++static struct tnode *halve(struct trie *t, struct tnode *oldtnode)
+ {
+-      struct tnode *oldtnode = tn;
+-      struct rt_trie_node *left, *right;
++      int olen = tnode_child_length(oldtnode);
++      struct tnode *tn, *left, *right;
+       int i;
+-      int olen = tnode_child_length(tn);
+       pr_debug("In halve\n");
+@@ -830,7 +805,7 @@ static struct tnode *halve(struct trie *
+                       if (!newn)
+                               goto nomem;
+-                      put_child(tn, i/2, (struct rt_trie_node *)newn);
++                      put_child(tn, i/2, newn);
+               }
+       }
+@@ -855,7 +830,7 @@ static struct tnode *halve(struct trie *
+               }
+               /* Two nonempty children */
+-              newBinNode = (struct tnode *) tnode_get_child(tn, i/2);
++              newBinNode = tnode_get_child(tn, i/2);
+               put_child(tn, i/2, NULL);
+               put_child(newBinNode, 0, left);
+               put_child(newBinNode, 1, right);
+@@ -871,7 +846,7 @@ nomem:
+ /* readside must use rcu_read_lock currently dump routines
+  via get_fa_head and dump */
+-static struct leaf_info *find_leaf_info(struct leaf *l, int plen)
++static struct leaf_info *find_leaf_info(struct tnode *l, int plen)
+ {
+       struct hlist_head *head = &l->list;
+       struct leaf_info *li;
+@@ -883,7 +858,7 @@ static struct leaf_info *find_leaf_info(
+       return NULL;
+ }
+-static inline struct list_head *get_fa_head(struct leaf *l, int plen)
++static inline struct list_head *get_fa_head(struct tnode *l, int plen)
+ {
+       struct leaf_info *li = find_leaf_info(l, plen);
+@@ -915,32 +890,25 @@ static void insert_leaf_info(struct hlis
+ /* rcu_read_lock needs to be hold by caller from readside */
+-static struct leaf *
+-fib_find_node(struct trie *t, u32 key)
++static struct tnode *fib_find_node(struct trie *t, u32 key)
+ {
+-      int pos;
+-      struct tnode *tn;
+-      struct rt_trie_node *n;
+-
+-      pos = 0;
+-      n = rcu_dereference_rtnl(t->trie);
++      struct tnode *n = rcu_dereference_rtnl(t->trie);
++      int pos = 0;
+       while (n && IS_TNODE(n)) {
+-              tn = (struct tnode *) n;
+-
+-              if (tkey_sub_equals(tn->key, pos, tn->pos-pos, key)) {
+-                      pos = tn->pos + tn->bits;
+-                      n = tnode_get_child_rcu(tn,
++              if (tkey_sub_equals(n->key, pos, n->pos-pos, key)) {
++                      pos = n->pos + n->bits;
++                      n = tnode_get_child_rcu(n,
+                                               tkey_extract_bits(key,
+-                                                                tn->pos,
+-                                                                tn->bits));
++                                                                n->pos,
++                                                                n->bits));
+               } else
+                       break;
+       }
+       /* Case we have found a leaf. Compare prefixes */
+       if (n != NULL && IS_LEAF(n) && tkey_equals(key, n->key))
+-              return (struct leaf *)n;
++              return n;
+       return NULL;
+ }
+@@ -956,14 +924,13 @@ static void trie_rebalance(struct trie *
+       while (tn != NULL && (tp = node_parent(tn)) != NULL) {
+               cindex = tkey_extract_bits(key, tp->pos, tp->bits);
+               wasfull = tnode_full(tp, tnode_get_child(tp, cindex));
+-              tn = (struct tnode *)resize(t, tn);
++              tn = resize(t, tn);
+-              tnode_put_child_reorg(tp, cindex,
+-                                    (struct rt_trie_node *)tn, wasfull);
++              tnode_put_child_reorg(tp, cindex, tn, wasfull);
+               tp = node_parent(tn);
+               if (!tp)
+-                      rcu_assign_pointer(t->trie, (struct rt_trie_node *)tn);
++                      rcu_assign_pointer(t->trie, tn);
+               tnode_free_flush();
+               if (!tp)
+@@ -973,9 +940,9 @@ static void trie_rebalance(struct trie *
+       /* Handle last (top) tnode */
+       if (IS_TNODE(tn))
+-              tn = (struct tnode *)resize(t, tn);
++              tn = resize(t, tn);
+-      rcu_assign_pointer(t->trie, (struct rt_trie_node *)tn);
++      rcu_assign_pointer(t->trie, tn);
+       tnode_free_flush();
+ }
+@@ -985,8 +952,8 @@ static struct list_head *fib_insert_node
+ {
+       int pos, newpos;
+       struct tnode *tp = NULL, *tn = NULL;
+-      struct rt_trie_node *n;
+-      struct leaf *l;
++      struct tnode *n;
++      struct tnode *l;
+       int missbit;
+       struct list_head *fa_head = NULL;
+       struct leaf_info *li;
+@@ -1014,17 +981,15 @@ static struct list_head *fib_insert_node
+        */
+       while (n && IS_TNODE(n)) {
+-              tn = (struct tnode *) n;
+-
+-              if (tkey_sub_equals(tn->key, pos, tn->pos-pos, key)) {
+-                      tp = tn;
+-                      pos = tn->pos + tn->bits;
+-                      n = tnode_get_child(tn,
++              if (tkey_sub_equals(n->key, pos, n->pos-pos, key)) {
++                      tp = n;
++                      pos = n->pos + n->bits;
++                      n = tnode_get_child(n,
+                                           tkey_extract_bits(key,
+-                                                            tn->pos,
+-                                                            tn->bits));
++                                                            n->pos,
++                                                            n->bits));
+-                      BUG_ON(n && node_parent(n) != tn);
++                      BUG_ON(n && node_parent(n) != tp);
+               } else
+                       break;
+       }
+@@ -1040,14 +1005,13 @@ static struct list_head *fib_insert_node
+       /* Case 1: n is a leaf. Compare prefixes */
+       if (n != NULL && IS_LEAF(n) && tkey_equals(key, n->key)) {
+-              l = (struct leaf *) n;
+               li = leaf_info_new(plen);
+               if (!li)
+                       return NULL;
+               fa_head = &li->falh;
+-              insert_leaf_info(&l->list, li);
++              insert_leaf_info(&n->list, li);
+               goto done;
+       }
+       l = leaf_new(key);
+@@ -1068,10 +1032,10 @@ static struct list_head *fib_insert_node
+       if (t->trie && n == NULL) {
+               /* Case 2: n is NULL, and will just insert a new leaf */
+-              node_set_parent((struct rt_trie_node *)l, tp);
++              node_set_parent(l, tp);
+               cindex = tkey_extract_bits(key, tp->pos, tp->bits);
+-              put_child(tp, cindex, (struct rt_trie_node *)l);
++              put_child(tp, cindex, l);
+       } else {
+               /* Case 3: n is a LEAF or a TNODE and the key doesn't match. */
+               /*
+@@ -1094,17 +1058,17 @@ static struct list_head *fib_insert_node
+                       return NULL;
+               }
+-              node_set_parent((struct rt_trie_node *)tn, tp);
++              node_set_parent(tn, tp);
+               missbit = tkey_extract_bits(key, newpos, 1);
+-              put_child(tn, missbit, (struct rt_trie_node *)l);
++              put_child(tn, missbit, l);
+               put_child(tn, 1-missbit, n);
+               if (tp) {
+                       cindex = tkey_extract_bits(key, tp->pos, tp->bits);
+-                      put_child(tp, cindex, (struct rt_trie_node *)tn);
++                      put_child(tp, cindex, tn);
+               } else {
+-                      rcu_assign_pointer(t->trie, (struct rt_trie_node *)tn);
++                      rcu_assign_pointer(t->trie, tn);
+               }
+               tp = tn;
+@@ -1134,7 +1098,7 @@ int fib_table_insert(struct fib_table *t
+       u8 tos = cfg->fc_tos;
+       u32 key, mask;
+       int err;
+-      struct leaf *l;
++      struct tnode *l;
+       if (plen > 32)
+               return -EINVAL;
+@@ -1292,7 +1256,7 @@ err:
+ }
+ /* should be called with rcu_read_lock */
+-static int check_leaf(struct fib_table *tb, struct trie *t, struct leaf *l,
++static int check_leaf(struct fib_table *tb, struct trie *t, struct tnode *l,
+                     t_key key,  const struct flowi4 *flp,
+                     struct fib_result *res, int fib_flags)
+ {
+@@ -1365,7 +1329,7 @@ int fib_table_lookup(struct fib_table *t
+       struct trie_use_stats __percpu *stats = t->stats;
+ #endif
+       int ret;
+-      struct rt_trie_node *n;
++      struct tnode *n;
+       struct tnode *pn;
+       unsigned int pos, bits;
+       t_key key = ntohl(flp->daddr);
+@@ -1387,11 +1351,11 @@ int fib_table_lookup(struct fib_table *t
+       /* Just a leaf? */
+       if (IS_LEAF(n)) {
+-              ret = check_leaf(tb, t, (struct leaf *)n, key, flp, res, fib_flags);
++              ret = check_leaf(tb, t, n, key, flp, res, fib_flags);
+               goto found;
+       }
+-      pn = (struct tnode *) n;
++      pn = n;
+       chopped_off = 0;
+       while (pn) {
+@@ -1412,13 +1376,13 @@ int fib_table_lookup(struct fib_table *t
+               }
+               if (IS_LEAF(n)) {
+-                      ret = check_leaf(tb, t, (struct leaf *)n, key, flp, res, fib_flags);
++                      ret = check_leaf(tb, t, n, key, flp, res, fib_flags);
+                       if (ret > 0)
+                               goto backtrace;
+                       goto found;
+               }
+-              cn = (struct tnode *)n;
++              cn = n;
+               /*
+                * It's a tnode, and we can do some extra checks here if we
+@@ -1506,7 +1470,7 @@ int fib_table_lookup(struct fib_table *t
+                               current_prefix_length = mp;
+               }
+-              pn = (struct tnode *)n; /* Descend */
++              pn = n; /* Descend */
+               chopped_off = 0;
+               continue;
+@@ -1557,7 +1521,7 @@ EXPORT_SYMBOL_GPL(fib_table_lookup);
+ /*
+  * Remove the leaf and return parent.
+  */
+-static void trie_leaf_remove(struct trie *t, struct leaf *l)
++static void trie_leaf_remove(struct trie *t, struct tnode *l)
+ {
+       struct tnode *tp = node_parent(l);
+@@ -1584,7 +1548,7 @@ int fib_table_delete(struct fib_table *t
+       u8 tos = cfg->fc_tos;
+       struct fib_alias *fa, *fa_to_delete;
+       struct list_head *fa_head;
+-      struct leaf *l;
++      struct tnode *l;
+       struct leaf_info *li;
+       if (plen > 32)
+@@ -1682,7 +1646,7 @@ static int trie_flush_list(struct list_h
+       return found;
+ }
+-static int trie_flush_leaf(struct leaf *l)
++static int trie_flush_leaf(struct tnode *l)
+ {
+       int found = 0;
+       struct hlist_head *lih = &l->list;
+@@ -1704,7 +1668,7 @@ static int trie_flush_leaf(struct leaf *
+  * Scan for the next right leaf starting at node p->child[idx]
+  * Since we have back pointer, no recursion necessary.
+  */
+-static struct leaf *leaf_walk_rcu(struct tnode *p, struct rt_trie_node *c)
++static struct tnode *leaf_walk_rcu(struct tnode *p, struct tnode *c)
+ {
+       do {
+               t_key idx;
+@@ -1720,47 +1684,46 @@ static struct leaf *leaf_walk_rcu(struct
+                               continue;
+                       if (IS_LEAF(c))
+-                              return (struct leaf *) c;
++                              return c;
+                       /* Rescan start scanning in new node */
+-                      p = (struct tnode *) c;
++                      p = c;
+                       idx = 0;
+               }
+               /* Node empty, walk back up to parent */
+-              c = (struct rt_trie_node *) p;
++              c = p;
+       } while ((p = node_parent_rcu(c)) != NULL);
+       return NULL; /* Root of trie */
+ }
+-static struct leaf *trie_firstleaf(struct trie *t)
++static struct tnode *trie_firstleaf(struct trie *t)
+ {
+-      struct tnode *n = (struct tnode *)rcu_dereference_rtnl(t->trie);
++      struct tnode *n = rcu_dereference_rtnl(t->trie);
+       if (!n)
+               return NULL;
+       if (IS_LEAF(n))          /* trie is just a leaf */
+-              return (struct leaf *) n;
++              return n;
+       return leaf_walk_rcu(n, NULL);
+ }
+-static struct leaf *trie_nextleaf(struct leaf *l)
++static struct tnode *trie_nextleaf(struct tnode *l)
+ {
+-      struct rt_trie_node *c = (struct rt_trie_node *) l;
+-      struct tnode *p = node_parent_rcu(c);
++      struct tnode *p = node_parent_rcu(l);
+       if (!p)
+               return NULL;    /* trie with just one leaf */
+-      return leaf_walk_rcu(p, c);
++      return leaf_walk_rcu(p, l);
+ }
+-static struct leaf *trie_leafindex(struct trie *t, int index)
++static struct tnode *trie_leafindex(struct trie *t, int index)
+ {
+-      struct leaf *l = trie_firstleaf(t);
++      struct tnode *l = trie_firstleaf(t);
+       while (l && index-- > 0)
+               l = trie_nextleaf(l);
+@@ -1775,7 +1738,7 @@ static struct leaf *trie_leafindex(struc
+ int fib_table_flush(struct fib_table *tb)
+ {
+       struct trie *t = (struct trie *) tb->tb_data;
+-      struct leaf *l, *ll = NULL;
++      struct tnode *l, *ll = NULL;
+       int found = 0;
+       for (l = trie_firstleaf(t); l; l = trie_nextleaf(l)) {
+@@ -1840,7 +1803,7 @@ static int fn_trie_dump_fa(t_key key, in
+       return skb->len;
+ }
+-static int fn_trie_dump_leaf(struct leaf *l, struct fib_table *tb,
++static int fn_trie_dump_leaf(struct tnode *l, struct fib_table *tb,
+                       struct sk_buff *skb, struct netlink_callback *cb)
+ {
+       struct leaf_info *li;
+@@ -1876,7 +1839,7 @@ static int fn_trie_dump_leaf(struct leaf
+ int fib_table_dump(struct fib_table *tb, struct sk_buff *skb,
+                  struct netlink_callback *cb)
+ {
+-      struct leaf *l;
++      struct tnode *l;
+       struct trie *t = (struct trie *) tb->tb_data;
+       t_key key = cb->args[2];
+       int count = cb->args[3];
+@@ -1922,7 +1885,7 @@ void __init fib_trie_init(void)
+                                         0, SLAB_PANIC, NULL);
+       trie_leaf_kmem = kmem_cache_create("ip_fib_trie",
+-                                         max(sizeof(struct leaf),
++                                         max(sizeof(struct tnode),
+                                              sizeof(struct leaf_info)),
+                                          0, SLAB_PANIC, NULL);
+ }
+@@ -1965,7 +1928,7 @@ struct fib_trie_iter {
+       unsigned int depth;
+ };
+-static struct rt_trie_node *fib_trie_get_next(struct fib_trie_iter *iter)
++static struct tnode *fib_trie_get_next(struct fib_trie_iter *iter)
+ {
+       struct tnode *tn = iter->tnode;
+       unsigned int cindex = iter->index;
+@@ -1979,7 +1942,7 @@ static struct rt_trie_node *fib_trie_get
+                iter->tnode, iter->index, iter->depth);
+ rescan:
+       while (cindex < (1<<tn->bits)) {
+-              struct rt_trie_node *n = tnode_get_child_rcu(tn, cindex);
++              struct tnode *n = tnode_get_child_rcu(tn, cindex);
+               if (n) {
+                       if (IS_LEAF(n)) {
+@@ -1987,7 +1950,7 @@ rescan:
+                               iter->index = cindex + 1;
+                       } else {
+                               /* push down one level */
+-                              iter->tnode = (struct tnode *) n;
++                              iter->tnode = n;
+                               iter->index = 0;
+                               ++iter->depth;
+                       }
+@@ -1998,7 +1961,7 @@ rescan:
+       }
+       /* Current node exhausted, pop back up */
+-      p = node_parent_rcu((struct rt_trie_node *)tn);
++      p = node_parent_rcu(tn);
+       if (p) {
+               cindex = tkey_extract_bits(tn->key, p->pos, p->bits)+1;
+               tn = p;
+@@ -2010,10 +1973,10 @@ rescan:
+       return NULL;
+ }
+-static struct rt_trie_node *fib_trie_get_first(struct fib_trie_iter *iter,
++static struct tnode *fib_trie_get_first(struct fib_trie_iter *iter,
+                                      struct trie *t)
+ {
+-      struct rt_trie_node *n;
++      struct tnode *n;
+       if (!t)
+               return NULL;
+@@ -2023,7 +1986,7 @@ static struct rt_trie_node *fib_trie_get
+               return NULL;
+       if (IS_TNODE(n)) {
+-              iter->tnode = (struct tnode *) n;
++              iter->tnode = n;
+               iter->index = 0;
+               iter->depth = 1;
+       } else {
+@@ -2037,7 +2000,7 @@ static struct rt_trie_node *fib_trie_get
+ static void trie_collect_stats(struct trie *t, struct trie_stat *s)
+ {
+-      struct rt_trie_node *n;
++      struct tnode *n;
+       struct fib_trie_iter iter;
+       memset(s, 0, sizeof(*s));
+@@ -2045,7 +2008,6 @@ static void trie_collect_stats(struct tr
+       rcu_read_lock();
+       for (n = fib_trie_get_first(&iter, t); n; n = fib_trie_get_next(&iter)) {
+               if (IS_LEAF(n)) {
+-                      struct leaf *l = (struct leaf *)n;
+                       struct leaf_info *li;
+                       s->leaves++;
+@@ -2053,18 +2015,17 @@ static void trie_collect_stats(struct tr
+                       if (iter.depth > s->maxdepth)
+                               s->maxdepth = iter.depth;
+-                      hlist_for_each_entry_rcu(li, &l->list, hlist)
++                      hlist_for_each_entry_rcu(li, &n->list, hlist)
+                               ++s->prefixes;
+               } else {
+-                      const struct tnode *tn = (const struct tnode *) n;
+                       int i;
+                       s->tnodes++;
+-                      if (tn->bits < MAX_STAT_DEPTH)
+-                              s->nodesizes[tn->bits]++;
++                      if (n->bits < MAX_STAT_DEPTH)
++                              s->nodesizes[n->bits]++;
+-                      for (i = 0; i < (1<<tn->bits); i++)
+-                              if (!tn->child[i])
++                      for (i = 0; i < tnode_child_length(n); i++)
++                              if (!rcu_access_pointer(n->child[i]))
+                                       s->nullpointers++;
+               }
+       }
+@@ -2088,7 +2049,7 @@ static void trie_show_stats(struct seq_f
+       seq_printf(seq, "\tMax depth:      %u\n", stat->maxdepth);
+       seq_printf(seq, "\tLeaves:         %u\n", stat->leaves);
+-      bytes = sizeof(struct leaf) * stat->leaves;
++      bytes = sizeof(struct tnode) * stat->leaves;
+       seq_printf(seq, "\tPrefixes:       %u\n", stat->prefixes);
+       bytes += sizeof(struct leaf_info) * stat->prefixes;
+@@ -2109,7 +2070,7 @@ static void trie_show_stats(struct seq_f
+       seq_putc(seq, '\n');
+       seq_printf(seq, "\tPointers: %u\n", pointers);
+-      bytes += sizeof(struct rt_trie_node *) * pointers;
++      bytes += sizeof(struct tnode *) * pointers;
+       seq_printf(seq, "Null ptrs: %u\n", stat->nullpointers);
+       seq_printf(seq, "Total size: %u  kB\n", (bytes + 1023) / 1024);
+ }
+@@ -2163,7 +2124,7 @@ static int fib_triestat_seq_show(struct
+       seq_printf(seq,
+                  "Basic info: size of leaf:"
+                  " %Zd bytes, size of tnode: %Zd bytes.\n",
+-                 sizeof(struct leaf), sizeof(struct tnode));
++                 sizeof(struct tnode), sizeof(struct tnode));
+       for (h = 0; h < FIB_TABLE_HASHSZ; h++) {
+               struct hlist_head *head = &net->ipv4.fib_table_hash[h];
+@@ -2202,7 +2163,7 @@ static const struct file_operations fib_
+       .release = single_release_net,
+ };
+-static struct rt_trie_node *fib_trie_get_idx(struct seq_file *seq, loff_t pos)
++static struct tnode *fib_trie_get_idx(struct seq_file *seq, loff_t pos)
+ {
+       struct fib_trie_iter *iter = seq->private;
+       struct net *net = seq_file_net(seq);
+@@ -2214,7 +2175,7 @@ static struct rt_trie_node *fib_trie_get
+               struct fib_table *tb;
+               hlist_for_each_entry_rcu(tb, head, tb_hlist) {
+-                      struct rt_trie_node *n;
++                      struct tnode *n;
+                       for (n = fib_trie_get_first(iter,
+                                                   (struct trie *) tb->tb_data);
+@@ -2243,7 +2204,7 @@ static void *fib_trie_seq_next(struct se
+       struct fib_table *tb = iter->tb;
+       struct hlist_node *tb_node;
+       unsigned int h;
+-      struct rt_trie_node *n;
++      struct tnode *n;
+       ++*pos;
+       /* next node in same table */
+@@ -2329,29 +2290,26 @@ static inline const char *rtn_type(char
+ static int fib_trie_seq_show(struct seq_file *seq, void *v)
+ {
+       const struct fib_trie_iter *iter = seq->private;
+-      struct rt_trie_node *n = v;
++      struct tnode *n = v;
+       if (!node_parent_rcu(n))
+               fib_table_print(seq, iter->tb);
+       if (IS_TNODE(n)) {
+-              struct tnode *tn = (struct tnode *) n;
+-              __be32 prf = htonl(tn->key);
++              __be32 prf = htonl(n->key);
+-              seq_indent(seq, iter->depth-1);
++              seq_indent(seq, iter->depth - 1);
+               seq_printf(seq, "  +-- %pI4/%d %d %d %d\n",
+-                         &prf, tn->pos, tn->bits, tn->full_children,
+-                         tn->empty_children);
+-
++                         &prf, n->pos, n->bits, n->full_children,
++                         n->empty_children);
+       } else {
+-              struct leaf *l = (struct leaf *) n;
+               struct leaf_info *li;
+-              __be32 val = htonl(l->key);
++              __be32 val = htonl(n->key);
+               seq_indent(seq, iter->depth);
+               seq_printf(seq, "  |-- %pI4\n", &val);
+-              hlist_for_each_entry_rcu(li, &l->list, hlist) {
++              hlist_for_each_entry_rcu(li, &n->list, hlist) {
+                       struct fib_alias *fa;
+                       list_for_each_entry_rcu(fa, &li->falh, fa_list) {
+@@ -2401,9 +2359,9 @@ struct fib_route_iter {
+       t_key   key;
+ };
+-static struct leaf *fib_route_get_idx(struct fib_route_iter *iter, loff_t pos)
++static struct tnode *fib_route_get_idx(struct fib_route_iter *iter, loff_t pos)
+ {
+-      struct leaf *l = NULL;
++      struct tnode *l = NULL;
+       struct trie *t = iter->main_trie;
+       /* use cache location of last found key */
+@@ -2448,7 +2406,7 @@ static void *fib_route_seq_start(struct
+ static void *fib_route_seq_next(struct seq_file *seq, void *v, loff_t *pos)
+ {
+       struct fib_route_iter *iter = seq->private;
+-      struct leaf *l = v;
++      struct tnode *l = v;
+       ++*pos;
+       if (v == SEQ_START_TOKEN) {
+@@ -2494,7 +2452,7 @@ static unsigned int fib_flag_trans(int t
+  */
+ static int fib_route_seq_show(struct seq_file *seq, void *v)
+ {
+-      struct leaf *l = v;
++      struct tnode *l = v;
+       struct leaf_info *li;
+       if (v == SEQ_START_TOKEN) {
diff --git a/trunk/target/linux/generic/patches-3.18/080-06-fib_trie-Optimize-fib_table_lookup-to-avoid-wasting-.patch b/trunk/target/linux/generic/patches-3.18/080-06-fib_trie-Optimize-fib_table_lookup-to-avoid-wasting-.patch
new file mode 100644 (file)
index 0000000..e844126
--- /dev/null
@@ -0,0 +1,343 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:55:54 -0800
+Subject: [PATCH] fib_trie: Optimize fib_table_lookup to avoid wasting
+ time on loops/variables
+
+This patch is meant to reduce the complexity of fib_table_lookup by reducing
+the number of variables to the bare minimum while still keeping the same if
+not improved functionality versus the original.
+
+Most of this change was started off by the desire to rid the function of
+chopped_off and current_prefix_length as they actually added very little to
+the function since they only applied when computing the cindex.  I was able
+to replace them mostly with just a check for the prefix match.  As long as
+the prefix between the key and the node being tested was the same we know
+we can search the tnode fully versus just testing cindex 0.
+
+The second portion of the change ended up being a massive reordering.
+Originally the calls to check_leaf were up near the start of the loop, and
+the backtracing and descending into lower levels of tnodes was later.  This
+didn't make much sense as the structure of the tree means the leaves are
+always the last thing to be tested.  As such I reordered things so that we
+instead have a loop that will delve into the tree and only exit when we
+have either found a leaf or we have exhausted the tree.  The advantage of
+rearranging things like this is that we can fully inline check_leaf since
+there is now only one reference to it in the function.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -90,6 +90,9 @@ typedef unsigned int t_key;
+ #define IS_TNODE(n) ((n)->bits)
+ #define IS_LEAF(n) (!(n)->bits)
++#define get_shift(_kv) (KEYLENGTH - (_kv)->pos - (_kv)->bits)
++#define get_index(_key, _kv) (((_key) ^ (_kv)->key) >> get_shift(_kv))
++
+ struct tnode {
+       t_key key;
+       unsigned char bits;             /* 2log(KEYLENGTH) bits needed */
+@@ -1281,7 +1284,7 @@ static int check_leaf(struct fib_table *
+                               continue;
+                       fib_alias_accessed(fa);
+                       err = fib_props[fa->fa_type].error;
+-                      if (err) {
++                      if (unlikely(err < 0)) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+                               this_cpu_inc(t->stats->semantic_match_passed);
+ #endif
+@@ -1303,7 +1306,7 @@ static int check_leaf(struct fib_table *
+                               res->prefixlen = li->plen;
+                               res->nh_sel = nhsel;
+                               res->type = fa->fa_type;
+-                              res->scope = fa->fa_info->fib_scope;
++                              res->scope = fi->fib_scope;
+                               res->fi = fi;
+                               res->table = tb;
+                               res->fa_head = &li->falh;
+@@ -1321,23 +1324,24 @@ static int check_leaf(struct fib_table *
+       return 1;
+ }
++static inline t_key prefix_mismatch(t_key key, struct tnode *n)
++{
++      t_key prefix = n->key;
++
++      return (key ^ prefix) & (prefix | -prefix);
++}
++
+ int fib_table_lookup(struct fib_table *tb, const struct flowi4 *flp,
+                    struct fib_result *res, int fib_flags)
+ {
+-      struct trie *t = (struct trie *) tb->tb_data;
++      struct trie *t = (struct trie *)tb->tb_data;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+       struct trie_use_stats __percpu *stats = t->stats;
+ #endif
+-      int ret;
+-      struct tnode *n;
+-      struct tnode *pn;
+-      unsigned int pos, bits;
+-      t_key key = ntohl(flp->daddr);
+-      unsigned int chopped_off;
+-      t_key cindex = 0;
+-      unsigned int current_prefix_length = KEYLENGTH;
+-      struct tnode *cn;
+-      t_key pref_mismatch;
++      const t_key key = ntohl(flp->daddr);
++      struct tnode *n, *pn;
++      t_key cindex;
++      int ret = 1;
+       rcu_read_lock();
+@@ -1349,170 +1353,102 @@ int fib_table_lookup(struct fib_table *t
+       this_cpu_inc(stats->gets);
+ #endif
+-      /* Just a leaf? */
+-      if (IS_LEAF(n)) {
+-              ret = check_leaf(tb, t, n, key, flp, res, fib_flags);
+-              goto found;
+-      }
+-
+       pn = n;
+-      chopped_off = 0;
+-
+-      while (pn) {
+-              pos = pn->pos;
+-              bits = pn->bits;
++      cindex = 0;
+-              if (!chopped_off)
+-                      cindex = tkey_extract_bits(mask_pfx(key, current_prefix_length),
+-                                                 pos, bits);
+-
+-              n = tnode_get_child_rcu(pn, cindex);
+-
+-              if (n == NULL) {
+-#ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      this_cpu_inc(stats->null_node_hit);
+-#endif
+-                      goto backtrace;
+-              }
++      /* Step 1: Travel to the longest prefix match in the trie */
++      for (;;) {
++              unsigned long index = get_index(key, n);
++
++              /* This bit of code is a bit tricky but it combines multiple
++               * checks into a single check.  The prefix consists of the
++               * prefix plus zeros for the "bits" in the prefix. The index
++               * is the difference between the key and this value.  From
++               * this we can actually derive several pieces of data.
++               *   if !(index >> bits)
++               *     we know the value is child index
++               *   else
++               *     we have a mismatch in skip bits and failed
++               */
++              if (index >> n->bits)
++                      break;
+-              if (IS_LEAF(n)) {
+-                      ret = check_leaf(tb, t, n, key, flp, res, fib_flags);
+-                      if (ret > 0)
+-                              goto backtrace;
++              /* we have found a leaf. Prefixes have already been compared */
++              if (IS_LEAF(n))
+                       goto found;
+-              }
+-
+-              cn = n;
+-              /*
+-               * It's a tnode, and we can do some extra checks here if we
+-               * like, to avoid descending into a dead-end branch.
+-               * This tnode is in the parent's child array at index
+-               * key[p_pos..p_pos+p_bits] but potentially with some bits
+-               * chopped off, so in reality the index may be just a
+-               * subprefix, padded with zero at the end.
+-               * We can also take a look at any skipped bits in this
+-               * tnode - everything up to p_pos is supposed to be ok,
+-               * and the non-chopped bits of the index (se previous
+-               * paragraph) are also guaranteed ok, but the rest is
+-               * considered unknown.
+-               *
+-               * The skipped bits are key[pos+bits..cn->pos].
+-               */
+-
+-              /* If current_prefix_length < pos+bits, we are already doing
+-               * actual prefix  matching, which means everything from
+-               * pos+(bits-chopped_off) onward must be zero along some
+-               * branch of this subtree - otherwise there is *no* valid
+-               * prefix present. Here we can only check the skipped
+-               * bits. Remember, since we have already indexed into the
+-               * parent's child array, we know that the bits we chopped of
+-               * *are* zero.
++              /* only record pn and cindex if we are going to be chopping
++               * bits later.  Otherwise we are just wasting cycles.
+                */
+-
+-              /* NOTA BENE: Checking only skipped bits
+-                 for the new node here */
+-
+-              if (current_prefix_length < pos+bits) {
+-                      if (tkey_extract_bits(cn->key, current_prefix_length,
+-                                              cn->pos - current_prefix_length)
+-                          || !(cn->child[0]))
+-                              goto backtrace;
++              if (index) {
++                      pn = n;
++                      cindex = index;
+               }
+-              /*
+-               * If chopped_off=0, the index is fully validated and we
+-               * only need to look at the skipped bits for this, the new,
+-               * tnode. What we actually want to do is to find out if
+-               * these skipped bits match our key perfectly, or if we will
+-               * have to count on finding a matching prefix further down,
+-               * because if we do, we would like to have some way of
+-               * verifying the existence of such a prefix at this point.
+-               */
+-
+-              /* The only thing we can do at this point is to verify that
+-               * any such matching prefix can indeed be a prefix to our
+-               * key, and if the bits in the node we are inspecting that
+-               * do not match our key are not ZERO, this cannot be true.
+-               * Thus, find out where there is a mismatch (before cn->pos)
+-               * and verify that all the mismatching bits are zero in the
+-               * new tnode's key.
+-               */
++              n = rcu_dereference(n->child[index]);
++              if (unlikely(!n))
++                      goto backtrace;
++      }
+-              /*
+-               * Note: We aren't very concerned about the piece of
+-               * the key that precede pn->pos+pn->bits, since these
+-               * have already been checked. The bits after cn->pos
+-               * aren't checked since these are by definition
+-               * "unknown" at this point. Thus, what we want to see
+-               * is if we are about to enter the "prefix matching"
+-               * state, and in that case verify that the skipped
+-               * bits that will prevail throughout this subtree are
+-               * zero, as they have to be if we are to find a
+-               * matching prefix.
++      /* Step 2: Sort out leaves and begin backtracing for longest prefix */
++      for (;;) {
++              /* record the pointer where our next node pointer is stored */
++              struct tnode __rcu **cptr = n->child;
++
++              /* This test verifies that none of the bits that differ
++               * between the key and the prefix exist in the region of
++               * the lsb and higher in the prefix.
+                */
++              if (unlikely(prefix_mismatch(key, n)))
++                      goto backtrace;
+-              pref_mismatch = mask_pfx(cn->key ^ key, cn->pos);
++              /* exit out and process leaf */
++              if (unlikely(IS_LEAF(n)))
++                      break;
+-              /*
+-               * In short: If skipped bits in this node do not match
+-               * the search key, enter the "prefix matching"
+-               * state.directly.
++              /* Don't bother recording parent info.  Since we are in
++               * prefix match mode we will have to come back to wherever
++               * we started this traversal anyway
+                */
+-              if (pref_mismatch) {
+-                      /* fls(x) = __fls(x) + 1 */
+-                      int mp = KEYLENGTH - __fls(pref_mismatch) - 1;
+-
+-                      if (tkey_extract_bits(cn->key, mp, cn->pos - mp) != 0)
+-                              goto backtrace;
+-
+-                      if (current_prefix_length >= cn->pos)
+-                              current_prefix_length = mp;
+-              }
+-
+-              pn = n; /* Descend */
+-              chopped_off = 0;
+-              continue;
++              while ((n = rcu_dereference(*cptr)) == NULL) {
+ backtrace:
+-              chopped_off++;
+-
+-              /* As zero don't change the child key (cindex) */
+-              while ((chopped_off <= pn->bits)
+-                     && !(cindex & (1<<(chopped_off-1))))
+-                      chopped_off++;
+-
+-              /* Decrease current_... with bits chopped off */
+-              if (current_prefix_length > pn->pos + pn->bits - chopped_off)
+-                      current_prefix_length = pn->pos + pn->bits
+-                              - chopped_off;
+-
+-              /*
+-               * Either we do the actual chop off according or if we have
+-               * chopped off all bits in this tnode walk up to our parent.
+-               */
+-
+-              if (chopped_off <= pn->bits) {
+-                      cindex &= ~(1 << (chopped_off-1));
+-              } else {
+-                      struct tnode *parent = node_parent_rcu(pn);
+-                      if (!parent)
+-                              goto failed;
+-
+-                      /* Get Child's index */
+-                      cindex = tkey_extract_bits(pn->key, parent->pos, parent->bits);
+-                      pn = parent;
+-                      chopped_off = 0;
+-
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      this_cpu_inc(stats->backtrack);
++                      if (!n)
++                              this_cpu_inc(stats->null_node_hit);
+ #endif
+-                      goto backtrace;
++                      /* If we are at cindex 0 there are no more bits for
++                       * us to strip at this level so we must ascend back
++                       * up one level to see if there are any more bits to
++                       * be stripped there.
++                       */
++                      while (!cindex) {
++                              t_key pkey = pn->key;
++
++                              pn = node_parent_rcu(pn);
++                              if (unlikely(!pn))
++                                      goto failed;
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++                              this_cpu_inc(stats->backtrack);
++#endif
++                              /* Get Child's index */
++                              cindex = get_index(pkey, pn);
++                      }
++
++                      /* strip the least significant bit from the cindex */
++                      cindex &= cindex - 1;
++
++                      /* grab pointer for next child node */
++                      cptr = &pn->child[cindex];
+               }
+       }
+-failed:
+-      ret = 1;
++
+ found:
++      /* Step 3: Process the leaf, if that fails fall back to backtracing */
++      ret = check_leaf(tb, t, n, key, flp, res, fib_flags);
++      if (unlikely(ret > 0))
++              goto backtrace;
++failed:
+       rcu_read_unlock();
+       return ret;
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/080-07-fib_trie-Optimize-fib_find_node.patch b/trunk/target/linux/generic/patches-3.18/080-07-fib_trie-Optimize-fib_find_node.patch
new file mode 100644 (file)
index 0000000..0193f75
--- /dev/null
@@ -0,0 +1,64 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:00 -0800
+Subject: [PATCH] fib_trie: Optimize fib_find_node
+
+This patch makes use of the same features I made use of for
+fib_table_lookup to streamline fib_find_node.  The resultant code should be
+smaller and run faster than the original.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -892,28 +892,34 @@ static void insert_leaf_info(struct hlis
+ }
+ /* rcu_read_lock needs to be hold by caller from readside */
+-
+ static struct tnode *fib_find_node(struct trie *t, u32 key)
+ {
+       struct tnode *n = rcu_dereference_rtnl(t->trie);
+-      int pos = 0;
+-      while (n && IS_TNODE(n)) {
+-              if (tkey_sub_equals(n->key, pos, n->pos-pos, key)) {
+-                      pos = n->pos + n->bits;
+-                      n = tnode_get_child_rcu(n,
+-                                              tkey_extract_bits(key,
+-                                                                n->pos,
+-                                                                n->bits));
+-              } else
++      while (n) {
++              unsigned long index = get_index(key, n);
++
++              /* This bit of code is a bit tricky but it combines multiple
++               * checks into a single check.  The prefix consists of the
++               * prefix plus zeros for the bits in the cindex. The index
++               * is the difference between the key and this value.  From
++               * this we can actually derive several pieces of data.
++               *   if !(index >> bits)
++               *     we know the value is cindex
++               *   else
++               *     we have a mismatch in skip bits and failed
++               */
++              if (index >> n->bits)
++                      return NULL;
++
++              /* we have found a leaf. Prefixes have already been compared */
++              if (IS_LEAF(n))
+                       break;
+-      }
+-      /* Case we have found a leaf. Compare prefixes */
+-      if (n != NULL && IS_LEAF(n) && tkey_equals(key, n->key))
+-              return n;
++              n = rcu_dereference_rtnl(n->child[index]);
++      }
+-      return NULL;
++      return n;
+ }
+ static void trie_rebalance(struct trie *t, struct tnode *tn)
diff --git a/trunk/target/linux/generic/patches-3.18/080-08-fib_trie-Optimize-fib_table_insert.patch b/trunk/target/linux/generic/patches-3.18/080-08-fib_trie-Optimize-fib_table_insert.patch
new file mode 100644 (file)
index 0000000..b328d2c
--- /dev/null
@@ -0,0 +1,276 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:06 -0800
+Subject: [PATCH] fib_trie: Optimize fib_table_insert
+
+This patch updates the fib_table_insert function to take advantage of the
+changes made to improve the performance of fib_table_lookup.  As a result
+the code should be smaller and run faster then the original.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -222,31 +222,6 @@ static inline t_key tkey_extract_bits(t_
+               return 0;
+ }
+-static inline int tkey_equals(t_key a, t_key b)
+-{
+-      return a == b;
+-}
+-
+-static inline int tkey_sub_equals(t_key a, int offset, int bits, t_key b)
+-{
+-      if (bits == 0 || offset >= KEYLENGTH)
+-              return 1;
+-      bits = bits > KEYLENGTH ? KEYLENGTH : bits;
+-      return ((a ^ b) << offset) >> (KEYLENGTH - bits) == 0;
+-}
+-
+-static inline int tkey_mismatch(t_key a, int offset, t_key b)
+-{
+-      t_key diff = a ^ b;
+-      int i = offset;
+-
+-      if (!diff)
+-              return 0;
+-      while ((diff << i) >> (KEYLENGTH-1) == 0)
+-              i++;
+-      return i;
+-}
+-
+ /*
+   To understand this stuff, an understanding of keys and all their bits is
+   necessary. Every node in the trie has a key associated with it, but not
+@@ -485,6 +460,15 @@ static void tnode_put_child_reorg(struct
+       rcu_assign_pointer(tn->child[i], n);
+ }
++static void put_child_root(struct tnode *tp, struct trie *t,
++                         t_key key, struct tnode *n)
++{
++      if (tp)
++              put_child(tp, get_index(key, tp), n);
++      else
++              rcu_assign_pointer(t->trie, n);
++}
++
+ #define MAX_WORK 10
+ static struct tnode *resize(struct trie *t, struct tnode *tn)
+ {
+@@ -959,138 +943,100 @@ static void trie_rebalance(struct trie *
+ static struct list_head *fib_insert_node(struct trie *t, u32 key, int plen)
+ {
+-      int pos, newpos;
+-      struct tnode *tp = NULL, *tn = NULL;
+-      struct tnode *n;
+-      struct tnode *l;
+-      int missbit;
+       struct list_head *fa_head = NULL;
++      struct tnode *l, *n, *tp = NULL;
+       struct leaf_info *li;
+-      t_key cindex;
+-      pos = 0;
++      li = leaf_info_new(plen);
++      if (!li)
++              return NULL;
++      fa_head = &li->falh;
++
+       n = rtnl_dereference(t->trie);
+       /* If we point to NULL, stop. Either the tree is empty and we should
+        * just put a new leaf in if, or we have reached an empty child slot,
+        * and we should just put our new leaf in that.
+-       * If we point to a T_TNODE, check if it matches our key. Note that
+-       * a T_TNODE might be skipping any number of bits - its 'pos' need
+-       * not be the parent's 'pos'+'bits'!
+-       *
+-       * If it does match the current key, get pos/bits from it, extract
+-       * the index from our key, push the T_TNODE and walk the tree.
+-       *
+-       * If it doesn't, we have to replace it with a new T_TNODE.
+        *
+-       * If we point to a T_LEAF, it might or might not have the same key
+-       * as we do. If it does, just change the value, update the T_LEAF's
+-       * value, and return it.
+-       * If it doesn't, we need to replace it with a T_TNODE.
++       * If we hit a node with a key that does't match then we should stop
++       * and create a new tnode to replace that node and insert ourselves
++       * and the other node into the new tnode.
+        */
++      while (n) {
++              unsigned long index = get_index(key, n);
+-      while (n && IS_TNODE(n)) {
+-              if (tkey_sub_equals(n->key, pos, n->pos-pos, key)) {
+-                      tp = n;
+-                      pos = n->pos + n->bits;
+-                      n = tnode_get_child(n,
+-                                          tkey_extract_bits(key,
+-                                                            n->pos,
+-                                                            n->bits));
+-
+-                      BUG_ON(n && node_parent(n) != tp);
+-              } else
++              /* This bit of code is a bit tricky but it combines multiple
++               * checks into a single check.  The prefix consists of the
++               * prefix plus zeros for the "bits" in the prefix. The index
++               * is the difference between the key and this value.  From
++               * this we can actually derive several pieces of data.
++               *   if !(index >> bits)
++               *     we know the value is child index
++               *   else
++               *     we have a mismatch in skip bits and failed
++               */
++              if (index >> n->bits)
+                       break;
+-      }
+-
+-      /*
+-       * n  ----> NULL, LEAF or TNODE
+-       *
+-       * tp is n's (parent) ----> NULL or TNODE
+-       */
+-      BUG_ON(tp && IS_LEAF(tp));
+-
+-      /* Case 1: n is a leaf. Compare prefixes */
+-
+-      if (n != NULL && IS_LEAF(n) && tkey_equals(key, n->key)) {
+-              li = leaf_info_new(plen);
+-
+-              if (!li)
+-                      return NULL;
++              /* we have found a leaf. Prefixes have already been compared */
++              if (IS_LEAF(n)) {
++                      /* Case 1: n is a leaf, and prefixes match*/
++                      insert_leaf_info(&n->list, li);
++                      return fa_head;
++              }
+-              fa_head = &li->falh;
+-              insert_leaf_info(&n->list, li);
+-              goto done;
++              tp = n;
++              n = rcu_dereference_rtnl(n->child[index]);
+       }
+-      l = leaf_new(key);
+-
+-      if (!l)
+-              return NULL;
+-      li = leaf_info_new(plen);
+-
+-      if (!li) {
+-              node_free(l);
++      l = leaf_new(key);
++      if (!l) {
++              free_leaf_info(li);
+               return NULL;
+       }
+-      fa_head = &li->falh;
+       insert_leaf_info(&l->list, li);
+-      if (t->trie && n == NULL) {
+-              /* Case 2: n is NULL, and will just insert a new leaf */
+-
+-              node_set_parent(l, tp);
+-
+-              cindex = tkey_extract_bits(key, tp->pos, tp->bits);
+-              put_child(tp, cindex, l);
+-      } else {
+-              /* Case 3: n is a LEAF or a TNODE and the key doesn't match. */
+-              /*
+-               *  Add a new tnode here
+-               *  first tnode need some special handling
+-               */
++      /* Case 2: n is a LEAF or a TNODE and the key doesn't match.
++       *
++       *  Add a new tnode here
++       *  first tnode need some special handling
++       *  leaves us in position for handling as case 3
++       */
++      if (n) {
++              struct tnode *tn;
++              int newpos;
+-              if (n) {
+-                      pos = tp ? tp->pos+tp->bits : 0;
+-                      newpos = tkey_mismatch(key, pos, n->key);
+-                      tn = tnode_new(n->key, newpos, 1);
+-              } else {
+-                      newpos = 0;
+-                      tn = tnode_new(key, newpos, 1); /* First tnode */
+-              }
++              newpos = KEYLENGTH - __fls(n->key ^ key) - 1;
++              tn = tnode_new(key, newpos, 1);
+               if (!tn) {
+                       free_leaf_info(li);
+                       node_free(l);
+                       return NULL;
+               }
+-              node_set_parent(tn, tp);
+-
+-              missbit = tkey_extract_bits(key, newpos, 1);
+-              put_child(tn, missbit, l);
+-              put_child(tn, 1-missbit, n);
+-
+-              if (tp) {
+-                      cindex = tkey_extract_bits(key, tp->pos, tp->bits);
+-                      put_child(tp, cindex, tn);
+-              } else {
+-                      rcu_assign_pointer(t->trie, tn);
+-              }
++              /* initialize routes out of node */
++              NODE_INIT_PARENT(tn, tp);
++              put_child(tn, get_index(key, tn) ^ 1, n);
++
++              /* start adding routes into the node */
++              put_child_root(tp, t, key, tn);
++              node_set_parent(n, tn);
++              /* parent now has a NULL spot where the leaf can go */
+               tp = tn;
+       }
+-      if (tp && tp->pos + tp->bits > 32)
+-              pr_warn("fib_trie tp=%p pos=%d, bits=%d, key=%0x plen=%d\n",
+-                      tp, tp->pos, tp->bits, key, plen);
+-
+-      /* Rebalance the trie */
++      /* Case 3: n is NULL, and will just insert a new leaf */
++      if (tp) {
++              NODE_INIT_PARENT(l, tp);
++              put_child(tp, get_index(key, tp), l);
++              trie_rebalance(t, tp);
++      } else {
++              rcu_assign_pointer(t->trie, l);
++      }
+-      trie_rebalance(t, tp);
+-done:
+       return fa_head;
+ }
+@@ -1470,11 +1416,11 @@ static void trie_leaf_remove(struct trie
+       pr_debug("entering trie_leaf_remove(%p)\n", l);
+       if (tp) {
+-              t_key cindex = tkey_extract_bits(l->key, tp->pos, tp->bits);
+-              put_child(tp, cindex, NULL);
++              put_child(tp, get_index(l->key, tp), NULL);
+               trie_rebalance(t, tp);
+-      } else
++      } else {
+               RCU_INIT_POINTER(t->trie, NULL);
++      }
+       node_free(l);
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/080-09-fib_trie-Update-meaning-of-pos-to-represent-unchecke.patch b/trunk/target/linux/generic/patches-3.18/080-09-fib_trie-Update-meaning-of-pos-to-represent-unchecke.patch
new file mode 100644 (file)
index 0000000..a0d3476
--- /dev/null
@@ -0,0 +1,346 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:12 -0800
+Subject: [PATCH] fib_trie: Update meaning of pos to represent unchecked
+ bits
+
+This change moves the pos value to the other side of the "bits" field.  By
+doing this it actually simplifies a significant amount of code in the trie.
+
+For example when halving a tree we know that the bit lost exists at
+oldnode->pos, and if we inflate the tree the new bit being add is at
+tn->pos.  Previously to find those bits you would have to subtract pos and
+bits from the keylength or start with a value of (1 << 31) and then shift
+that.
+
+There are a number of spots throughout the code that benefit from this.  In
+the case of the hot-path searches the main advantage is that we can drop 2
+or more operations from the search path as we no longer need to compute the
+value for the index to be shifted by and can instead just use the raw pos
+value.
+
+In addition the tkey_extract_bits is now defunct and can be replaced by
+get_index since the two operations were doing the same thing, but now
+get_index does it much more quickly as it is only an xor and shift versus a
+pair of shifts and a subtraction.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -90,8 +90,7 @@ typedef unsigned int t_key;
+ #define IS_TNODE(n) ((n)->bits)
+ #define IS_LEAF(n) (!(n)->bits)
+-#define get_shift(_kv) (KEYLENGTH - (_kv)->pos - (_kv)->bits)
+-#define get_index(_key, _kv) (((_key) ^ (_kv)->key) >> get_shift(_kv))
++#define get_index(_key, _kv) (((_key) ^ (_kv)->key) >> (_kv)->pos)
+ struct tnode {
+       t_key key;
+@@ -209,81 +208,64 @@ static inline struct tnode *tnode_get_ch
+       return rcu_dereference_rtnl(tn->child[i]);
+ }
+-static inline t_key mask_pfx(t_key k, unsigned int l)
+-{
+-      return (l == 0) ? 0 : k >> (KEYLENGTH-l) << (KEYLENGTH-l);
+-}
+-
+-static inline t_key tkey_extract_bits(t_key a, unsigned int offset, unsigned int bits)
+-{
+-      if (offset < KEYLENGTH)
+-              return ((t_key)(a << offset)) >> (KEYLENGTH - bits);
+-      else
+-              return 0;
+-}
+-
+-/*
+-  To understand this stuff, an understanding of keys and all their bits is
+-  necessary. Every node in the trie has a key associated with it, but not
+-  all of the bits in that key are significant.
+-
+-  Consider a node 'n' and its parent 'tp'.
+-
+-  If n is a leaf, every bit in its key is significant. Its presence is
+-  necessitated by path compression, since during a tree traversal (when
+-  searching for a leaf - unless we are doing an insertion) we will completely
+-  ignore all skipped bits we encounter. Thus we need to verify, at the end of
+-  a potentially successful search, that we have indeed been walking the
+-  correct key path.
+-
+-  Note that we can never "miss" the correct key in the tree if present by
+-  following the wrong path. Path compression ensures that segments of the key
+-  that are the same for all keys with a given prefix are skipped, but the
+-  skipped part *is* identical for each node in the subtrie below the skipped
+-  bit! trie_insert() in this implementation takes care of that - note the
+-  call to tkey_sub_equals() in trie_insert().
+-
+-  if n is an internal node - a 'tnode' here, the various parts of its key
+-  have many different meanings.
+-
+-  Example:
+-  _________________________________________________________________
+-  | i | i | i | i | i | i | i | N | N | N | S | S | S | S | S | C |
+-  -----------------------------------------------------------------
+-    0   1   2   3   4   5   6   7   8   9  10  11  12  13  14  15
+-
+-  _________________________________________________________________
+-  | C | C | C | u | u | u | u | u | u | u | u | u | u | u | u | u |
+-  -----------------------------------------------------------------
+-   16  17  18  19  20  21  22  23  24  25  26  27  28  29  30  31
+-
+-  tp->pos = 7
+-  tp->bits = 3
+-  n->pos = 15
+-  n->bits = 4
+-
+-  First, let's just ignore the bits that come before the parent tp, that is
+-  the bits from 0 to (tp->pos-1). They are *known* but at this point we do
+-  not use them for anything.
+-
+-  The bits from (tp->pos) to (tp->pos + tp->bits - 1) - "N", above - are the
+-  index into the parent's child array. That is, they will be used to find
+-  'n' among tp's children.
+-
+-  The bits from (tp->pos + tp->bits) to (n->pos - 1) - "S" - are skipped bits
+-  for the node n.
+-
+-  All the bits we have seen so far are significant to the node n. The rest
+-  of the bits are really not needed or indeed known in n->key.
+-
+-  The bits from (n->pos) to (n->pos + n->bits - 1) - "C" - are the index into
+-  n's child array, and will of course be different for each child.
+-
+-
+-  The rest of the bits, from (n->pos + n->bits) onward, are completely unknown
+-  at this point.
+-
+-*/
++/* To understand this stuff, an understanding of keys and all their bits is
++ * necessary. Every node in the trie has a key associated with it, but not
++ * all of the bits in that key are significant.
++ *
++ * Consider a node 'n' and its parent 'tp'.
++ *
++ * If n is a leaf, every bit in its key is significant. Its presence is
++ * necessitated by path compression, since during a tree traversal (when
++ * searching for a leaf - unless we are doing an insertion) we will completely
++ * ignore all skipped bits we encounter. Thus we need to verify, at the end of
++ * a potentially successful search, that we have indeed been walking the
++ * correct key path.
++ *
++ * Note that we can never "miss" the correct key in the tree if present by
++ * following the wrong path. Path compression ensures that segments of the key
++ * that are the same for all keys with a given prefix are skipped, but the
++ * skipped part *is* identical for each node in the subtrie below the skipped
++ * bit! trie_insert() in this implementation takes care of that.
++ *
++ * if n is an internal node - a 'tnode' here, the various parts of its key
++ * have many different meanings.
++ *
++ * Example:
++ * _________________________________________________________________
++ * | i | i | i | i | i | i | i | N | N | N | S | S | S | S | S | C |
++ * -----------------------------------------------------------------
++ *  31  30  29  28  27  26  25  24  23  22  21  20  19  18  17  16
++ *
++ * _________________________________________________________________
++ * | C | C | C | u | u | u | u | u | u | u | u | u | u | u | u | u |
++ * -----------------------------------------------------------------
++ *  15  14  13  12  11  10   9   8   7   6   5   4   3   2   1   0
++ *
++ * tp->pos = 22
++ * tp->bits = 3
++ * n->pos = 13
++ * n->bits = 4
++ *
++ * First, let's just ignore the bits that come before the parent tp, that is
++ * the bits from (tp->pos + tp->bits) to 31. They are *known* but at this
++ * point we do not use them for anything.
++ *
++ * The bits from (tp->pos) to (tp->pos + tp->bits - 1) - "N", above - are the
++ * index into the parent's child array. That is, they will be used to find
++ * 'n' among tp's children.
++ *
++ * The bits from (n->pos + n->bits) to (tn->pos - 1) - "S" - are skipped bits
++ * for the node n.
++ *
++ * All the bits we have seen so far are significant to the node n. The rest
++ * of the bits are really not needed or indeed known in n->key.
++ *
++ * The bits from (n->pos) to (n->pos + n->bits - 1) - "C" - are the index into
++ * n's child array, and will of course be different for each child.
++ *
++ * The rest of the bits, from 0 to (n->pos + n->bits), are completely unknown
++ * at this point.
++ */
+ static const int halve_threshold = 25;
+ static const int inflate_threshold = 50;
+@@ -367,7 +349,7 @@ static struct tnode *leaf_new(t_key key)
+                * as the nodes are searched
+                */
+               l->key = key;
+-              l->pos = KEYLENGTH;
++              l->pos = 0;
+               /* set bits to 0 indicating we are not a tnode */
+               l->bits = 0;
+@@ -400,7 +382,7 @@ static struct tnode *tnode_new(t_key key
+               tn->parent = NULL;
+               tn->pos = pos;
+               tn->bits = bits;
+-              tn->key = mask_pfx(key, pos);
++              tn->key = (shift < KEYLENGTH) ? (key >> shift) << shift : 0;
+               tn->full_children = 0;
+               tn->empty_children = 1<<bits;
+       }
+@@ -410,14 +392,12 @@ static struct tnode *tnode_new(t_key key
+       return tn;
+ }
+-/*
+- * Check whether a tnode 'n' is "full", i.e. it is an internal node
++/* Check whether a tnode 'n' is "full", i.e. it is an internal node
+  * and no bits are skipped. See discussion in dyntree paper p. 6
+  */
+-
+ static inline int tnode_full(const struct tnode *tn, const struct tnode *n)
+ {
+-      return n && IS_TNODE(n) && (n->pos == (tn->pos + tn->bits));
++      return n && ((n->pos + n->bits) == tn->pos) && IS_TNODE(n);
+ }
+ static inline void put_child(struct tnode *tn, int i,
+@@ -641,11 +621,12 @@ static struct tnode *inflate(struct trie
+ {
+       int olen = tnode_child_length(oldtnode);
+       struct tnode *tn;
++      t_key m;
+       int i;
+       pr_debug("In inflate\n");
+-      tn = tnode_new(oldtnode->key, oldtnode->pos, oldtnode->bits + 1);
++      tn = tnode_new(oldtnode->key, oldtnode->pos - 1, oldtnode->bits + 1);
+       if (!tn)
+               return ERR_PTR(-ENOMEM);
+@@ -656,21 +637,18 @@ static struct tnode *inflate(struct trie
+        * fails. In case of failure we return the oldnode and  inflate
+        * of tnode is ignored.
+        */
++      for (i = 0, m = 1u << tn->pos; i < olen; i++) {
++              struct tnode *inode = tnode_get_child(oldtnode, i);
+-      for (i = 0; i < olen; i++) {
+-              struct tnode *inode;
+-
+-              inode = tnode_get_child(oldtnode, i);
+-              if (tnode_full(oldtnode, inode) && inode->bits > 1) {
++              if (tnode_full(oldtnode, inode) && (inode->bits > 1)) {
+                       struct tnode *left, *right;
+-                      t_key m = ~0U << (KEYLENGTH - 1) >> inode->pos;
+-                      left = tnode_new(inode->key&(~m), inode->pos + 1,
++                      left = tnode_new(inode->key & ~m, inode->pos,
+                                        inode->bits - 1);
+                       if (!left)
+                               goto nomem;
+-                      right = tnode_new(inode->key|m, inode->pos + 1,
++                      right = tnode_new(inode->key | m, inode->pos,
+                                         inode->bits - 1);
+                       if (!right) {
+@@ -694,9 +672,7 @@ static struct tnode *inflate(struct trie
+               /* A leaf or an internal node with skipped bits */
+               if (!tnode_full(oldtnode, inode)) {
+-                      put_child(tn,
+-                              tkey_extract_bits(inode->key, tn->pos, tn->bits),
+-                              inode);
++                      put_child(tn, get_index(inode->key, tn), inode);
+                       continue;
+               }
+@@ -767,7 +743,7 @@ static struct tnode *halve(struct trie *
+       pr_debug("In halve\n");
+-      tn = tnode_new(oldtnode->key, oldtnode->pos, oldtnode->bits - 1);
++      tn = tnode_new(oldtnode->key, oldtnode->pos + 1, oldtnode->bits - 1);
+       if (!tn)
+               return ERR_PTR(-ENOMEM);
+@@ -787,7 +763,7 @@ static struct tnode *halve(struct trie *
+               if (left && right) {
+                       struct tnode *newn;
+-                      newn = tnode_new(left->key, tn->pos + tn->bits, 1);
++                      newn = tnode_new(left->key, oldtnode->pos, 1);
+                       if (!newn)
+                               goto nomem;
+@@ -915,7 +891,7 @@ static void trie_rebalance(struct trie *
+       key = tn->key;
+       while (tn != NULL && (tp = node_parent(tn)) != NULL) {
+-              cindex = tkey_extract_bits(key, tp->pos, tp->bits);
++              cindex = get_index(key, tp);
+               wasfull = tnode_full(tp, tnode_get_child(tp, cindex));
+               tn = resize(t, tn);
+@@ -1005,11 +981,8 @@ static struct list_head *fib_insert_node
+        */
+       if (n) {
+               struct tnode *tn;
+-              int newpos;
+-
+-              newpos = KEYLENGTH - __fls(n->key ^ key) - 1;
+-              tn = tnode_new(key, newpos, 1);
++              tn = tnode_new(key, __fls(key ^ n->key), 1);
+               if (!tn) {
+                       free_leaf_info(li);
+                       node_free(l);
+@@ -1559,12 +1532,7 @@ static int trie_flush_leaf(struct tnode
+ static struct tnode *leaf_walk_rcu(struct tnode *p, struct tnode *c)
+ {
+       do {
+-              t_key idx;
+-
+-              if (c)
+-                      idx = tkey_extract_bits(c->key, p->pos, p->bits) + 1;
+-              else
+-                      idx = 0;
++              t_key idx = c ? idx = get_index(c->key, p) + 1 : 0;
+               while (idx < 1u << p->bits) {
+                       c = tnode_get_child_rcu(p, idx++);
+@@ -1851,7 +1819,7 @@ rescan:
+       /* Current node exhausted, pop back up */
+       p = node_parent_rcu(tn);
+       if (p) {
+-              cindex = tkey_extract_bits(tn->key, p->pos, p->bits)+1;
++              cindex = get_index(tn->key, p) + 1;
+               tn = p;
+               --iter->depth;
+               goto rescan;
+@@ -2186,10 +2154,10 @@ static int fib_trie_seq_show(struct seq_
+       if (IS_TNODE(n)) {
+               __be32 prf = htonl(n->key);
+-              seq_indent(seq, iter->depth - 1);
+-              seq_printf(seq, "  +-- %pI4/%d %d %d %d\n",
+-                         &prf, n->pos, n->bits, n->full_children,
+-                         n->empty_children);
++              seq_indent(seq, iter->depth-1);
++              seq_printf(seq, "  +-- %pI4/%zu %u %u %u\n",
++                         &prf, KEYLENGTH - n->pos - n->bits, n->bits,
++                         n->full_children, n->empty_children);
+       } else {
+               struct leaf_info *li;
+               __be32 val = htonl(n->key);
diff --git a/trunk/target/linux/generic/patches-3.18/080-10-fib_trie-Use-unsigned-long-for-anything-dealing-with.patch b/trunk/target/linux/generic/patches-3.18/080-10-fib_trie-Use-unsigned-long-for-anything-dealing-with.patch
new file mode 100644 (file)
index 0000000..487a25f
--- /dev/null
@@ -0,0 +1,186 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:18 -0800
+Subject: [PATCH] fib_trie: Use unsigned long for anything dealing with a
+ shift by bits
+
+This change makes it so that anything that can be shifted by, or compared
+to a value shifted by bits is updated to be an unsigned long.  This is
+mostly a precaution against an insanely huge address space that somehow
+starts coming close to the 2^32 root node size which would require
+something like 1.5 billion addresses.
+
+I chose unsigned long instead of unsigned long long since I do not believe
+it is possible to allocate a 32 bit tnode on a 32 bit system as the memory
+consumed would be 16GB + 28B which exceeds the addressible space for any
+one process.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -146,8 +146,8 @@ struct trie {
+ #endif
+ };
+-static void tnode_put_child_reorg(struct tnode *tn, int i, struct tnode *n,
+-                                int wasfull);
++static void tnode_put_child_reorg(struct tnode *tn, unsigned long i,
++                                struct tnode *n, int wasfull);
+ static struct tnode *resize(struct trie *t, struct tnode *tn);
+ static struct tnode *inflate(struct trie *t, struct tnode *tn);
+ static struct tnode *halve(struct trie *t, struct tnode *tn);
+@@ -183,25 +183,23 @@ static inline void node_set_parent(struc
+ /* This provides us with the number of children in this node, in the case of a
+  * leaf this will return 0 meaning none of the children are accessible.
+  */
+-static inline int tnode_child_length(const struct tnode *tn)
++static inline unsigned long tnode_child_length(const struct tnode *tn)
+ {
+       return (1ul << tn->bits) & ~(1ul);
+ }
+-/*
+- * caller must hold RTNL
+- */
+-static inline struct tnode *tnode_get_child(const struct tnode *tn, unsigned int i)
++/* caller must hold RTNL */
++static inline struct tnode *tnode_get_child(const struct tnode *tn,
++                                          unsigned long i)
+ {
+       BUG_ON(i >= tnode_child_length(tn));
+       return rtnl_dereference(tn->child[i]);
+ }
+-/*
+- * caller must hold RCU read lock or RTNL
+- */
+-static inline struct tnode *tnode_get_child_rcu(const struct tnode *tn, unsigned int i)
++/* caller must hold RCU read lock or RTNL */
++static inline struct tnode *tnode_get_child_rcu(const struct tnode *tn,
++                                              unsigned long i)
+ {
+       BUG_ON(i >= tnode_child_length(tn));
+@@ -400,7 +398,7 @@ static inline int tnode_full(const struc
+       return n && ((n->pos + n->bits) == tn->pos) && IS_TNODE(n);
+ }
+-static inline void put_child(struct tnode *tn, int i,
++static inline void put_child(struct tnode *tn, unsigned long i,
+                            struct tnode *n)
+ {
+       tnode_put_child_reorg(tn, i, n, -1);
+@@ -411,13 +409,13 @@ static inline void put_child(struct tnod
+   * Update the value of full_children and empty_children.
+   */
+-static void tnode_put_child_reorg(struct tnode *tn, int i, struct tnode *n,
+-                                int wasfull)
++static void tnode_put_child_reorg(struct tnode *tn, unsigned long i,
++                                struct tnode *n, int wasfull)
+ {
+       struct tnode *chi = rtnl_dereference(tn->child[i]);
+       int isfull;
+-      BUG_ON(i >= 1<<tn->bits);
++      BUG_ON(i >= tnode_child_length(tn));
+       /* update emptyChildren */
+       if (n == NULL && chi != NULL)
+@@ -607,10 +605,10 @@ no_children:
+ static void tnode_clean_free(struct tnode *tn)
+ {
+       struct tnode *tofree;
+-      int i;
++      unsigned long i;
+       for (i = 0; i < tnode_child_length(tn); i++) {
+-              tofree = rtnl_dereference(tn->child[i]);
++              tofree = tnode_get_child(tn, i);
+               if (tofree)
+                       node_free(tofree);
+       }
+@@ -619,10 +617,10 @@ static void tnode_clean_free(struct tnod
+ static struct tnode *inflate(struct trie *t, struct tnode *oldtnode)
+ {
+-      int olen = tnode_child_length(oldtnode);
++      unsigned long olen = tnode_child_length(oldtnode);
+       struct tnode *tn;
++      unsigned long i;
+       t_key m;
+-      int i;
+       pr_debug("In inflate\n");
+@@ -664,7 +662,7 @@ static struct tnode *inflate(struct trie
+       for (i = 0; i < olen; i++) {
+               struct tnode *inode = tnode_get_child(oldtnode, i);
+               struct tnode *left, *right;
+-              int size, j;
++              unsigned long size, j;
+               /* An empty child */
+               if (inode == NULL)
+@@ -737,7 +735,7 @@ nomem:
+ static struct tnode *halve(struct trie *t, struct tnode *oldtnode)
+ {
+-      int olen = tnode_child_length(oldtnode);
++      unsigned long olen = tnode_child_length(oldtnode);
+       struct tnode *tn, *left, *right;
+       int i;
+@@ -1532,9 +1530,9 @@ static int trie_flush_leaf(struct tnode
+ static struct tnode *leaf_walk_rcu(struct tnode *p, struct tnode *c)
+ {
+       do {
+-              t_key idx = c ? idx = get_index(c->key, p) + 1 : 0;
++              unsigned long idx = c ? idx = get_index(c->key, p) + 1 : 0;
+-              while (idx < 1u << p->bits) {
++              while (idx < tnode_child_length(p)) {
+                       c = tnode_get_child_rcu(p, idx++);
+                       if (!c)
+                               continue;
+@@ -1786,8 +1784,8 @@ struct fib_trie_iter {
+ static struct tnode *fib_trie_get_next(struct fib_trie_iter *iter)
+ {
++      unsigned long cindex = iter->index;
+       struct tnode *tn = iter->tnode;
+-      unsigned int cindex = iter->index;
+       struct tnode *p;
+       /* A single entry routing table */
+@@ -1797,7 +1795,7 @@ static struct tnode *fib_trie_get_next(s
+       pr_debug("get_next iter={node=%p index=%d depth=%d}\n",
+                iter->tnode, iter->index, iter->depth);
+ rescan:
+-      while (cindex < (1<<tn->bits)) {
++      while (cindex < tnode_child_length(tn)) {
+               struct tnode *n = tnode_get_child_rcu(tn, cindex);
+               if (n) {
+@@ -1874,15 +1872,16 @@ static void trie_collect_stats(struct tr
+                       hlist_for_each_entry_rcu(li, &n->list, hlist)
+                               ++s->prefixes;
+               } else {
+-                      int i;
++                      unsigned long i;
+                       s->tnodes++;
+                       if (n->bits < MAX_STAT_DEPTH)
+                               s->nodesizes[n->bits]++;
+-                      for (i = 0; i < tnode_child_length(n); i++)
++                      for (i = 0; i < tnode_child_length(n); i++) {
+                               if (!rcu_access_pointer(n->child[i]))
+                                       s->nullpointers++;
++                      }
+               }
+       }
+       rcu_read_unlock();
diff --git a/trunk/target/linux/generic/patches-3.18/080-11-fib_trie-Push-rcu_read_lock-unlock-to-callers.patch b/trunk/target/linux/generic/patches-3.18/080-11-fib_trie-Push-rcu_read_lock-unlock-to-callers.patch
new file mode 100644 (file)
index 0000000..b36bcd8
--- /dev/null
@@ -0,0 +1,403 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:24 -0800
+Subject: [PATCH] fib_trie: Push rcu_read_lock/unlock to callers
+
+This change is to start cleaning up some of the rcu_read_lock/unlock
+handling.  I realized while reviewing the code there are several spots that
+I don't believe are being handled correctly or are masking warnings by
+locally calling rcu_read_lock/unlock instead of calling them at the correct
+level.
+
+A common example is a call to fib_get_table followed by fib_table_lookup.
+The rcu_read_lock/unlock ought to wrap both but there are several spots where
+they were not wrapped.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/include/net/ip_fib.h
++++ b/include/net/ip_fib.h
+@@ -222,16 +222,19 @@ static inline struct fib_table *fib_new_
+ static inline int fib_lookup(struct net *net, const struct flowi4 *flp,
+                            struct fib_result *res)
+ {
+-      struct fib_table *table;
++      int err = -ENETUNREACH;
+-      table = fib_get_table(net, RT_TABLE_LOCAL);
+-      if (!fib_table_lookup(table, flp, res, FIB_LOOKUP_NOREF))
+-              return 0;
+-
+-      table = fib_get_table(net, RT_TABLE_MAIN);
+-      if (!fib_table_lookup(table, flp, res, FIB_LOOKUP_NOREF))
+-              return 0;
+-      return -ENETUNREACH;
++      rcu_read_lock();
++
++      if (!fib_table_lookup(fib_get_table(net, RT_TABLE_LOCAL), flp, res,
++                            FIB_LOOKUP_NOREF) ||
++          !fib_table_lookup(fib_get_table(net, RT_TABLE_MAIN), flp, res,
++                            FIB_LOOKUP_NOREF))
++              err = 0;
++
++      rcu_read_unlock();
++
++      return err;
+ }
+ #else /* CONFIG_IP_MULTIPLE_TABLES */
+@@ -247,20 +250,25 @@ static inline int fib_lookup(struct net
+                            struct fib_result *res)
+ {
+       if (!net->ipv4.fib_has_custom_rules) {
++              int err = -ENETUNREACH;
++
++              rcu_read_lock();
++
+               res->tclassid = 0;
+-              if (net->ipv4.fib_local &&
+-                  !fib_table_lookup(net->ipv4.fib_local, flp, res,
+-                                    FIB_LOOKUP_NOREF))
+-                      return 0;
+-              if (net->ipv4.fib_main &&
+-                  !fib_table_lookup(net->ipv4.fib_main, flp, res,
+-                                    FIB_LOOKUP_NOREF))
+-                      return 0;
+-              if (net->ipv4.fib_default &&
+-                  !fib_table_lookup(net->ipv4.fib_default, flp, res,
+-                                    FIB_LOOKUP_NOREF))
+-                      return 0;
+-              return -ENETUNREACH;
++              if ((net->ipv4.fib_local &&
++                   !fib_table_lookup(net->ipv4.fib_local, flp, res,
++                                     FIB_LOOKUP_NOREF)) ||
++                  (net->ipv4.fib_main &&
++                   !fib_table_lookup(net->ipv4.fib_main, flp, res,
++                                     FIB_LOOKUP_NOREF)) ||
++                  (net->ipv4.fib_default &&
++                   !fib_table_lookup(net->ipv4.fib_default, flp, res,
++                                     FIB_LOOKUP_NOREF)))
++                      err = 0;
++
++              rcu_read_unlock();
++
++              return err;
+       }
+       return __fib_lookup(net, flp, res);
+ }
+--- a/net/ipv4/fib_frontend.c
++++ b/net/ipv4/fib_frontend.c
+@@ -109,6 +109,7 @@ struct fib_table *fib_new_table(struct n
+       return tb;
+ }
++/* caller must hold either rtnl or rcu read lock */
+ struct fib_table *fib_get_table(struct net *net, u32 id)
+ {
+       struct fib_table *tb;
+@@ -119,15 +120,11 @@ struct fib_table *fib_get_table(struct n
+               id = RT_TABLE_MAIN;
+       h = id & (FIB_TABLE_HASHSZ - 1);
+-      rcu_read_lock();
+       head = &net->ipv4.fib_table_hash[h];
+       hlist_for_each_entry_rcu(tb, head, tb_hlist) {
+-              if (tb->tb_id == id) {
+-                      rcu_read_unlock();
++              if (tb->tb_id == id)
+                       return tb;
+-              }
+       }
+-      rcu_read_unlock();
+       return NULL;
+ }
+ #endif /* CONFIG_IP_MULTIPLE_TABLES */
+@@ -167,16 +164,18 @@ static inline unsigned int __inet_dev_ad
+       if (ipv4_is_multicast(addr))
+               return RTN_MULTICAST;
++      rcu_read_lock();
++
+       local_table = fib_get_table(net, RT_TABLE_LOCAL);
+       if (local_table) {
+               ret = RTN_UNICAST;
+-              rcu_read_lock();
+               if (!fib_table_lookup(local_table, &fl4, &res, FIB_LOOKUP_NOREF)) {
+                       if (!dev || dev == res.fi->fib_dev)
+                               ret = res.type;
+               }
+-              rcu_read_unlock();
+       }
++
++      rcu_read_unlock();
+       return ret;
+ }
+@@ -919,7 +918,7 @@ void fib_del_ifaddr(struct in_ifaddr *if
+ #undef BRD1_OK
+ }
+-static void nl_fib_lookup(struct fib_result_nl *frn, struct fib_table *tb)
++static void nl_fib_lookup(struct net *net, struct fib_result_nl *frn)
+ {
+       struct fib_result       res;
+@@ -929,6 +928,11 @@ static void nl_fib_lookup(struct fib_res
+               .flowi4_tos = frn->fl_tos,
+               .flowi4_scope = frn->fl_scope,
+       };
++      struct fib_table *tb;
++
++      rcu_read_lock();
++
++      tb = fib_get_table(net, frn->tb_id_in);
+       frn->err = -ENOENT;
+       if (tb) {
+@@ -945,6 +949,8 @@ static void nl_fib_lookup(struct fib_res
+               }
+               local_bh_enable();
+       }
++
++      rcu_read_unlock();
+ }
+ static void nl_fib_input(struct sk_buff *skb)
+@@ -952,7 +958,6 @@ static void nl_fib_input(struct sk_buff
+       struct net *net;
+       struct fib_result_nl *frn;
+       struct nlmsghdr *nlh;
+-      struct fib_table *tb;
+       u32 portid;
+       net = sock_net(skb->sk);
+@@ -967,9 +972,7 @@ static void nl_fib_input(struct sk_buff
+       nlh = nlmsg_hdr(skb);
+       frn = (struct fib_result_nl *) nlmsg_data(nlh);
+-      tb = fib_get_table(net, frn->tb_id_in);
+-
+-      nl_fib_lookup(frn, tb);
++      nl_fib_lookup(net, frn);
+       portid = NETLINK_CB(skb).portid;      /* netlink portid */
+       NETLINK_CB(skb).portid = 0;        /* from kernel */
+--- a/net/ipv4/fib_rules.c
++++ b/net/ipv4/fib_rules.c
+@@ -81,27 +81,25 @@ static int fib4_rule_action(struct fib_r
+               break;
+       case FR_ACT_UNREACHABLE:
+-              err = -ENETUNREACH;
+-              goto errout;
++              return -ENETUNREACH;
+       case FR_ACT_PROHIBIT:
+-              err = -EACCES;
+-              goto errout;
++              return -EACCES;
+       case FR_ACT_BLACKHOLE:
+       default:
+-              err = -EINVAL;
+-              goto errout;
++              return -EINVAL;
+       }
++      rcu_read_lock();
++
+       tbl = fib_get_table(rule->fr_net, rule->table);
+-      if (!tbl)
+-              goto errout;
++      if (tbl)
++              err = fib_table_lookup(tbl, &flp->u.ip4,
++                                     (struct fib_result *)arg->result,
++                                     arg->flags);
+-      err = fib_table_lookup(tbl, &flp->u.ip4, (struct fib_result *) arg->result, arg->flags);
+-      if (err > 0)
+-              err = -EAGAIN;
+-errout:
++      rcu_read_unlock();
+       return err;
+ }
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -1181,72 +1181,6 @@ err:
+       return err;
+ }
+-/* should be called with rcu_read_lock */
+-static int check_leaf(struct fib_table *tb, struct trie *t, struct tnode *l,
+-                    t_key key,  const struct flowi4 *flp,
+-                    struct fib_result *res, int fib_flags)
+-{
+-      struct leaf_info *li;
+-      struct hlist_head *hhead = &l->list;
+-
+-      hlist_for_each_entry_rcu(li, hhead, hlist) {
+-              struct fib_alias *fa;
+-
+-              if (l->key != (key & li->mask_plen))
+-                      continue;
+-
+-              list_for_each_entry_rcu(fa, &li->falh, fa_list) {
+-                      struct fib_info *fi = fa->fa_info;
+-                      int nhsel, err;
+-
+-                      if (fa->fa_tos && fa->fa_tos != flp->flowi4_tos)
+-                              continue;
+-                      if (fi->fib_dead)
+-                              continue;
+-                      if (fa->fa_info->fib_scope < flp->flowi4_scope)
+-                              continue;
+-                      fib_alias_accessed(fa);
+-                      err = fib_props[fa->fa_type].error;
+-                      if (unlikely(err < 0)) {
+-#ifdef CONFIG_IP_FIB_TRIE_STATS
+-                              this_cpu_inc(t->stats->semantic_match_passed);
+-#endif
+-                              return err;
+-                      }
+-                      if (fi->fib_flags & RTNH_F_DEAD)
+-                              continue;
+-                      for (nhsel = 0; nhsel < fi->fib_nhs; nhsel++) {
+-                              const struct fib_nh *nh = &fi->fib_nh[nhsel];
+-
+-                              if (nh->nh_flags & RTNH_F_DEAD)
+-                                      continue;
+-                              if (flp->flowi4_oif && flp->flowi4_oif != nh->nh_oif)
+-                                      continue;
+-
+-#ifdef CONFIG_IP_FIB_TRIE_STATS
+-                              this_cpu_inc(t->stats->semantic_match_passed);
+-#endif
+-                              res->prefixlen = li->plen;
+-                              res->nh_sel = nhsel;
+-                              res->type = fa->fa_type;
+-                              res->scope = fi->fib_scope;
+-                              res->fi = fi;
+-                              res->table = tb;
+-                              res->fa_head = &li->falh;
+-                              if (!(fib_flags & FIB_LOOKUP_NOREF))
+-                                      atomic_inc(&fi->fib_clntref);
+-                              return 0;
+-                      }
+-              }
+-
+-#ifdef CONFIG_IP_FIB_TRIE_STATS
+-              this_cpu_inc(t->stats->semantic_match_miss);
+-#endif
+-      }
+-
+-      return 1;
+-}
+-
+ static inline t_key prefix_mismatch(t_key key, struct tnode *n)
+ {
+       t_key prefix = n->key;
+@@ -1254,6 +1188,7 @@ static inline t_key prefix_mismatch(t_ke
+       return (key ^ prefix) & (prefix | -prefix);
+ }
++/* should be called with rcu_read_lock */
+ int fib_table_lookup(struct fib_table *tb, const struct flowi4 *flp,
+                    struct fib_result *res, int fib_flags)
+ {
+@@ -1263,14 +1198,12 @@ int fib_table_lookup(struct fib_table *t
+ #endif
+       const t_key key = ntohl(flp->daddr);
+       struct tnode *n, *pn;
++      struct leaf_info *li;
+       t_key cindex;
+-      int ret = 1;
+-
+-      rcu_read_lock();
+       n = rcu_dereference(t->trie);
+       if (!n)
+-              goto failed;
++              return -EAGAIN;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+       this_cpu_inc(stats->gets);
+@@ -1350,7 +1283,7 @@ backtrace:
+                               pn = node_parent_rcu(pn);
+                               if (unlikely(!pn))
+-                                      goto failed;
++                                      return -EAGAIN;
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+                               this_cpu_inc(stats->backtrack);
+ #endif
+@@ -1368,12 +1301,62 @@ backtrace:
+ found:
+       /* Step 3: Process the leaf, if that fails fall back to backtracing */
+-      ret = check_leaf(tb, t, n, key, flp, res, fib_flags);
+-      if (unlikely(ret > 0))
+-              goto backtrace;
+-failed:
+-      rcu_read_unlock();
+-      return ret;
++      hlist_for_each_entry_rcu(li, &n->list, hlist) {
++              struct fib_alias *fa;
++
++              if ((key ^ n->key) & li->mask_plen)
++                      continue;
++
++              list_for_each_entry_rcu(fa, &li->falh, fa_list) {
++                      struct fib_info *fi = fa->fa_info;
++                      int nhsel, err;
++
++                      if (fa->fa_tos && fa->fa_tos != flp->flowi4_tos)
++                              continue;
++                      if (fi->fib_dead)
++                              continue;
++                      if (fa->fa_info->fib_scope < flp->flowi4_scope)
++                              continue;
++                      fib_alias_accessed(fa);
++                      err = fib_props[fa->fa_type].error;
++                      if (unlikely(err < 0)) {
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++                              this_cpu_inc(stats->semantic_match_passed);
++#endif
++                              return err;
++                      }
++                      if (fi->fib_flags & RTNH_F_DEAD)
++                              continue;
++                      for (nhsel = 0; nhsel < fi->fib_nhs; nhsel++) {
++                              const struct fib_nh *nh = &fi->fib_nh[nhsel];
++
++                              if (nh->nh_flags & RTNH_F_DEAD)
++                                      continue;
++                              if (flp->flowi4_oif && flp->flowi4_oif != nh->nh_oif)
++                                      continue;
++
++                              if (!(fib_flags & FIB_LOOKUP_NOREF))
++                                      atomic_inc(&fi->fib_clntref);
++
++                              res->prefixlen = li->plen;
++                              res->nh_sel = nhsel;
++                              res->type = fa->fa_type;
++                              res->scope = fi->fib_scope;
++                              res->fi = fi;
++                              res->table = tb;
++                              res->fa_head = &li->falh;
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++                              this_cpu_inc(stats->semantic_match_passed);
++#endif
++                              return err;
++                      }
++              }
++
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++              this_cpu_inc(stats->semantic_match_miss);
++#endif
++      }
++      goto backtrace;
+ }
+ EXPORT_SYMBOL_GPL(fib_table_lookup);
diff --git a/trunk/target/linux/generic/patches-3.18/080-12-fib_trie-Move-resize-to-after-inflate-halve.patch b/trunk/target/linux/generic/patches-3.18/080-12-fib_trie-Move-resize-to-after-inflate-halve.patch
new file mode 100644 (file)
index 0000000..a373add
--- /dev/null
@@ -0,0 +1,345 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:31 -0800
+Subject: [PATCH] fib_trie: Move resize to after inflate/halve
+
+This change consists of a cut/paste of resize to behind inflate and halve
+so that I could remove the two function prototypes.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -149,8 +149,6 @@ struct trie {
+ static void tnode_put_child_reorg(struct tnode *tn, unsigned long i,
+                                 struct tnode *n, int wasfull);
+ static struct tnode *resize(struct trie *t, struct tnode *tn);
+-static struct tnode *inflate(struct trie *t, struct tnode *tn);
+-static struct tnode *halve(struct trie *t, struct tnode *tn);
+ /* tnodes to free after resize(); protected by RTNL */
+ static struct callback_head *tnode_free_head;
+ static size_t tnode_free_size;
+@@ -447,161 +445,6 @@ static void put_child_root(struct tnode
+               rcu_assign_pointer(t->trie, n);
+ }
+-#define MAX_WORK 10
+-static struct tnode *resize(struct trie *t, struct tnode *tn)
+-{
+-      struct tnode *old_tn, *n = NULL;
+-      int inflate_threshold_use;
+-      int halve_threshold_use;
+-      int max_work;
+-
+-      if (!tn)
+-              return NULL;
+-
+-      pr_debug("In tnode_resize %p inflate_threshold=%d threshold=%d\n",
+-               tn, inflate_threshold, halve_threshold);
+-
+-      /* No children */
+-      if (tn->empty_children > (tnode_child_length(tn) - 1))
+-              goto no_children;
+-
+-      /* One child */
+-      if (tn->empty_children == (tnode_child_length(tn) - 1))
+-              goto one_child;
+-      /*
+-       * Double as long as the resulting node has a number of
+-       * nonempty nodes that are above the threshold.
+-       */
+-
+-      /*
+-       * From "Implementing a dynamic compressed trie" by Stefan Nilsson of
+-       * the Helsinki University of Technology and Matti Tikkanen of Nokia
+-       * Telecommunications, page 6:
+-       * "A node is doubled if the ratio of non-empty children to all
+-       * children in the *doubled* node is at least 'high'."
+-       *
+-       * 'high' in this instance is the variable 'inflate_threshold'. It
+-       * is expressed as a percentage, so we multiply it with
+-       * tnode_child_length() and instead of multiplying by 2 (since the
+-       * child array will be doubled by inflate()) and multiplying
+-       * the left-hand side by 100 (to handle the percentage thing) we
+-       * multiply the left-hand side by 50.
+-       *
+-       * The left-hand side may look a bit weird: tnode_child_length(tn)
+-       * - tn->empty_children is of course the number of non-null children
+-       * in the current node. tn->full_children is the number of "full"
+-       * children, that is non-null tnodes with a skip value of 0.
+-       * All of those will be doubled in the resulting inflated tnode, so
+-       * we just count them one extra time here.
+-       *
+-       * A clearer way to write this would be:
+-       *
+-       * to_be_doubled = tn->full_children;
+-       * not_to_be_doubled = tnode_child_length(tn) - tn->empty_children -
+-       *     tn->full_children;
+-       *
+-       * new_child_length = tnode_child_length(tn) * 2;
+-       *
+-       * new_fill_factor = 100 * (not_to_be_doubled + 2*to_be_doubled) /
+-       *      new_child_length;
+-       * if (new_fill_factor >= inflate_threshold)
+-       *
+-       * ...and so on, tho it would mess up the while () loop.
+-       *
+-       * anyway,
+-       * 100 * (not_to_be_doubled + 2*to_be_doubled) / new_child_length >=
+-       *      inflate_threshold
+-       *
+-       * avoid a division:
+-       * 100 * (not_to_be_doubled + 2*to_be_doubled) >=
+-       *      inflate_threshold * new_child_length
+-       *
+-       * expand not_to_be_doubled and to_be_doubled, and shorten:
+-       * 100 * (tnode_child_length(tn) - tn->empty_children +
+-       *    tn->full_children) >= inflate_threshold * new_child_length
+-       *
+-       * expand new_child_length:
+-       * 100 * (tnode_child_length(tn) - tn->empty_children +
+-       *    tn->full_children) >=
+-       *      inflate_threshold * tnode_child_length(tn) * 2
+-       *
+-       * shorten again:
+-       * 50 * (tn->full_children + tnode_child_length(tn) -
+-       *    tn->empty_children) >= inflate_threshold *
+-       *    tnode_child_length(tn)
+-       *
+-       */
+-
+-      /* Keep root node larger  */
+-
+-      if (!node_parent(tn)) {
+-              inflate_threshold_use = inflate_threshold_root;
+-              halve_threshold_use = halve_threshold_root;
+-      } else {
+-              inflate_threshold_use = inflate_threshold;
+-              halve_threshold_use = halve_threshold;
+-      }
+-
+-      max_work = MAX_WORK;
+-      while ((tn->full_children > 0 &&  max_work-- &&
+-              50 * (tn->full_children + tnode_child_length(tn)
+-                    - tn->empty_children)
+-              >= inflate_threshold_use * tnode_child_length(tn))) {
+-
+-              old_tn = tn;
+-              tn = inflate(t, tn);
+-
+-              if (IS_ERR(tn)) {
+-                      tn = old_tn;
+-#ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      this_cpu_inc(t->stats->resize_node_skipped);
+-#endif
+-                      break;
+-              }
+-      }
+-
+-      /* Return if at least one inflate is run */
+-      if (max_work != MAX_WORK)
+-              return tn;
+-
+-      /*
+-       * Halve as long as the number of empty children in this
+-       * node is above threshold.
+-       */
+-
+-      max_work = MAX_WORK;
+-      while (tn->bits > 1 &&  max_work-- &&
+-             100 * (tnode_child_length(tn) - tn->empty_children) <
+-             halve_threshold_use * tnode_child_length(tn)) {
+-
+-              old_tn = tn;
+-              tn = halve(t, tn);
+-              if (IS_ERR(tn)) {
+-                      tn = old_tn;
+-#ifdef CONFIG_IP_FIB_TRIE_STATS
+-                      this_cpu_inc(t->stats->resize_node_skipped);
+-#endif
+-                      break;
+-              }
+-      }
+-
+-
+-      /* Only one child remains */
+-      if (tn->empty_children == (tnode_child_length(tn) - 1)) {
+-              unsigned long i;
+-one_child:
+-              for (i = tnode_child_length(tn); !n && i;)
+-                      n = tnode_get_child(tn, --i);
+-no_children:
+-              /* compress one level */
+-              node_set_parent(n, NULL);
+-              tnode_free_safe(tn);
+-              return n;
+-      }
+-      return tn;
+-}
+-
+-
+ static void tnode_clean_free(struct tnode *tn)
+ {
+       struct tnode *tofree;
+@@ -804,6 +647,160 @@ nomem:
+       return ERR_PTR(-ENOMEM);
+ }
++#define MAX_WORK 10
++static struct tnode *resize(struct trie *t, struct tnode *tn)
++{
++      struct tnode *old_tn, *n = NULL;
++      int inflate_threshold_use;
++      int halve_threshold_use;
++      int max_work;
++
++      if (!tn)
++              return NULL;
++
++      pr_debug("In tnode_resize %p inflate_threshold=%d threshold=%d\n",
++               tn, inflate_threshold, halve_threshold);
++
++      /* No children */
++      if (tn->empty_children > (tnode_child_length(tn) - 1))
++              goto no_children;
++
++      /* One child */
++      if (tn->empty_children == (tnode_child_length(tn) - 1))
++              goto one_child;
++      /*
++       * Double as long as the resulting node has a number of
++       * nonempty nodes that are above the threshold.
++       */
++
++      /*
++       * From "Implementing a dynamic compressed trie" by Stefan Nilsson of
++       * the Helsinki University of Technology and Matti Tikkanen of Nokia
++       * Telecommunications, page 6:
++       * "A node is doubled if the ratio of non-empty children to all
++       * children in the *doubled* node is at least 'high'."
++       *
++       * 'high' in this instance is the variable 'inflate_threshold'. It
++       * is expressed as a percentage, so we multiply it with
++       * tnode_child_length() and instead of multiplying by 2 (since the
++       * child array will be doubled by inflate()) and multiplying
++       * the left-hand side by 100 (to handle the percentage thing) we
++       * multiply the left-hand side by 50.
++       *
++       * The left-hand side may look a bit weird: tnode_child_length(tn)
++       * - tn->empty_children is of course the number of non-null children
++       * in the current node. tn->full_children is the number of "full"
++       * children, that is non-null tnodes with a skip value of 0.
++       * All of those will be doubled in the resulting inflated tnode, so
++       * we just count them one extra time here.
++       *
++       * A clearer way to write this would be:
++       *
++       * to_be_doubled = tn->full_children;
++       * not_to_be_doubled = tnode_child_length(tn) - tn->empty_children -
++       *     tn->full_children;
++       *
++       * new_child_length = tnode_child_length(tn) * 2;
++       *
++       * new_fill_factor = 100 * (not_to_be_doubled + 2*to_be_doubled) /
++       *      new_child_length;
++       * if (new_fill_factor >= inflate_threshold)
++       *
++       * ...and so on, tho it would mess up the while () loop.
++       *
++       * anyway,
++       * 100 * (not_to_be_doubled + 2*to_be_doubled) / new_child_length >=
++       *      inflate_threshold
++       *
++       * avoid a division:
++       * 100 * (not_to_be_doubled + 2*to_be_doubled) >=
++       *      inflate_threshold * new_child_length
++       *
++       * expand not_to_be_doubled and to_be_doubled, and shorten:
++       * 100 * (tnode_child_length(tn) - tn->empty_children +
++       *    tn->full_children) >= inflate_threshold * new_child_length
++       *
++       * expand new_child_length:
++       * 100 * (tnode_child_length(tn) - tn->empty_children +
++       *    tn->full_children) >=
++       *      inflate_threshold * tnode_child_length(tn) * 2
++       *
++       * shorten again:
++       * 50 * (tn->full_children + tnode_child_length(tn) -
++       *    tn->empty_children) >= inflate_threshold *
++       *    tnode_child_length(tn)
++       *
++       */
++
++      /* Keep root node larger  */
++
++      if (!node_parent(tn)) {
++              inflate_threshold_use = inflate_threshold_root;
++              halve_threshold_use = halve_threshold_root;
++      } else {
++              inflate_threshold_use = inflate_threshold;
++              halve_threshold_use = halve_threshold;
++      }
++
++      max_work = MAX_WORK;
++      while ((tn->full_children > 0 &&  max_work-- &&
++              50 * (tn->full_children + tnode_child_length(tn)
++                    - tn->empty_children)
++              >= inflate_threshold_use * tnode_child_length(tn))) {
++
++              old_tn = tn;
++              tn = inflate(t, tn);
++
++              if (IS_ERR(tn)) {
++                      tn = old_tn;
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++                      this_cpu_inc(t->stats->resize_node_skipped);
++#endif
++                      break;
++              }
++      }
++
++      /* Return if at least one inflate is run */
++      if (max_work != MAX_WORK)
++              return tn;
++
++      /*
++       * Halve as long as the number of empty children in this
++       * node is above threshold.
++       */
++
++      max_work = MAX_WORK;
++      while (tn->bits > 1 &&  max_work-- &&
++             100 * (tnode_child_length(tn) - tn->empty_children) <
++             halve_threshold_use * tnode_child_length(tn)) {
++
++              old_tn = tn;
++              tn = halve(t, tn);
++              if (IS_ERR(tn)) {
++                      tn = old_tn;
++#ifdef CONFIG_IP_FIB_TRIE_STATS
++                      this_cpu_inc(t->stats->resize_node_skipped);
++#endif
++                      break;
++              }
++      }
++
++
++      /* Only one child remains */
++      if (tn->empty_children == (tnode_child_length(tn) - 1)) {
++              unsigned long i;
++one_child:
++              for (i = tnode_child_length(tn); !n && i;)
++                      n = tnode_get_child(tn, --i);
++no_children:
++              /* compress one level */
++              node_set_parent(n, NULL);
++              tnode_free_safe(tn);
++              return n;
++      }
++      return tn;
++}
++
+ /* readside must use rcu_read_lock currently dump routines
+  via get_fa_head and dump */
diff --git a/trunk/target/linux/generic/patches-3.18/080-13-fib_trie-Add-functions-should_inflate-and-should_hal.patch b/trunk/target/linux/generic/patches-3.18/080-13-fib_trie-Add-functions-should_inflate-and-should_hal.patch
new file mode 100644 (file)
index 0000000..c01d57a
--- /dev/null
@@ -0,0 +1,250 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:37 -0800
+Subject: [PATCH] fib_trie: Add functions should_inflate and should_halve
+
+This change pulls the logic for if we should inflate/halve the nodes out
+into separate functions.  It also addresses what I believe is a bug where 1
+full node is all that is needed to keep a node from ever being halved.
+
+Simple script to reproduce the issue:
+       modprobe dummy; ifconfig dummy0 up
+       for i in `seq 0 255`; do ifconfig dummy0:$i 10.0.${i}.1/24 up; done
+       ifconfig dummy0:256 10.0.255.33/16 up
+       for i in `seq 0 254`; do ifconfig dummy0:$i down; done
+
+Results from /proc/net/fib_triestat
+Before:
+       Local:
+               Aver depth:     3.00
+               Max depth:      4
+               Leaves:         17
+               Prefixes:       18
+               Internal nodes: 11
+                 1: 8  2: 2  10: 1
+               Pointers: 1048
+       Null ptrs: 1021
+       Total size: 11  kB
+After:
+       Local:
+               Aver depth:     3.41
+               Max depth:      5
+               Leaves:         17
+               Prefixes:       18
+               Internal nodes: 12
+                 1: 8  2: 3  3: 1
+               Pointers: 36
+       Null ptrs: 8
+       Total size: 3  kB
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -647,12 +647,94 @@ nomem:
+       return ERR_PTR(-ENOMEM);
+ }
++/* From "Implementing a dynamic compressed trie" by Stefan Nilsson of
++ * the Helsinki University of Technology and Matti Tikkanen of Nokia
++ * Telecommunications, page 6:
++ * "A node is doubled if the ratio of non-empty children to all
++ * children in the *doubled* node is at least 'high'."
++ *
++ * 'high' in this instance is the variable 'inflate_threshold'. It
++ * is expressed as a percentage, so we multiply it with
++ * tnode_child_length() and instead of multiplying by 2 (since the
++ * child array will be doubled by inflate()) and multiplying
++ * the left-hand side by 100 (to handle the percentage thing) we
++ * multiply the left-hand side by 50.
++ *
++ * The left-hand side may look a bit weird: tnode_child_length(tn)
++ * - tn->empty_children is of course the number of non-null children
++ * in the current node. tn->full_children is the number of "full"
++ * children, that is non-null tnodes with a skip value of 0.
++ * All of those will be doubled in the resulting inflated tnode, so
++ * we just count them one extra time here.
++ *
++ * A clearer way to write this would be:
++ *
++ * to_be_doubled = tn->full_children;
++ * not_to_be_doubled = tnode_child_length(tn) - tn->empty_children -
++ *     tn->full_children;
++ *
++ * new_child_length = tnode_child_length(tn) * 2;
++ *
++ * new_fill_factor = 100 * (not_to_be_doubled + 2*to_be_doubled) /
++ *      new_child_length;
++ * if (new_fill_factor >= inflate_threshold)
++ *
++ * ...and so on, tho it would mess up the while () loop.
++ *
++ * anyway,
++ * 100 * (not_to_be_doubled + 2*to_be_doubled) / new_child_length >=
++ *      inflate_threshold
++ *
++ * avoid a division:
++ * 100 * (not_to_be_doubled + 2*to_be_doubled) >=
++ *      inflate_threshold * new_child_length
++ *
++ * expand not_to_be_doubled and to_be_doubled, and shorten:
++ * 100 * (tnode_child_length(tn) - tn->empty_children +
++ *    tn->full_children) >= inflate_threshold * new_child_length
++ *
++ * expand new_child_length:
++ * 100 * (tnode_child_length(tn) - tn->empty_children +
++ *    tn->full_children) >=
++ *      inflate_threshold * tnode_child_length(tn) * 2
++ *
++ * shorten again:
++ * 50 * (tn->full_children + tnode_child_length(tn) -
++ *    tn->empty_children) >= inflate_threshold *
++ *    tnode_child_length(tn)
++ *
++ */
++static bool should_inflate(const struct tnode *tn)
++{
++      unsigned long used = tnode_child_length(tn);
++      unsigned long threshold = used;
++
++      /* Keep root node larger */
++      threshold *= node_parent(tn) ? inflate_threshold :
++                                     inflate_threshold_root;
++      used += tn->full_children;
++      used -= tn->empty_children;
++
++      return tn->pos && ((50 * used) >= threshold);
++}
++
++static bool should_halve(const struct tnode *tn)
++{
++      unsigned long used = tnode_child_length(tn);
++      unsigned long threshold = used;
++
++      /* Keep root node larger */
++      threshold *= node_parent(tn) ? halve_threshold :
++                                     halve_threshold_root;
++      used -= tn->empty_children;
++
++      return (tn->bits > 1) && ((100 * used) < threshold);
++}
++
+ #define MAX_WORK 10
+ static struct tnode *resize(struct trie *t, struct tnode *tn)
+ {
+       struct tnode *old_tn, *n = NULL;
+-      int inflate_threshold_use;
+-      int halve_threshold_use;
+       int max_work;
+       if (!tn)
+@@ -668,86 +750,12 @@ static struct tnode *resize(struct trie
+       /* One child */
+       if (tn->empty_children == (tnode_child_length(tn) - 1))
+               goto one_child;
+-      /*
+-       * Double as long as the resulting node has a number of
+-       * nonempty nodes that are above the threshold.
+-       */
+-      /*
+-       * From "Implementing a dynamic compressed trie" by Stefan Nilsson of
+-       * the Helsinki University of Technology and Matti Tikkanen of Nokia
+-       * Telecommunications, page 6:
+-       * "A node is doubled if the ratio of non-empty children to all
+-       * children in the *doubled* node is at least 'high'."
+-       *
+-       * 'high' in this instance is the variable 'inflate_threshold'. It
+-       * is expressed as a percentage, so we multiply it with
+-       * tnode_child_length() and instead of multiplying by 2 (since the
+-       * child array will be doubled by inflate()) and multiplying
+-       * the left-hand side by 100 (to handle the percentage thing) we
+-       * multiply the left-hand side by 50.
+-       *
+-       * The left-hand side may look a bit weird: tnode_child_length(tn)
+-       * - tn->empty_children is of course the number of non-null children
+-       * in the current node. tn->full_children is the number of "full"
+-       * children, that is non-null tnodes with a skip value of 0.
+-       * All of those will be doubled in the resulting inflated tnode, so
+-       * we just count them one extra time here.
+-       *
+-       * A clearer way to write this would be:
+-       *
+-       * to_be_doubled = tn->full_children;
+-       * not_to_be_doubled = tnode_child_length(tn) - tn->empty_children -
+-       *     tn->full_children;
+-       *
+-       * new_child_length = tnode_child_length(tn) * 2;
+-       *
+-       * new_fill_factor = 100 * (not_to_be_doubled + 2*to_be_doubled) /
+-       *      new_child_length;
+-       * if (new_fill_factor >= inflate_threshold)
+-       *
+-       * ...and so on, tho it would mess up the while () loop.
+-       *
+-       * anyway,
+-       * 100 * (not_to_be_doubled + 2*to_be_doubled) / new_child_length >=
+-       *      inflate_threshold
+-       *
+-       * avoid a division:
+-       * 100 * (not_to_be_doubled + 2*to_be_doubled) >=
+-       *      inflate_threshold * new_child_length
+-       *
+-       * expand not_to_be_doubled and to_be_doubled, and shorten:
+-       * 100 * (tnode_child_length(tn) - tn->empty_children +
+-       *    tn->full_children) >= inflate_threshold * new_child_length
+-       *
+-       * expand new_child_length:
+-       * 100 * (tnode_child_length(tn) - tn->empty_children +
+-       *    tn->full_children) >=
+-       *      inflate_threshold * tnode_child_length(tn) * 2
+-       *
+-       * shorten again:
+-       * 50 * (tn->full_children + tnode_child_length(tn) -
+-       *    tn->empty_children) >= inflate_threshold *
+-       *    tnode_child_length(tn)
+-       *
++      /* Double as long as the resulting node has a number of
++       * nonempty nodes that are above the threshold.
+        */
+-
+-      /* Keep root node larger  */
+-
+-      if (!node_parent(tn)) {
+-              inflate_threshold_use = inflate_threshold_root;
+-              halve_threshold_use = halve_threshold_root;
+-      } else {
+-              inflate_threshold_use = inflate_threshold;
+-              halve_threshold_use = halve_threshold;
+-      }
+-
+       max_work = MAX_WORK;
+-      while ((tn->full_children > 0 &&  max_work-- &&
+-              50 * (tn->full_children + tnode_child_length(tn)
+-                    - tn->empty_children)
+-              >= inflate_threshold_use * tnode_child_length(tn))) {
+-
++      while (should_inflate(tn) && max_work--) {
+               old_tn = tn;
+               tn = inflate(t, tn);
+@@ -764,16 +772,11 @@ static struct tnode *resize(struct trie
+       if (max_work != MAX_WORK)
+               return tn;
+-      /*
+-       * Halve as long as the number of empty children in this
++      /* Halve as long as the number of empty children in this
+        * node is above threshold.
+        */
+-
+       max_work = MAX_WORK;
+-      while (tn->bits > 1 &&  max_work-- &&
+-             100 * (tnode_child_length(tn) - tn->empty_children) <
+-             halve_threshold_use * tnode_child_length(tn)) {
+-
++      while (should_halve(tn) && max_work--) {
+               old_tn = tn;
+               tn = halve(t, tn);
+               if (IS_ERR(tn)) {
diff --git a/trunk/target/linux/generic/patches-3.18/080-14-fib_trie-Push-assignment-of-child-to-parent-down-int.patch b/trunk/target/linux/generic/patches-3.18/080-14-fib_trie-Push-assignment-of-child-to-parent-down-int.patch
new file mode 100644 (file)
index 0000000..8f26e32
--- /dev/null
@@ -0,0 +1,336 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:43 -0800
+Subject: [PATCH] fib_trie: Push assignment of child to parent down into
+ inflate/halve
+
+This change makes it so that the assignment of the tnode to the parent is
+handled directly within whatever function is currently handling the node be
+it inflate, halve, or resize.  By doing this we can avoid some of the need
+to set NULL pointers in the tree while we are resizing the subnodes.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -146,9 +146,7 @@ struct trie {
+ #endif
+ };
+-static void tnode_put_child_reorg(struct tnode *tn, unsigned long i,
+-                                struct tnode *n, int wasfull);
+-static struct tnode *resize(struct trie *t, struct tnode *tn);
++static void resize(struct trie *t, struct tnode *tn);
+ /* tnodes to free after resize(); protected by RTNL */
+ static struct callback_head *tnode_free_head;
+ static size_t tnode_free_size;
+@@ -396,22 +394,13 @@ static inline int tnode_full(const struc
+       return n && ((n->pos + n->bits) == tn->pos) && IS_TNODE(n);
+ }
+-static inline void put_child(struct tnode *tn, unsigned long i,
+-                           struct tnode *n)
+-{
+-      tnode_put_child_reorg(tn, i, n, -1);
+-}
+-
+- /*
+-  * Add a child at position i overwriting the old value.
+-  * Update the value of full_children and empty_children.
+-  */
+-
+-static void tnode_put_child_reorg(struct tnode *tn, unsigned long i,
+-                                struct tnode *n, int wasfull)
++/* Add a child at position i overwriting the old value.
++ * Update the value of full_children and empty_children.
++ */
++static void put_child(struct tnode *tn, unsigned long i, struct tnode *n)
+ {
+       struct tnode *chi = rtnl_dereference(tn->child[i]);
+-      int isfull;
++      int isfull, wasfull;
+       BUG_ON(i >= tnode_child_length(tn));
+@@ -422,10 +411,9 @@ static void tnode_put_child_reorg(struct
+               tn->empty_children--;
+       /* update fullChildren */
+-      if (wasfull == -1)
+-              wasfull = tnode_full(tn, chi);
+-
++      wasfull = tnode_full(tn, chi);
+       isfull = tnode_full(tn, n);
++
+       if (wasfull && !isfull)
+               tn->full_children--;
+       else if (!wasfull && isfull)
+@@ -458,9 +446,10 @@ static void tnode_clean_free(struct tnod
+       node_free(tn);
+ }
+-static struct tnode *inflate(struct trie *t, struct tnode *oldtnode)
++static int inflate(struct trie *t, struct tnode *oldtnode)
+ {
+       unsigned long olen = tnode_child_length(oldtnode);
++      struct tnode *tp = node_parent(oldtnode);
+       struct tnode *tn;
+       unsigned long i;
+       t_key m;
+@@ -468,9 +457,8 @@ static struct tnode *inflate(struct trie
+       pr_debug("In inflate\n");
+       tn = tnode_new(oldtnode->key, oldtnode->pos - 1, oldtnode->bits + 1);
+-
+       if (!tn)
+-              return ERR_PTR(-ENOMEM);
++              return -ENOMEM;
+       /*
+        * Preallocate and store tnodes before the actual work so we
+@@ -564,30 +552,36 @@ static struct tnode *inflate(struct trie
+                       put_child(left, j, rtnl_dereference(inode->child[j]));
+                       put_child(right, j, rtnl_dereference(inode->child[j + size]));
+               }
+-              put_child(tn, 2*i, resize(t, left));
+-              put_child(tn, 2*i+1, resize(t, right));
++
++              put_child(tn, 2 * i, left);
++              put_child(tn, 2 * i + 1, right);
+               tnode_free_safe(inode);
++
++              resize(t, left);
++              resize(t, right);
+       }
++
++      put_child_root(tp, t, tn->key, tn);
+       tnode_free_safe(oldtnode);
+-      return tn;
++      return 0;
+ nomem:
+       tnode_clean_free(tn);
+-      return ERR_PTR(-ENOMEM);
++      return -ENOMEM;
+ }
+-static struct tnode *halve(struct trie *t, struct tnode *oldtnode)
++static int halve(struct trie *t, struct tnode *oldtnode)
+ {
+       unsigned long olen = tnode_child_length(oldtnode);
++      struct tnode *tp = node_parent(oldtnode);
+       struct tnode *tn, *left, *right;
+       int i;
+       pr_debug("In halve\n");
+       tn = tnode_new(oldtnode->key, oldtnode->pos + 1, oldtnode->bits - 1);
+-
+       if (!tn)
+-              return ERR_PTR(-ENOMEM);
++              return -ENOMEM;
+       /*
+        * Preallocate and store tnodes before the actual work so we
+@@ -606,8 +600,10 @@ static struct tnode *halve(struct trie *
+                       newn = tnode_new(left->key, oldtnode->pos, 1);
+-                      if (!newn)
+-                              goto nomem;
++                      if (!newn) {
++                              tnode_clean_free(tn);
++                              return -ENOMEM;
++                      }
+                       put_child(tn, i/2, newn);
+               }
+@@ -635,16 +631,18 @@ static struct tnode *halve(struct trie *
+               /* Two nonempty children */
+               newBinNode = tnode_get_child(tn, i/2);
+-              put_child(tn, i/2, NULL);
+               put_child(newBinNode, 0, left);
+               put_child(newBinNode, 1, right);
+-              put_child(tn, i/2, resize(t, newBinNode));
++
++              put_child(tn, i / 2, newBinNode);
++
++              resize(t, newBinNode);
+       }
++
++      put_child_root(tp, t, tn->key, tn);
+       tnode_free_safe(oldtnode);
+-      return tn;
+-nomem:
+-      tnode_clean_free(tn);
+-      return ERR_PTR(-ENOMEM);
++
++      return 0;
+ }
+ /* From "Implementing a dynamic compressed trie" by Stefan Nilsson of
+@@ -704,45 +702,48 @@ nomem:
+  *    tnode_child_length(tn)
+  *
+  */
+-static bool should_inflate(const struct tnode *tn)
++static bool should_inflate(const struct tnode *tp, const struct tnode *tn)
+ {
+       unsigned long used = tnode_child_length(tn);
+       unsigned long threshold = used;
+       /* Keep root node larger */
+-      threshold *= node_parent(tn) ? inflate_threshold :
+-                                     inflate_threshold_root;
++      threshold *= tp ? inflate_threshold : inflate_threshold_root;
+       used += tn->full_children;
+       used -= tn->empty_children;
+       return tn->pos && ((50 * used) >= threshold);
+ }
+-static bool should_halve(const struct tnode *tn)
++static bool should_halve(const struct tnode *tp, const struct tnode *tn)
+ {
+       unsigned long used = tnode_child_length(tn);
+       unsigned long threshold = used;
+       /* Keep root node larger */
+-      threshold *= node_parent(tn) ? halve_threshold :
+-                                     halve_threshold_root;
++      threshold *= tp ? halve_threshold : halve_threshold_root;
+       used -= tn->empty_children;
+       return (tn->bits > 1) && ((100 * used) < threshold);
+ }
+ #define MAX_WORK 10
+-static struct tnode *resize(struct trie *t, struct tnode *tn)
++static void resize(struct trie *t, struct tnode *tn)
+ {
+-      struct tnode *old_tn, *n = NULL;
++      struct tnode *tp = node_parent(tn), *n = NULL;
++      struct tnode __rcu **cptr;
+       int max_work;
+-      if (!tn)
+-              return NULL;
+-
+       pr_debug("In tnode_resize %p inflate_threshold=%d threshold=%d\n",
+                tn, inflate_threshold, halve_threshold);
++      /* track the tnode via the pointer from the parent instead of
++       * doing it ourselves.  This way we can let RCU fully do its
++       * thing without us interfering
++       */
++      cptr = tp ? &tp->child[get_index(tn->key, tp)] : &t->trie;
++      BUG_ON(tn != rtnl_dereference(*cptr));
++
+       /* No children */
+       if (tn->empty_children > (tnode_child_length(tn) - 1))
+               goto no_children;
+@@ -755,39 +756,35 @@ static struct tnode *resize(struct trie
+        * nonempty nodes that are above the threshold.
+        */
+       max_work = MAX_WORK;
+-      while (should_inflate(tn) && max_work--) {
+-              old_tn = tn;
+-              tn = inflate(t, tn);
+-
+-              if (IS_ERR(tn)) {
+-                      tn = old_tn;
++      while (should_inflate(tp, tn) && max_work--) {
++              if (inflate(t, tn)) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+                       this_cpu_inc(t->stats->resize_node_skipped);
+ #endif
+                       break;
+               }
++
++              tn = rtnl_dereference(*cptr);
+       }
+       /* Return if at least one inflate is run */
+       if (max_work != MAX_WORK)
+-              return tn;
++              return;
+       /* Halve as long as the number of empty children in this
+        * node is above threshold.
+        */
+       max_work = MAX_WORK;
+-      while (should_halve(tn) && max_work--) {
+-              old_tn = tn;
+-              tn = halve(t, tn);
+-              if (IS_ERR(tn)) {
+-                      tn = old_tn;
++      while (should_halve(tp, tn) && max_work--) {
++              if (halve(t, tn)) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+                       this_cpu_inc(t->stats->resize_node_skipped);
+ #endif
+                       break;
+               }
+-      }
++              tn = rtnl_dereference(*cptr);
++      }
+       /* Only one child remains */
+       if (tn->empty_children == (tnode_child_length(tn) - 1)) {
+@@ -797,11 +794,12 @@ one_child:
+                       n = tnode_get_child(tn, --i);
+ no_children:
+               /* compress one level */
+-              node_set_parent(n, NULL);
++              put_child_root(tp, t, tn->key, n);
++              node_set_parent(n, tp);
++
++              /* drop dead node */
+               tnode_free_safe(tn);
+-              return n;
+       }
+-      return tn;
+ }
+ /* readside must use rcu_read_lock currently dump routines
+@@ -882,34 +880,19 @@ static struct tnode *fib_find_node(struc
+ static void trie_rebalance(struct trie *t, struct tnode *tn)
+ {
+-      int wasfull;
+-      t_key cindex, key;
+       struct tnode *tp;
+-      key = tn->key;
+-
+-      while (tn != NULL && (tp = node_parent(tn)) != NULL) {
+-              cindex = get_index(key, tp);
+-              wasfull = tnode_full(tp, tnode_get_child(tp, cindex));
+-              tn = resize(t, tn);
+-
+-              tnode_put_child_reorg(tp, cindex, tn, wasfull);
+-
+-              tp = node_parent(tn);
+-              if (!tp)
+-                      rcu_assign_pointer(t->trie, tn);
++      while ((tp = node_parent(tn)) != NULL) {
++              resize(t, tn);
+               tnode_free_flush();
+-              if (!tp)
+-                      break;
+               tn = tp;
+       }
+       /* Handle last (top) tnode */
+       if (IS_TNODE(tn))
+-              tn = resize(t, tn);
++              resize(t, tn);
+-      rcu_assign_pointer(t->trie, tn);
+       tnode_free_flush();
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/080-15-fib_trie-Push-tnode-flushing-down-to-inflate-halve.patch b/trunk/target/linux/generic/patches-3.18/080-15-fib_trie-Push-tnode-flushing-down-to-inflate-halve.patch
new file mode 100644 (file)
index 0000000..51178a0
--- /dev/null
@@ -0,0 +1,237 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:49 -0800
+Subject: [PATCH] fib_trie: Push tnode flushing down to inflate/halve
+
+This change pushes the tnode freeing down into the inflate and halve
+functions.  It makes more sense here as we have a better grasp of what is
+going on and when a given cluster of nodes is ready to be freed.
+
+I believe this may address a bug in the freeing logic as well.  For some
+reason if the freelist got to a certain size we would call
+synchronize_rcu().  I'm assuming that what they meant to do is call
+synchronize_rcu() after they had handed off that much memory via
+call_rcu().  As such that is what I have updated the behavior to be.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -147,8 +147,6 @@ struct trie {
+ };
+ static void resize(struct trie *t, struct tnode *tn);
+-/* tnodes to free after resize(); protected by RTNL */
+-static struct callback_head *tnode_free_head;
+ static size_t tnode_free_size;
+ /*
+@@ -307,32 +305,6 @@ static struct tnode *tnode_alloc(size_t
+               return vzalloc(size);
+ }
+-static void tnode_free_safe(struct tnode *tn)
+-{
+-      BUG_ON(IS_LEAF(tn));
+-      tn->rcu.next = tnode_free_head;
+-      tnode_free_head = &tn->rcu;
+-}
+-
+-static void tnode_free_flush(void)
+-{
+-      struct callback_head *head;
+-
+-      while ((head = tnode_free_head)) {
+-              struct tnode *tn = container_of(head, struct tnode, rcu);
+-
+-              tnode_free_head = head->next;
+-              tnode_free_size += offsetof(struct tnode, child[1 << tn->bits]);
+-
+-              node_free(tn);
+-      }
+-
+-      if (tnode_free_size >= PAGE_SIZE * sync_pages) {
+-              tnode_free_size = 0;
+-              synchronize_rcu();
+-      }
+-}
+-
+ static struct tnode *leaf_new(t_key key)
+ {
+       struct tnode *l = kmem_cache_alloc(trie_leaf_kmem, GFP_KERNEL);
+@@ -433,17 +405,33 @@ static void put_child_root(struct tnode
+               rcu_assign_pointer(t->trie, n);
+ }
+-static void tnode_clean_free(struct tnode *tn)
++static inline void tnode_free_init(struct tnode *tn)
+ {
+-      struct tnode *tofree;
+-      unsigned long i;
++      tn->rcu.next = NULL;
++}
++
++static inline void tnode_free_append(struct tnode *tn, struct tnode *n)
++{
++      n->rcu.next = tn->rcu.next;
++      tn->rcu.next = &n->rcu;
++}
+-      for (i = 0; i < tnode_child_length(tn); i++) {
+-              tofree = tnode_get_child(tn, i);
+-              if (tofree)
+-                      node_free(tofree);
++static void tnode_free(struct tnode *tn)
++{
++      struct callback_head *head = &tn->rcu;
++
++      while (head) {
++              head = head->next;
++              tnode_free_size += offsetof(struct tnode, child[1 << tn->bits]);
++              node_free(tn);
++
++              tn = container_of(head, struct tnode, rcu);
++      }
++
++      if (tnode_free_size >= PAGE_SIZE * sync_pages) {
++              tnode_free_size = 0;
++              synchronize_rcu();
+       }
+-      node_free(tn);
+ }
+ static int inflate(struct trie *t, struct tnode *oldtnode)
+@@ -476,20 +464,23 @@ static int inflate(struct trie *t, struc
+                                        inode->bits - 1);
+                       if (!left)
+                               goto nomem;
++                      tnode_free_append(tn, left);
+                       right = tnode_new(inode->key | m, inode->pos,
+                                         inode->bits - 1);
+-                      if (!right) {
+-                              node_free(left);
++                      if (!right)
+                               goto nomem;
+-                      }
++                      tnode_free_append(tn, right);
+                       put_child(tn, 2*i, left);
+                       put_child(tn, 2*i+1, right);
+               }
+       }
++      /* prepare oldtnode to be freed */
++      tnode_free_init(oldtnode);
++
+       for (i = 0; i < olen; i++) {
+               struct tnode *inode = tnode_get_child(oldtnode, i);
+               struct tnode *left, *right;
+@@ -505,12 +496,13 @@ static int inflate(struct trie *t, struc
+                       continue;
+               }
++              /* drop the node in the old tnode free list */
++              tnode_free_append(oldtnode, inode);
++
+               /* An internal node with two children */
+               if (inode->bits == 1) {
+                       put_child(tn, 2*i, rtnl_dereference(inode->child[0]));
+                       put_child(tn, 2*i+1, rtnl_dereference(inode->child[1]));
+-
+-                      tnode_free_safe(inode);
+                       continue;
+               }
+@@ -556,17 +548,19 @@ static int inflate(struct trie *t, struc
+               put_child(tn, 2 * i, left);
+               put_child(tn, 2 * i + 1, right);
+-              tnode_free_safe(inode);
+-
++              /* resize child nodes */
+               resize(t, left);
+               resize(t, right);
+       }
+       put_child_root(tp, t, tn->key, tn);
+-      tnode_free_safe(oldtnode);
++
++      /* we completed without error, prepare to free old node */
++      tnode_free(oldtnode);
+       return 0;
+ nomem:
+-      tnode_clean_free(tn);
++      /* all pointers should be clean so we are done */
++      tnode_free(tn);
+       return -ENOMEM;
+ }
+@@ -599,17 +593,20 @@ static int halve(struct trie *t, struct
+                       struct tnode *newn;
+                       newn = tnode_new(left->key, oldtnode->pos, 1);
+-
+                       if (!newn) {
+-                              tnode_clean_free(tn);
++                              tnode_free(tn);
+                               return -ENOMEM;
+                       }
++                      tnode_free_append(tn, newn);
+                       put_child(tn, i/2, newn);
+               }
+       }
++      /* prepare oldtnode to be freed */
++      tnode_free_init(oldtnode);
++
+       for (i = 0; i < olen; i += 2) {
+               struct tnode *newBinNode;
+@@ -636,11 +633,14 @@ static int halve(struct trie *t, struct
+               put_child(tn, i / 2, newBinNode);
++              /* resize child node */
+               resize(t, newBinNode);
+       }
+       put_child_root(tp, t, tn->key, tn);
+-      tnode_free_safe(oldtnode);
++
++      /* all pointers should be clean so we are done */
++      tnode_free(oldtnode);
+       return 0;
+ }
+@@ -798,7 +798,8 @@ no_children:
+               node_set_parent(n, tp);
+               /* drop dead node */
+-              tnode_free_safe(tn);
++              tnode_free_init(tn);
++              tnode_free(tn);
+       }
+ }
+@@ -884,16 +885,12 @@ static void trie_rebalance(struct trie *
+       while ((tp = node_parent(tn)) != NULL) {
+               resize(t, tn);
+-
+-              tnode_free_flush();
+               tn = tp;
+       }
+       /* Handle last (top) tnode */
+       if (IS_TNODE(tn))
+               resize(t, tn);
+-
+-      tnode_free_flush();
+ }
+ /* only used from updater-side */
diff --git a/trunk/target/linux/generic/patches-3.18/080-16-fib_trie-inflate-halve-nodes-in-a-more-RCU-friendly-.patch b/trunk/target/linux/generic/patches-3.18/080-16-fib_trie-inflate-halve-nodes-in-a-more-RCU-friendly-.patch
new file mode 100644 (file)
index 0000000..d6b600c
--- /dev/null
@@ -0,0 +1,345 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:56:55 -0800
+Subject: [PATCH] fib_trie: inflate/halve nodes in a more RCU friendly
+ way
+
+This change pulls the node_set_parent functionality out of put_child_reorg
+and instead leaves that to the function to take care of as well.  By doing
+this we can fully construct the new cluster of tnodes and all of the
+pointers out of it before we start routing pointers into it.
+
+I am suspecting this will likely fix some concurency issues though I don't
+have a good test to show as such.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -391,8 +391,6 @@ static void put_child(struct tnode *tn,
+       else if (!wasfull && isfull)
+               tn->full_children++;
+-      node_set_parent(n, tn);
+-
+       rcu_assign_pointer(tn->child[i], n);
+ }
+@@ -436,10 +434,8 @@ static void tnode_free(struct tnode *tn)
+ static int inflate(struct trie *t, struct tnode *oldtnode)
+ {
+-      unsigned long olen = tnode_child_length(oldtnode);
+-      struct tnode *tp = node_parent(oldtnode);
+-      struct tnode *tn;
+-      unsigned long i;
++      struct tnode *inode, *node0, *node1, *tn, *tp;
++      unsigned long i, j, k;
+       t_key m;
+       pr_debug("In inflate\n");
+@@ -448,43 +444,13 @@ static int inflate(struct trie *t, struc
+       if (!tn)
+               return -ENOMEM;
+-      /*
+-       * Preallocate and store tnodes before the actual work so we
+-       * don't get into an inconsistent state if memory allocation
+-       * fails. In case of failure we return the oldnode and  inflate
+-       * of tnode is ignored.
++      /* Assemble all of the pointers in our cluster, in this case that
++       * represents all of the pointers out of our allocated nodes that
++       * point to existing tnodes and the links between our allocated
++       * nodes.
+        */
+-      for (i = 0, m = 1u << tn->pos; i < olen; i++) {
+-              struct tnode *inode = tnode_get_child(oldtnode, i);
+-
+-              if (tnode_full(oldtnode, inode) && (inode->bits > 1)) {
+-                      struct tnode *left, *right;
+-
+-                      left = tnode_new(inode->key & ~m, inode->pos,
+-                                       inode->bits - 1);
+-                      if (!left)
+-                              goto nomem;
+-                      tnode_free_append(tn, left);
+-
+-                      right = tnode_new(inode->key | m, inode->pos,
+-                                        inode->bits - 1);
+-
+-                      if (!right)
+-                              goto nomem;
+-                      tnode_free_append(tn, right);
+-
+-                      put_child(tn, 2*i, left);
+-                      put_child(tn, 2*i+1, right);
+-              }
+-      }
+-
+-      /* prepare oldtnode to be freed */
+-      tnode_free_init(oldtnode);
+-
+-      for (i = 0; i < olen; i++) {
+-              struct tnode *inode = tnode_get_child(oldtnode, i);
+-              struct tnode *left, *right;
+-              unsigned long size, j;
++      for (i = tnode_child_length(oldtnode), m = 1u << tn->pos; i;) {
++              inode = tnode_get_child(oldtnode, --i);
+               /* An empty child */
+               if (inode == NULL)
+@@ -496,65 +462,99 @@ static int inflate(struct trie *t, struc
+                       continue;
+               }
+-              /* drop the node in the old tnode free list */
+-              tnode_free_append(oldtnode, inode);
+-
+               /* An internal node with two children */
+               if (inode->bits == 1) {
+-                      put_child(tn, 2*i, rtnl_dereference(inode->child[0]));
+-                      put_child(tn, 2*i+1, rtnl_dereference(inode->child[1]));
++                      put_child(tn, 2 * i + 1, tnode_get_child(inode, 1));
++                      put_child(tn, 2 * i, tnode_get_child(inode, 0));
+                       continue;
+               }
+-              /* An internal node with more than two children */
+-
+               /* We will replace this node 'inode' with two new
+-               * ones, 'left' and 'right', each with half of the
++               * ones, 'node0' and 'node1', each with half of the
+                * original children. The two new nodes will have
+                * a position one bit further down the key and this
+                * means that the "significant" part of their keys
+                * (see the discussion near the top of this file)
+                * will differ by one bit, which will be "0" in
+-               * left's key and "1" in right's key. Since we are
++               * node0's key and "1" in node1's key. Since we are
+                * moving the key position by one step, the bit that
+                * we are moving away from - the bit at position
+-               * (inode->pos) - is the one that will differ between
+-               * left and right. So... we synthesize that bit in the
+-               * two  new keys.
+-               * The mask 'm' below will be a single "one" bit at
+-               * the position (inode->pos)
++               * (tn->pos) - is the one that will differ between
++               * node0 and node1. So... we synthesize that bit in the
++               * two new keys.
+                */
++              node1 = tnode_new(inode->key | m, inode->pos, inode->bits - 1);
++              if (!node1)
++                      goto nomem;
++              tnode_free_append(tn, node1);
++
++              node0 = tnode_new(inode->key & ~m, inode->pos, inode->bits - 1);
++              if (!node0)
++                      goto nomem;
++              tnode_free_append(tn, node0);
++
++              /* populate child pointers in new nodes */
++              for (k = tnode_child_length(inode), j = k / 2; j;) {
++                      put_child(node1, --j, tnode_get_child(inode, --k));
++                      put_child(node0, j, tnode_get_child(inode, j));
++                      put_child(node1, --j, tnode_get_child(inode, --k));
++                      put_child(node0, j, tnode_get_child(inode, j));
++              }
++
++              /* link new nodes to parent */
++              NODE_INIT_PARENT(node1, tn);
++              NODE_INIT_PARENT(node0, tn);
++
++              /* link parent to nodes */
++              put_child(tn, 2 * i + 1, node1);
++              put_child(tn, 2 * i, node0);
++      }
++
++      /* setup the parent pointer into and out of this node */
++      tp = node_parent(oldtnode);
++      NODE_INIT_PARENT(tn, tp);
++      put_child_root(tp, t, tn->key, tn);
+-              /* Use the old key, but set the new significant
+-               *   bit to zero.
+-               */
++      /* prepare oldtnode to be freed */
++      tnode_free_init(oldtnode);
+-              left = tnode_get_child(tn, 2*i);
+-              put_child(tn, 2*i, NULL);
++      /* update all child nodes parent pointers to route to us */
++      for (i = tnode_child_length(oldtnode); i;) {
++              inode = tnode_get_child(oldtnode, --i);
+-              BUG_ON(!left);
++              /* A leaf or an internal node with skipped bits */
++              if (!tnode_full(oldtnode, inode)) {
++                      node_set_parent(inode, tn);
++                      continue;
++              }
+-              right = tnode_get_child(tn, 2*i+1);
+-              put_child(tn, 2*i+1, NULL);
++              /* drop the node in the old tnode free list */
++              tnode_free_append(oldtnode, inode);
+-              BUG_ON(!right);
++              /* fetch new nodes */
++              node1 = tnode_get_child(tn, 2 * i + 1);
++              node0 = tnode_get_child(tn, 2 * i);
+-              size = tnode_child_length(left);
+-              for (j = 0; j < size; j++) {
+-                      put_child(left, j, rtnl_dereference(inode->child[j]));
+-                      put_child(right, j, rtnl_dereference(inode->child[j + size]));
++              /* bits == 1 then node0 and node1 represent inode's children */
++              if (inode->bits == 1) {
++                      node_set_parent(node1, tn);
++                      node_set_parent(node0, tn);
++                      continue;
+               }
+-              put_child(tn, 2 * i, left);
+-              put_child(tn, 2 * i + 1, right);
++              /* update parent pointers in child node's children */
++              for (k = tnode_child_length(inode), j = k / 2; j;) {
++                      node_set_parent(tnode_get_child(inode, --k), node1);
++                      node_set_parent(tnode_get_child(inode, --j), node0);
++                      node_set_parent(tnode_get_child(inode, --k), node1);
++                      node_set_parent(tnode_get_child(inode, --j), node0);
++              }
+               /* resize child nodes */
+-              resize(t, left);
+-              resize(t, right);
++              resize(t, node1);
++              resize(t, node0);
+       }
+-      put_child_root(tp, t, tn->key, tn);
+-
+       /* we completed without error, prepare to free old node */
+       tnode_free(oldtnode);
+       return 0;
+@@ -566,10 +566,8 @@ nomem:
+ static int halve(struct trie *t, struct tnode *oldtnode)
+ {
+-      unsigned long olen = tnode_child_length(oldtnode);
+-      struct tnode *tp = node_parent(oldtnode);
+-      struct tnode *tn, *left, *right;
+-      int i;
++      struct tnode *tn, *tp, *inode, *node0, *node1;
++      unsigned long i;
+       pr_debug("In halve\n");
+@@ -577,68 +575,64 @@ static int halve(struct trie *t, struct
+       if (!tn)
+               return -ENOMEM;
+-      /*
+-       * Preallocate and store tnodes before the actual work so we
+-       * don't get into an inconsistent state if memory allocation
+-       * fails. In case of failure we return the oldnode and halve
+-       * of tnode is ignored.
++      /* Assemble all of the pointers in our cluster, in this case that
++       * represents all of the pointers out of our allocated nodes that
++       * point to existing tnodes and the links between our allocated
++       * nodes.
+        */
++      for (i = tnode_child_length(oldtnode); i;) {
++              node1 = tnode_get_child(oldtnode, --i);
++              node0 = tnode_get_child(oldtnode, --i);
+-      for (i = 0; i < olen; i += 2) {
+-              left = tnode_get_child(oldtnode, i);
+-              right = tnode_get_child(oldtnode, i+1);
++              /* At least one of the children is empty */
++              if (!node1 || !node0) {
++                      put_child(tn, i / 2, node1 ? : node0);
++                      continue;
++              }
+               /* Two nonempty children */
+-              if (left && right) {
+-                      struct tnode *newn;
+-
+-                      newn = tnode_new(left->key, oldtnode->pos, 1);
+-                      if (!newn) {
+-                              tnode_free(tn);
+-                              return -ENOMEM;
+-                      }
+-                      tnode_free_append(tn, newn);
+-
+-                      put_child(tn, i/2, newn);
++              inode = tnode_new(node0->key, oldtnode->pos, 1);
++              if (!inode) {
++                      tnode_free(tn);
++                      return -ENOMEM;
+               }
++              tnode_free_append(tn, inode);
++              /* initialize pointers out of node */
++              put_child(inode, 1, node1);
++              put_child(inode, 0, node0);
++              NODE_INIT_PARENT(inode, tn);
++
++              /* link parent to node */
++              put_child(tn, i / 2, inode);
+       }
++      /* setup the parent pointer out of and back into this node */
++      tp = node_parent(oldtnode);
++      NODE_INIT_PARENT(tn, tp);
++      put_child_root(tp, t, tn->key, tn);
++
+       /* prepare oldtnode to be freed */
+       tnode_free_init(oldtnode);
+-      for (i = 0; i < olen; i += 2) {
+-              struct tnode *newBinNode;
+-
+-              left = tnode_get_child(oldtnode, i);
+-              right = tnode_get_child(oldtnode, i+1);
+-
+-              /* At least one of the children is empty */
+-              if (left == NULL) {
+-                      if (right == NULL)    /* Both are empty */
+-                              continue;
+-                      put_child(tn, i/2, right);
+-                      continue;
+-              }
+-
+-              if (right == NULL) {
+-                      put_child(tn, i/2, left);
++      /* update all of the child parent pointers */
++      for (i = tnode_child_length(tn); i;) {
++              inode = tnode_get_child(tn, --i);
++
++              /* only new tnodes will be considered "full" nodes */
++              if (!tnode_full(tn, inode)) {
++                      node_set_parent(inode, tn);
+                       continue;
+               }
+               /* Two nonempty children */
+-              newBinNode = tnode_get_child(tn, i/2);
+-              put_child(newBinNode, 0, left);
+-              put_child(newBinNode, 1, right);
+-
+-              put_child(tn, i / 2, newBinNode);
++              node_set_parent(tnode_get_child(inode, 1), inode);
++              node_set_parent(tnode_get_child(inode, 0), inode);
+               /* resize child node */
+-              resize(t, newBinNode);
++              resize(t, inode);
+       }
+-      put_child_root(tp, t, tn->key, tn);
+-
+       /* all pointers should be clean so we are done */
+       tnode_free(oldtnode);
diff --git a/trunk/target/linux/generic/patches-3.18/080-17-fib_trie-Remove-checks-for-index-tnode_child_length-.patch b/trunk/target/linux/generic/patches-3.18/080-17-fib_trie-Remove-checks-for-index-tnode_child_length-.patch
new file mode 100644 (file)
index 0000000..8f7c671
--- /dev/null
@@ -0,0 +1,95 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:57:02 -0800
+Subject: [PATCH] fib_trie: Remove checks for index >= tnode_child_length
+ from tnode_get_child
+
+For some reason the compiler doesn't seem to understand that when we are in
+a loop that runs from tnode_child_length - 1 to 0 we don't expect the value
+of tn->bits to change.  As such every call to tnode_get_child was rerunning
+tnode_chile_length which ended up consuming quite a bit of space in the
+resultant assembly code.
+
+I have gone though and verified that in all cases where tnode_get_child
+is used we are either winding though a fixed loop from tnode_child_length -
+1 to 0, or are in a fastpath case where we are verifying the value by
+either checking for any remaining bits after shifting index by bits and
+testing for leaf, or by using tnode_child_length.
+
+size net/ipv4/fib_trie.o
+Before:
+   text           data     bss     dec     hex filename
+  15506            376       8   15890    3e12 net/ipv4/fib_trie.o
+
+After:
+   text           data     bss     dec     hex filename
+  14827            376       8   15211    3b6b net/ipv4/fib_trie.o
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -186,8 +186,6 @@ static inline unsigned long tnode_child_
+ static inline struct tnode *tnode_get_child(const struct tnode *tn,
+                                           unsigned long i)
+ {
+-      BUG_ON(i >= tnode_child_length(tn));
+-
+       return rtnl_dereference(tn->child[i]);
+ }
+@@ -195,8 +193,6 @@ static inline struct tnode *tnode_get_ch
+ static inline struct tnode *tnode_get_child_rcu(const struct tnode *tn,
+                                               unsigned long i)
+ {
+-      BUG_ON(i >= tnode_child_length(tn));
+-
+       return rcu_dereference_rtnl(tn->child[i]);
+ }
+@@ -371,7 +367,7 @@ static inline int tnode_full(const struc
+  */
+ static void put_child(struct tnode *tn, unsigned long i, struct tnode *n)
+ {
+-      struct tnode *chi = rtnl_dereference(tn->child[i]);
++      struct tnode *chi = tnode_get_child(tn, i);
+       int isfull, wasfull;
+       BUG_ON(i >= tnode_child_length(tn));
+@@ -867,7 +863,7 @@ static struct tnode *fib_find_node(struc
+               if (IS_LEAF(n))
+                       break;
+-              n = rcu_dereference_rtnl(n->child[index]);
++              n = tnode_get_child_rcu(n, index);
+       }
+       return n;
+@@ -934,7 +930,7 @@ static struct list_head *fib_insert_node
+               }
+               tp = n;
+-              n = rcu_dereference_rtnl(n->child[index]);
++              n = tnode_get_child_rcu(n, index);
+       }
+       l = leaf_new(key);
+@@ -1215,7 +1211,7 @@ int fib_table_lookup(struct fib_table *t
+                       cindex = index;
+               }
+-              n = rcu_dereference(n->child[index]);
++              n = tnode_get_child_rcu(n, index);
+               if (unlikely(!n))
+                       goto backtrace;
+       }
+@@ -1835,7 +1831,7 @@ static void trie_collect_stats(struct tr
+                       if (n->bits < MAX_STAT_DEPTH)
+                               s->nodesizes[n->bits]++;
+-                      for (i = 0; i < tnode_child_length(n); i++) {
++                      for (i = tnode_child_length(n); i--;) {
+                               if (!rcu_access_pointer(n->child[i]))
+                                       s->nullpointers++;
+                       }
diff --git a/trunk/target/linux/generic/patches-3.18/080-18-fib_trie-Add-tracking-value-for-suffix-length.patch b/trunk/target/linux/generic/patches-3.18/080-18-fib_trie-Add-tracking-value-for-suffix-length.patch
new file mode 100644 (file)
index 0000000..6a4a45e
--- /dev/null
@@ -0,0 +1,234 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Wed, 31 Dec 2014 10:57:08 -0800
+Subject: [PATCH] fib_trie: Add tracking value for suffix length
+
+This change adds a tracking value for the maximum suffix length of all
+prefixes stored in any given tnode.  With this value we can determine if we
+need to backtrace or not based on if the suffix is greater than the pos
+value.
+
+By doing this we can reduce the CPU overhead for lookups in the local table
+as many of the prefixes there are 32b long and have a suffix length of 0
+meaning we can immediately backtrace to the root node without needing to
+test any of the nodes between it and where we ended up.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -96,6 +96,7 @@ struct tnode {
+       t_key key;
+       unsigned char bits;             /* 2log(KEYLENGTH) bits needed */
+       unsigned char pos;              /* 2log(KEYLENGTH) bits needed */
++      unsigned char slen;
+       struct tnode __rcu *parent;
+       struct rcu_head rcu;
+       union {
+@@ -311,6 +312,7 @@ static struct tnode *leaf_new(t_key key)
+                * as the nodes are searched
+                */
+               l->key = key;
++              l->slen = 0;
+               l->pos = 0;
+               /* set bits to 0 indicating we are not a tnode */
+               l->bits = 0;
+@@ -342,6 +344,7 @@ static struct tnode *tnode_new(t_key key
+       if (tn) {
+               tn->parent = NULL;
++              tn->slen = pos;
+               tn->pos = pos;
+               tn->bits = bits;
+               tn->key = (shift < KEYLENGTH) ? (key >> shift) << shift : 0;
+@@ -387,6 +390,9 @@ static void put_child(struct tnode *tn,
+       else if (!wasfull && isfull)
+               tn->full_children++;
++      if (n && (tn->slen < n->slen))
++              tn->slen = n->slen;
++
+       rcu_assign_pointer(tn->child[i], n);
+ }
+@@ -635,6 +641,41 @@ static int halve(struct trie *t, struct
+       return 0;
+ }
++static unsigned char update_suffix(struct tnode *tn)
++{
++      unsigned char slen = tn->pos;
++      unsigned long stride, i;
++
++      /* search though the list of children looking for nodes that might
++       * have a suffix greater than the one we currently have.  This is
++       * why we start with a stride of 2 since a stride of 1 would
++       * represent the nodes with suffix length equal to tn->pos
++       */
++      for (i = 0, stride = 0x2ul ; i < tnode_child_length(tn); i += stride) {
++              struct tnode *n = tnode_get_child(tn, i);
++
++              if (!n || (n->slen <= slen))
++                      continue;
++
++              /* update stride and slen based on new value */
++              stride <<= (n->slen - slen);
++              slen = n->slen;
++              i &= ~(stride - 1);
++
++              /* if slen covers all but the last bit we can stop here
++               * there will be nothing longer than that since only node
++               * 0 and 1 << (bits - 1) could have that as their suffix
++               * length.
++               */
++              if ((slen + 1) >= (tn->pos + tn->bits))
++                      break;
++      }
++
++      tn->slen = slen;
++
++      return slen;
++}
++
+ /* From "Implementing a dynamic compressed trie" by Stefan Nilsson of
+  * the Helsinki University of Technology and Matti Tikkanen of Nokia
+  * Telecommunications, page 6:
+@@ -790,6 +831,19 @@ no_children:
+               /* drop dead node */
+               tnode_free_init(tn);
+               tnode_free(tn);
++              return;
++      }
++
++      /* Return if at least one deflate was run */
++      if (max_work != MAX_WORK)
++              return;
++
++      /* push the suffix length to the parent node */
++      if (tn->slen > tn->pos) {
++              unsigned char slen = update_suffix(tn);
++
++              if (tp && (slen > tp->slen))
++                      tp->slen = slen;
+       }
+ }
+@@ -818,8 +872,58 @@ static inline struct list_head *get_fa_h
+       return &li->falh;
+ }
+-static void insert_leaf_info(struct hlist_head *head, struct leaf_info *new)
++static void leaf_pull_suffix(struct tnode *l)
++{
++      struct tnode *tp = node_parent(l);
++
++      while (tp && (tp->slen > tp->pos) && (tp->slen > l->slen)) {
++              if (update_suffix(tp) > l->slen)
++                      break;
++              tp = node_parent(tp);
++      }
++}
++
++static void leaf_push_suffix(struct tnode *l)
++{
++      struct tnode *tn = node_parent(l);
++
++      /* if this is a new leaf then tn will be NULL and we can sort
++       * out parent suffix lengths as a part of trie_rebalance
++       */
++      while (tn && (tn->slen < l->slen)) {
++              tn->slen = l->slen;
++              tn = node_parent(tn);
++      }
++}
++
++static void remove_leaf_info(struct tnode *l, struct leaf_info *old)
++{
++      struct hlist_node *prev;
++
++      /* record the location of the pointer to this object */
++      prev = rtnl_dereference(hlist_pprev_rcu(&old->hlist));
++
++      /* remove the leaf info from the list */
++      hlist_del_rcu(&old->hlist);
++
++      /* if we emptied the list this leaf will be freed and we can sort
++       * out parent suffix lengths as a part of trie_rebalance
++       */
++      if (hlist_empty(&l->list))
++              return;
++
++      /* if we removed the tail then we need to update slen */
++      if (!rcu_access_pointer(hlist_next_rcu(prev))) {
++              struct leaf_info *li = hlist_entry(prev, typeof(*li), hlist);
++
++              l->slen = KEYLENGTH - li->plen;
++              leaf_pull_suffix(l);
++      }
++}
++
++static void insert_leaf_info(struct tnode *l, struct leaf_info *new)
+ {
++      struct hlist_head *head = &l->list;
+       struct leaf_info *li = NULL, *last = NULL;
+       if (hlist_empty(head)) {
+@@ -836,6 +940,12 @@ static void insert_leaf_info(struct hlis
+               else
+                       hlist_add_before_rcu(&new->hlist, &li->hlist);
+       }
++
++      /* if we added to the tail node then we need to update slen */
++      if (!rcu_access_pointer(hlist_next_rcu(&new->hlist))) {
++              l->slen = KEYLENGTH - new->plen;
++              leaf_push_suffix(l);
++      }
+ }
+ /* rcu_read_lock needs to be hold by caller from readside */
+@@ -925,7 +1035,7 @@ static struct list_head *fib_insert_node
+               /* we have found a leaf. Prefixes have already been compared */
+               if (IS_LEAF(n)) {
+                       /* Case 1: n is a leaf, and prefixes match*/
+-                      insert_leaf_info(&n->list, li);
++                      insert_leaf_info(n, li);
+                       return fa_head;
+               }
+@@ -939,7 +1049,7 @@ static struct list_head *fib_insert_node
+               return NULL;
+       }
+-      insert_leaf_info(&l->list, li);
++      insert_leaf_info(l, li);
+       /* Case 2: n is a LEAF or a TNODE and the key doesn't match.
+        *
+@@ -1206,7 +1316,7 @@ int fib_table_lookup(struct fib_table *t
+               /* only record pn and cindex if we are going to be chopping
+                * bits later.  Otherwise we are just wasting cycles.
+                */
+-              if (index) {
++              if (n->slen > n->pos) {
+                       pn = n;
+                       cindex = index;
+               }
+@@ -1225,7 +1335,7 @@ int fib_table_lookup(struct fib_table *t
+                * between the key and the prefix exist in the region of
+                * the lsb and higher in the prefix.
+                */
+-              if (unlikely(prefix_mismatch(key, n)))
++              if (unlikely(prefix_mismatch(key, n)) || (n->slen == n->pos))
+                       goto backtrace;
+               /* exit out and process leaf */
+@@ -1425,7 +1535,7 @@ int fib_table_delete(struct fib_table *t
+               tb->tb_num_default--;
+       if (list_empty(fa_head)) {
+-              hlist_del_rcu(&li->hlist);
++              remove_leaf_info(l, li);
+               free_leaf_info(li);
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/080-20-fib_trie-Fix-RCU-bug-and-merge-similar-bits-of-infla.patch b/trunk/target/linux/generic/patches-3.18/080-20-fib_trie-Fix-RCU-bug-and-merge-similar-bits-of-infla.patch
new file mode 100644 (file)
index 0000000..7e26127
--- /dev/null
@@ -0,0 +1,267 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Thu, 22 Jan 2015 15:51:14 -0800
+Subject: [PATCH] fib_trie: Fix RCU bug and merge similar bits of inflate/halve
+
+This patch addresses two issues.
+
+The first issue is the fact that I believe I had the RCU freeing sequence
+slightly out of order.  As a result we could get into an issue if a caller
+went into a child of a child of the new node, then backtraced into the to be
+freed parent, and then attempted to access a child of a child that may have
+been consumed in a resize of one of the new nodes children.  To resolve this I
+have moved the resize after we have freed the oldtnode.  The only side effect
+of this is that we will now be calling resize on more nodes in the case of
+inflate due to the fact that we don't have a good way to test to see if a
+full_tnode on the new node was there before or after the allocation.  This
+should have minimal impact however since the node should already be
+correctly size so it is just the cost of calling should_inflate that we
+will be taking on the node which is only a couple of cycles.
+
+The second issue is the fact that inflate and halve were essentially doing
+the same thing after the new node was added to the trie replacing the old
+one.  As such it wasn't really necessary to keep the code in both functions
+so I have split it out into two other functions, called replace and
+update_children.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -396,8 +396,30 @@ static void put_child(struct tnode *tn,
+       rcu_assign_pointer(tn->child[i], n);
+ }
+-static void put_child_root(struct tnode *tp, struct trie *t,
+-                         t_key key, struct tnode *n)
++static void update_children(struct tnode *tn)
++{
++      unsigned long i;
++
++      /* update all of the child parent pointers */
++      for (i = tnode_child_length(tn); i;) {
++              struct tnode *inode = tnode_get_child(tn, --i);
++
++              if (!inode)
++                      continue;
++
++              /* Either update the children of a tnode that
++               * already belongs to us or update the child
++               * to point to ourselves.
++               */
++              if (node_parent(inode) == tn)
++                      update_children(inode);
++              else
++                      node_set_parent(inode, tn);
++      }
++}
++
++static inline void put_child_root(struct tnode *tp, struct trie *t,
++                                t_key key, struct tnode *n)
+ {
+       if (tp)
+               put_child(tp, get_index(key, tp), n);
+@@ -434,10 +456,35 @@ static void tnode_free(struct tnode *tn)
+       }
+ }
++static void replace(struct trie *t, struct tnode *oldtnode, struct tnode *tn)
++{
++      struct tnode *tp = node_parent(oldtnode);
++      unsigned long i;
++
++      /* setup the parent pointer out of and back into this node */
++      NODE_INIT_PARENT(tn, tp);
++      put_child_root(tp, t, tn->key, tn);
++
++      /* update all of the child parent pointers */
++      update_children(tn);
++
++      /* all pointers should be clean so we are done */
++      tnode_free(oldtnode);
++
++      /* resize children now that oldtnode is freed */
++      for (i = tnode_child_length(tn); i;) {
++              struct tnode *inode = tnode_get_child(tn, --i);
++
++              /* resize child node */
++              if (tnode_full(tn, inode))
++                      resize(t, inode);
++      }
++}
++
+ static int inflate(struct trie *t, struct tnode *oldtnode)
+ {
+-      struct tnode *inode, *node0, *node1, *tn, *tp;
+-      unsigned long i, j, k;
++      struct tnode *tn;
++      unsigned long i;
+       t_key m;
+       pr_debug("In inflate\n");
+@@ -446,13 +493,18 @@ static int inflate(struct trie *t, struc
+       if (!tn)
+               return -ENOMEM;
++      /* prepare oldtnode to be freed */
++      tnode_free_init(oldtnode);
++
+       /* Assemble all of the pointers in our cluster, in this case that
+        * represents all of the pointers out of our allocated nodes that
+        * point to existing tnodes and the links between our allocated
+        * nodes.
+        */
+       for (i = tnode_child_length(oldtnode), m = 1u << tn->pos; i;) {
+-              inode = tnode_get_child(oldtnode, --i);
++              struct tnode *inode = tnode_get_child(oldtnode, --i);
++              struct tnode *node0, *node1;
++              unsigned long j, k;
+               /* An empty child */
+               if (inode == NULL)
+@@ -464,6 +516,9 @@ static int inflate(struct trie *t, struc
+                       continue;
+               }
++              /* drop the node in the old tnode free list */
++              tnode_free_append(oldtnode, inode);
++
+               /* An internal node with two children */
+               if (inode->bits == 1) {
+                       put_child(tn, 2 * i + 1, tnode_get_child(inode, 1));
+@@ -488,9 +543,9 @@ static int inflate(struct trie *t, struc
+               node1 = tnode_new(inode->key | m, inode->pos, inode->bits - 1);
+               if (!node1)
+                       goto nomem;
+-              tnode_free_append(tn, node1);
++              node0 = tnode_new(inode->key, inode->pos, inode->bits - 1);
+-              node0 = tnode_new(inode->key & ~m, inode->pos, inode->bits - 1);
++              tnode_free_append(tn, node1);
+               if (!node0)
+                       goto nomem;
+               tnode_free_append(tn, node0);
+@@ -512,53 +567,9 @@ static int inflate(struct trie *t, struc
+               put_child(tn, 2 * i, node0);
+       }
+-      /* setup the parent pointer into and out of this node */
+-      tp = node_parent(oldtnode);
+-      NODE_INIT_PARENT(tn, tp);
+-      put_child_root(tp, t, tn->key, tn);
++      /* setup the parent pointers into and out of this node */
++      replace(t, oldtnode, tn);
+-      /* prepare oldtnode to be freed */
+-      tnode_free_init(oldtnode);
+-
+-      /* update all child nodes parent pointers to route to us */
+-      for (i = tnode_child_length(oldtnode); i;) {
+-              inode = tnode_get_child(oldtnode, --i);
+-
+-              /* A leaf or an internal node with skipped bits */
+-              if (!tnode_full(oldtnode, inode)) {
+-                      node_set_parent(inode, tn);
+-                      continue;
+-              }
+-
+-              /* drop the node in the old tnode free list */
+-              tnode_free_append(oldtnode, inode);
+-
+-              /* fetch new nodes */
+-              node1 = tnode_get_child(tn, 2 * i + 1);
+-              node0 = tnode_get_child(tn, 2 * i);
+-
+-              /* bits == 1 then node0 and node1 represent inode's children */
+-              if (inode->bits == 1) {
+-                      node_set_parent(node1, tn);
+-                      node_set_parent(node0, tn);
+-                      continue;
+-              }
+-
+-              /* update parent pointers in child node's children */
+-              for (k = tnode_child_length(inode), j = k / 2; j;) {
+-                      node_set_parent(tnode_get_child(inode, --k), node1);
+-                      node_set_parent(tnode_get_child(inode, --j), node0);
+-                      node_set_parent(tnode_get_child(inode, --k), node1);
+-                      node_set_parent(tnode_get_child(inode, --j), node0);
+-              }
+-
+-              /* resize child nodes */
+-              resize(t, node1);
+-              resize(t, node0);
+-      }
+-
+-      /* we completed without error, prepare to free old node */
+-      tnode_free(oldtnode);
+       return 0;
+ nomem:
+       /* all pointers should be clean so we are done */
+@@ -568,7 +579,7 @@ nomem:
+ static int halve(struct trie *t, struct tnode *oldtnode)
+ {
+-      struct tnode *tn, *tp, *inode, *node0, *node1;
++      struct tnode *tn;
+       unsigned long i;
+       pr_debug("In halve\n");
+@@ -577,14 +588,18 @@ static int halve(struct trie *t, struct
+       if (!tn)
+               return -ENOMEM;
++      /* prepare oldtnode to be freed */
++      tnode_free_init(oldtnode);
++
+       /* Assemble all of the pointers in our cluster, in this case that
+        * represents all of the pointers out of our allocated nodes that
+        * point to existing tnodes and the links between our allocated
+        * nodes.
+        */
+       for (i = tnode_child_length(oldtnode); i;) {
+-              node1 = tnode_get_child(oldtnode, --i);
+-              node0 = tnode_get_child(oldtnode, --i);
++              struct tnode *node1 = tnode_get_child(oldtnode, --i);
++              struct tnode *node0 = tnode_get_child(oldtnode, --i);
++              struct tnode *inode;
+               /* At least one of the children is empty */
+               if (!node1 || !node0) {
+@@ -609,34 +624,8 @@ static int halve(struct trie *t, struct
+               put_child(tn, i / 2, inode);
+       }
+-      /* setup the parent pointer out of and back into this node */
+-      tp = node_parent(oldtnode);
+-      NODE_INIT_PARENT(tn, tp);
+-      put_child_root(tp, t, tn->key, tn);
+-
+-      /* prepare oldtnode to be freed */
+-      tnode_free_init(oldtnode);
+-
+-      /* update all of the child parent pointers */
+-      for (i = tnode_child_length(tn); i;) {
+-              inode = tnode_get_child(tn, --i);
+-
+-              /* only new tnodes will be considered "full" nodes */
+-              if (!tnode_full(tn, inode)) {
+-                      node_set_parent(inode, tn);
+-                      continue;
+-              }
+-
+-              /* Two nonempty children */
+-              node_set_parent(tnode_get_child(inode, 1), inode);
+-              node_set_parent(tnode_get_child(inode, 0), inode);
+-
+-              /* resize child node */
+-              resize(t, inode);
+-      }
+-
+-      /* all pointers should be clean so we are done */
+-      tnode_free(oldtnode);
++      /* setup the parent pointers into and out of this node */
++      replace(t, oldtnode, tn);
+       return 0;
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/080-21-fib_trie-Fall-back-to-slen-update-on-inflate-halve-f.patch b/trunk/target/linux/generic/patches-3.18/080-21-fib_trie-Fall-back-to-slen-update-on-inflate-halve-f.patch
new file mode 100644 (file)
index 0000000..058b33b
--- /dev/null
@@ -0,0 +1,61 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Thu, 22 Jan 2015 15:51:20 -0800
+Subject: [PATCH] fib_trie: Fall back to slen update on inflate/halve failure
+
+This change corrects an issue where if inflate or halve fails we were
+exiting the resize function without at least updating the slen for the
+node.  To correct this I have moved the update of max_size into the while
+loop so that it is only decremented on a successful call to either inflate
+or halve.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -752,7 +752,7 @@ static void resize(struct trie *t, struc
+ {
+       struct tnode *tp = node_parent(tn), *n = NULL;
+       struct tnode __rcu **cptr;
+-      int max_work;
++      int max_work = MAX_WORK;
+       pr_debug("In tnode_resize %p inflate_threshold=%d threshold=%d\n",
+                tn, inflate_threshold, halve_threshold);
+@@ -775,8 +775,7 @@ static void resize(struct trie *t, struc
+       /* Double as long as the resulting node has a number of
+        * nonempty nodes that are above the threshold.
+        */
+-      max_work = MAX_WORK;
+-      while (should_inflate(tp, tn) && max_work--) {
++      while (should_inflate(tp, tn) && max_work) {
+               if (inflate(t, tn)) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+                       this_cpu_inc(t->stats->resize_node_skipped);
+@@ -784,6 +783,7 @@ static void resize(struct trie *t, struc
+                       break;
+               }
++              max_work--;
+               tn = rtnl_dereference(*cptr);
+       }
+@@ -794,8 +794,7 @@ static void resize(struct trie *t, struc
+       /* Halve as long as the number of empty children in this
+        * node is above threshold.
+        */
+-      max_work = MAX_WORK;
+-      while (should_halve(tp, tn) && max_work--) {
++      while (should_halve(tp, tn) && max_work) {
+               if (halve(t, tn)) {
+ #ifdef CONFIG_IP_FIB_TRIE_STATS
+                       this_cpu_inc(t->stats->resize_node_skipped);
+@@ -803,6 +802,7 @@ static void resize(struct trie *t, struc
+                       break;
+               }
++              max_work--;
+               tn = rtnl_dereference(*cptr);
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/080-22-fib_trie-Add-collapse-and-should_collapse-to-resize.patch b/trunk/target/linux/generic/patches-3.18/080-22-fib_trie-Add-collapse-and-should_collapse-to-resize.patch
new file mode 100644 (file)
index 0000000..19b7db7
--- /dev/null
@@ -0,0 +1,206 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Thu, 22 Jan 2015 15:51:26 -0800
+Subject: [PATCH] fib_trie: Add collapse() and should_collapse() to resize
+
+This patch really does two things.
+
+First it pulls the logic for determining if we should collapse one node out
+of the tree and the actual code doing the collapse into a separate pair of
+functions.  This helps to make the changes to these areas more readable.
+
+Second it encodes the upper 32b of the empty_children value onto the
+full_children value in the case of bits == KEYLENGTH.  By doing this we are
+able to handle the case of a 32b node where empty_children would appear to
+be 0 when it was actually 1ul << 32.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -83,7 +83,8 @@
+ #define MAX_STAT_DEPTH 32
+-#define KEYLENGTH (8*sizeof(t_key))
++#define KEYLENGTH     (8*sizeof(t_key))
++#define KEY_MAX               ((t_key)~0)
+ typedef unsigned int t_key;
+@@ -102,8 +103,8 @@ struct tnode {
+       union {
+               /* The fields in this struct are valid if bits > 0 (TNODE) */
+               struct {
+-                      unsigned int full_children;  /* KEYLENGTH bits needed */
+-                      unsigned int empty_children; /* KEYLENGTH bits needed */
++                      t_key empty_children; /* KEYLENGTH bits needed */
++                      t_key full_children;  /* KEYLENGTH bits needed */
+                       struct tnode __rcu *child[0];
+               };
+               /* This list pointer if valid if bits == 0 (LEAF) */
+@@ -302,6 +303,16 @@ static struct tnode *tnode_alloc(size_t
+               return vzalloc(size);
+ }
++static inline void empty_child_inc(struct tnode *n)
++{
++      ++n->empty_children ? : ++n->full_children;
++}
++
++static inline void empty_child_dec(struct tnode *n)
++{
++      n->empty_children-- ? : n->full_children--;
++}
++
+ static struct tnode *leaf_new(t_key key)
+ {
+       struct tnode *l = kmem_cache_alloc(trie_leaf_kmem, GFP_KERNEL);
+@@ -335,7 +346,7 @@ static struct leaf_info *leaf_info_new(i
+ static struct tnode *tnode_new(t_key key, int pos, int bits)
+ {
+-      size_t sz = offsetof(struct tnode, child[1 << bits]);
++      size_t sz = offsetof(struct tnode, child[1ul << bits]);
+       struct tnode *tn = tnode_alloc(sz);
+       unsigned int shift = pos + bits;
+@@ -348,8 +359,10 @@ static struct tnode *tnode_new(t_key key
+               tn->pos = pos;
+               tn->bits = bits;
+               tn->key = (shift < KEYLENGTH) ? (key >> shift) << shift : 0;
+-              tn->full_children = 0;
+-              tn->empty_children = 1<<bits;
++              if (bits == KEYLENGTH)
++                      tn->full_children = 1;
++              else
++                      tn->empty_children = 1ul << bits;
+       }
+       pr_debug("AT %p s=%zu %zu\n", tn, sizeof(struct tnode),
+@@ -375,11 +388,11 @@ static void put_child(struct tnode *tn,
+       BUG_ON(i >= tnode_child_length(tn));
+-      /* update emptyChildren */
++      /* update emptyChildren, overflow into fullChildren */
+       if (n == NULL && chi != NULL)
+-              tn->empty_children++;
+-      else if (n != NULL && chi == NULL)
+-              tn->empty_children--;
++              empty_child_inc(tn);
++      if (n != NULL && chi == NULL)
++              empty_child_dec(tn);
+       /* update fullChildren */
+       wasfull = tnode_full(tn, chi);
+@@ -630,6 +643,24 @@ static int halve(struct trie *t, struct
+       return 0;
+ }
++static void collapse(struct trie *t, struct tnode *oldtnode)
++{
++      struct tnode *n, *tp;
++      unsigned long i;
++
++      /* scan the tnode looking for that one child that might still exist */
++      for (n = NULL, i = tnode_child_length(oldtnode); !n && i;)
++              n = tnode_get_child(oldtnode, --i);
++
++      /* compress one level */
++      tp = node_parent(oldtnode);
++      put_child_root(tp, t, oldtnode->key, n);
++      node_set_parent(n, tp);
++
++      /* drop dead node */
++      node_free(oldtnode);
++}
++
+ static unsigned char update_suffix(struct tnode *tn)
+ {
+       unsigned char slen = tn->pos;
+@@ -729,10 +760,12 @@ static bool should_inflate(const struct
+       /* Keep root node larger */
+       threshold *= tp ? inflate_threshold : inflate_threshold_root;
+-      used += tn->full_children;
+       used -= tn->empty_children;
++      used += tn->full_children;
+-      return tn->pos && ((50 * used) >= threshold);
++      /* if bits == KEYLENGTH then pos = 0, and will fail below */
++
++      return (used > 1) && tn->pos && ((50 * used) >= threshold);
+ }
+ static bool should_halve(const struct tnode *tp, const struct tnode *tn)
+@@ -744,13 +777,29 @@ static bool should_halve(const struct tn
+       threshold *= tp ? halve_threshold : halve_threshold_root;
+       used -= tn->empty_children;
+-      return (tn->bits > 1) && ((100 * used) < threshold);
++      /* if bits == KEYLENGTH then used = 100% on wrap, and will fail below */
++
++      return (used > 1) && (tn->bits > 1) && ((100 * used) < threshold);
++}
++
++static bool should_collapse(const struct tnode *tn)
++{
++      unsigned long used = tnode_child_length(tn);
++
++      used -= tn->empty_children;
++
++      /* account for bits == KEYLENGTH case */
++      if ((tn->bits == KEYLENGTH) && tn->full_children)
++              used -= KEY_MAX;
++
++      /* One child or none, time to drop us from the trie */
++      return used < 2;
+ }
+ #define MAX_WORK 10
+ static void resize(struct trie *t, struct tnode *tn)
+ {
+-      struct tnode *tp = node_parent(tn), *n = NULL;
++      struct tnode *tp = node_parent(tn);
+       struct tnode __rcu **cptr;
+       int max_work = MAX_WORK;
+@@ -764,14 +813,6 @@ static void resize(struct trie *t, struc
+       cptr = tp ? &tp->child[get_index(tn->key, tp)] : &t->trie;
+       BUG_ON(tn != rtnl_dereference(*cptr));
+-      /* No children */
+-      if (tn->empty_children > (tnode_child_length(tn) - 1))
+-              goto no_children;
+-
+-      /* One child */
+-      if (tn->empty_children == (tnode_child_length(tn) - 1))
+-              goto one_child;
+-
+       /* Double as long as the resulting node has a number of
+        * nonempty nodes that are above the threshold.
+        */
+@@ -807,19 +848,8 @@ static void resize(struct trie *t, struc
+       }
+       /* Only one child remains */
+-      if (tn->empty_children == (tnode_child_length(tn) - 1)) {
+-              unsigned long i;
+-one_child:
+-              for (i = tnode_child_length(tn); !n && i;)
+-                      n = tnode_get_child(tn, --i);
+-no_children:
+-              /* compress one level */
+-              put_child_root(tp, t, tn->key, n);
+-              node_set_parent(n, tp);
+-
+-              /* drop dead node */
+-              tnode_free_init(tn);
+-              tnode_free(tn);
++      if (should_collapse(tn)) {
++              collapse(t, tn);
+               return;
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/080-23-fib_trie-Use-empty_children-instead-of-counting-empt.patch b/trunk/target/linux/generic/patches-3.18/080-23-fib_trie-Use-empty_children-instead-of-counting-empt.patch
new file mode 100644 (file)
index 0000000..160fbe1
--- /dev/null
@@ -0,0 +1,34 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Thu, 22 Jan 2015 15:51:33 -0800
+Subject: [PATCH] fib_trie: Use empty_children instead of counting empty nodes
+ in stats collection
+
+It doesn't make much sense to count the pointers ourselves when
+empty_children already has a count for the number of NULL pointers stored
+in the tnode.  As such save ourselves the cycles and just use
+empty_children.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -1954,16 +1954,10 @@ static void trie_collect_stats(struct tr
+                       hlist_for_each_entry_rcu(li, &n->list, hlist)
+                               ++s->prefixes;
+               } else {
+-                      unsigned long i;
+-
+                       s->tnodes++;
+                       if (n->bits < MAX_STAT_DEPTH)
+                               s->nodesizes[n->bits]++;
+-
+-                      for (i = tnode_child_length(n); i--;) {
+-                              if (!rcu_access_pointer(n->child[i]))
+-                                      s->nullpointers++;
+-                      }
++                      s->nullpointers += n->empty_children;
+               }
+       }
+       rcu_read_unlock();
diff --git a/trunk/target/linux/generic/patches-3.18/080-24-fib_trie-Move-fib_find_alias-to-file-where-it-is-use.patch b/trunk/target/linux/generic/patches-3.18/080-24-fib_trie-Move-fib_find_alias-to-file-where-it-is-use.patch
new file mode 100644 (file)
index 0000000..5eba700
--- /dev/null
@@ -0,0 +1,79 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Thu, 22 Jan 2015 15:51:39 -0800
+Subject: [PATCH] fib_trie: Move fib_find_alias to file where it is used
+
+The function fib_find_alias is only accessed by functions in fib_trie.c as
+such it makes sense to relocate it and cast it as static so that the
+compiler can take advantage of optimizations it can do to it as a local
+function.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_lookup.h
++++ b/net/ipv4/fib_lookup.h
+@@ -32,7 +32,6 @@ int fib_dump_info(struct sk_buff *skb, u
+                 unsigned int);
+ void rtmsg_fib(int event, __be32 key, struct fib_alias *fa, int dst_len,
+              u32 tb_id, const struct nl_info *info, unsigned int nlm_flags);
+-struct fib_alias *fib_find_alias(struct list_head *fah, u8 tos, u32 prio);
+ static inline void fib_result_assign(struct fib_result *res,
+                                    struct fib_info *fi)
+--- a/net/ipv4/fib_semantics.c
++++ b/net/ipv4/fib_semantics.c
+@@ -410,24 +410,6 @@ errout:
+               rtnl_set_sk_err(info->nl_net, RTNLGRP_IPV4_ROUTE, err);
+ }
+-/* Return the first fib alias matching TOS with
+- * priority less than or equal to PRIO.
+- */
+-struct fib_alias *fib_find_alias(struct list_head *fah, u8 tos, u32 prio)
+-{
+-      if (fah) {
+-              struct fib_alias *fa;
+-              list_for_each_entry(fa, fah, fa_list) {
+-                      if (fa->fa_tos > tos)
+-                              continue;
+-                      if (fa->fa_info->fib_priority >= prio ||
+-                          fa->fa_tos < tos)
+-                              return fa;
+-              }
+-      }
+-      return NULL;
+-}
+-
+ static int fib_detect_death(struct fib_info *fi, int order,
+                           struct fib_info **last_resort, int *last_idx,
+                           int dflt)
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -998,6 +998,26 @@ static struct tnode *fib_find_node(struc
+       return n;
+ }
++/* Return the first fib alias matching TOS with
++ * priority less than or equal to PRIO.
++ */
++static struct fib_alias *fib_find_alias(struct list_head *fah, u8 tos, u32 prio)
++{
++      struct fib_alias *fa;
++
++      if (!fah)
++              return NULL;
++
++      list_for_each_entry(fa, fah, fa_list) {
++              if (fa->fa_tos > tos)
++                      continue;
++              if (fa->fa_info->fib_priority >= prio || fa->fa_tos < tos)
++                      return fa;
++      }
++
++      return NULL;
++}
++
+ static void trie_rebalance(struct trie *t, struct tnode *tn)
+ {
+       struct tnode *tp;
diff --git a/trunk/target/linux/generic/patches-3.18/080-25-fib_trie-Various-clean-ups-for-handling-slen.patch b/trunk/target/linux/generic/patches-3.18/080-25-fib_trie-Various-clean-ups-for-handling-slen.patch
new file mode 100644 (file)
index 0000000..c7739d0
--- /dev/null
@@ -0,0 +1,116 @@
+From: Alexander Duyck <alexander.h.duyck@redhat.com>
+Date: Thu, 22 Jan 2015 15:51:45 -0800
+Subject: [PATCH] fib_trie: Various clean-ups for handling slen
+
+While doing further work on the fib_trie I noted a few items.
+
+First I was using calls that were far more complicated than they needed to
+be for determining when to push/pull the suffix length.  I have updated the
+code to reflect the simplier logic.
+
+The second issue is that I realised we weren't necessarily handling the
+case of a leaf_info struct surviving a flush.  I have updated the logic so
+that now we will call pull_suffix in the event of having a leaf info value
+left in the leaf after flushing it.
+
+Signed-off-by: Alexander Duyck <alexander.h.duyck@redhat.com>
+Signed-off-by: David S. Miller <davem@davemloft.net>
+---
+
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -917,27 +917,20 @@ static void leaf_push_suffix(struct tnod
+ static void remove_leaf_info(struct tnode *l, struct leaf_info *old)
+ {
+-      struct hlist_node *prev;
+-
+-      /* record the location of the pointer to this object */
+-      prev = rtnl_dereference(hlist_pprev_rcu(&old->hlist));
++      /* record the location of the previous list_info entry */
++      struct hlist_node **pprev = old->hlist.pprev;
++      struct leaf_info *li = hlist_entry(pprev, typeof(*li), hlist.next);
+       /* remove the leaf info from the list */
+       hlist_del_rcu(&old->hlist);
+-      /* if we emptied the list this leaf will be freed and we can sort
+-       * out parent suffix lengths as a part of trie_rebalance
+-       */
+-      if (hlist_empty(&l->list))
++      /* only access li if it is pointing at the last valid hlist_node */
++      if (hlist_empty(&l->list) || (*pprev))
+               return;
+-      /* if we removed the tail then we need to update slen */
+-      if (!rcu_access_pointer(hlist_next_rcu(prev))) {
+-              struct leaf_info *li = hlist_entry(prev, typeof(*li), hlist);
+-
+-              l->slen = KEYLENGTH - li->plen;
+-              leaf_pull_suffix(l);
+-      }
++      /* update the trie with the latest suffix length */
++      l->slen = KEYLENGTH - li->plen;
++      leaf_pull_suffix(l);
+ }
+ static void insert_leaf_info(struct tnode *l, struct leaf_info *new)
+@@ -961,7 +954,7 @@ static void insert_leaf_info(struct tnod
+       }
+       /* if we added to the tail node then we need to update slen */
+-      if (!rcu_access_pointer(hlist_next_rcu(&new->hlist))) {
++      if (l->slen < (KEYLENGTH - new->plen)) {
+               l->slen = KEYLENGTH - new->plen;
+               leaf_push_suffix(l);
+       }
+@@ -1613,6 +1606,7 @@ static int trie_flush_leaf(struct tnode
+       struct hlist_head *lih = &l->list;
+       struct hlist_node *tmp;
+       struct leaf_info *li = NULL;
++      unsigned char plen = KEYLENGTH;
+       hlist_for_each_entry_safe(li, tmp, lih, hlist) {
+               found += trie_flush_list(&li->falh);
+@@ -1620,8 +1614,14 @@ static int trie_flush_leaf(struct tnode
+               if (list_empty(&li->falh)) {
+                       hlist_del_rcu(&li->hlist);
+                       free_leaf_info(li);
++                      continue;
+               }
++
++              plen = li->plen;
+       }
++
++      l->slen = KEYLENGTH - plen;
++
+       return found;
+ }
+@@ -1700,13 +1700,22 @@ int fib_table_flush(struct fib_table *tb
+       for (l = trie_firstleaf(t); l; l = trie_nextleaf(l)) {
+               found += trie_flush_leaf(l);
+-              if (ll && hlist_empty(&ll->list))
+-                      trie_leaf_remove(t, ll);
++              if (ll) {
++                      if (hlist_empty(&ll->list))
++                              trie_leaf_remove(t, ll);
++                      else
++                              leaf_pull_suffix(ll);
++              }
++
+               ll = l;
+       }
+-      if (ll && hlist_empty(&ll->list))
+-              trie_leaf_remove(t, ll);
++      if (ll) {
++              if (hlist_empty(&ll->list))
++                      trie_leaf_remove(t, ll);
++              else
++                      leaf_pull_suffix(ll);
++      }
+       pr_debug("trie_flush found=%d\n", found);
+       return found;
diff --git a/trunk/target/linux/generic/patches-3.18/102-ehci_hcd_ignore_oc.patch b/trunk/target/linux/generic/patches-3.18/102-ehci_hcd_ignore_oc.patch
new file mode 100644 (file)
index 0000000..f498d4e
--- /dev/null
@@ -0,0 +1,82 @@
+From 1e311820ec3055e3f08e687de6564692a7cec675 Mon Sep 17 00:00:00 2001
+From: Florian Fainelli <florian@openwrt.org>
+Date: Mon, 28 Jan 2013 20:06:29 +0100
+Subject: [PATCH 11/12] USB: EHCI: add ignore_oc flag to disable overcurrent
+ checking
+
+This patch adds an ignore_oc flag which can be set by EHCI controller
+not supporting or wanting to disable overcurrent checking. The EHCI
+platform data in include/linux/usb/ehci_pdriver.h is also augmented to
+take advantage of this new flag.
+
+Signed-off-by: Florian Fainelli <florian@openwrt.org>
+---
+ drivers/usb/host/ehci-hcd.c      |    2 +-
+ drivers/usb/host/ehci-hub.c      |    4 ++--
+ drivers/usb/host/ehci-platform.c |    1 +
+ drivers/usb/host/ehci.h          |    1 +
+ include/linux/usb/ehci_pdriver.h |    1 +
+ 5 files changed, 6 insertions(+), 3 deletions(-)
+
+--- a/drivers/usb/host/ehci-hcd.c
++++ b/drivers/usb/host/ehci-hcd.c
+@@ -633,7 +633,7 @@ static int ehci_run (struct usb_hcd *hcd
+               "USB %x.%x started, EHCI %x.%02x%s\n",
+               ((ehci->sbrn & 0xf0)>>4), (ehci->sbrn & 0x0f),
+               temp >> 8, temp & 0xff,
+-              ignore_oc ? ", overcurrent ignored" : "");
++              (ignore_oc || ehci->ignore_oc) ? ", overcurrent ignored" : "");
+       ehci_writel(ehci, INTR_MASK,
+                   &ehci->regs->intr_enable); /* Turn On Interrupts */
+--- a/drivers/usb/host/ehci-hub.c
++++ b/drivers/usb/host/ehci-hub.c
+@@ -632,7 +632,7 @@ ehci_hub_status_data (struct usb_hcd *hc
+        * always set, seem to clear PORT_OCC and PORT_CSC when writing to
+        * PORT_POWER; that's surprising, but maybe within-spec.
+        */
+-      if (!ignore_oc)
++      if (!ignore_oc && !ehci->ignore_oc)
+               mask = PORT_CSC | PORT_PEC | PORT_OCC;
+       else
+               mask = PORT_CSC | PORT_PEC;
+@@ -992,7 +992,7 @@ int ehci_hub_control(
+               if (temp & PORT_PEC)
+                       status |= USB_PORT_STAT_C_ENABLE << 16;
+-              if ((temp & PORT_OCC) && !ignore_oc){
++              if ((temp & PORT_OCC) && (!ignore_oc && !ehci->ignore_oc)){
+                       status |= USB_PORT_STAT_C_OVERCURRENT << 16;
+                       /*
+--- a/drivers/usb/host/ehci-platform.c
++++ b/drivers/usb/host/ehci-platform.c
+@@ -226,6 +226,8 @@ static int ehci_platform_probe(struct pl
+               ehci->big_endian_desc = 1;
+       if (pdata->big_endian_mmio)
+               ehci->big_endian_mmio = 1;
++      if (pdata->ignore_oc)
++              ehci->ignore_oc = 1;
+ #ifndef CONFIG_USB_EHCI_BIG_ENDIAN_MMIO
+       if (ehci->big_endian_mmio) {
+--- a/drivers/usb/host/ehci.h
++++ b/drivers/usb/host/ehci.h
+@@ -226,6 +226,7 @@ struct ehci_hcd {                  /* one per controlle
+       unsigned                frame_index_bug:1; /* MosChip (AKA NetMos) */
+       unsigned                need_oc_pp_cycle:1; /* MPC834X port power */
+       unsigned                imx28_write_fix:1; /* For Freescale i.MX28 */
++      unsigned                ignore_oc:1;
+       /* required for usb32 quirk */
+       #define OHCI_CTRL_HCFS          (3 << 6)
+--- a/include/linux/usb/ehci_pdriver.h
++++ b/include/linux/usb/ehci_pdriver.h
+@@ -45,6 +45,7 @@ struct usb_ehci_pdata {
+       unsigned        big_endian_desc:1;
+       unsigned        big_endian_mmio:1;
+       unsigned        no_io_watchdog:1;
++      unsigned        ignore_oc:1;
+       /* Turn on all power and clocks */
+       int (*power_on)(struct platform_device *pdev);
diff --git a/trunk/target/linux/generic/patches-3.18/110-jffs2-use-.rename2-and-add-RENAME_WHITEOUT-support.patch b/trunk/target/linux/generic/patches-3.18/110-jffs2-use-.rename2-and-add-RENAME_WHITEOUT-support.patch
new file mode 100644 (file)
index 0000000..4ffa3c2
--- /dev/null
@@ -0,0 +1,86 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Fri, 10 Apr 2015 13:35:29 +0200
+Subject: [PATCH] jffs2: use .rename2 and add RENAME_WHITEOUT support
+
+It is required for renames on overlayfs
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+
+--- a/fs/jffs2/dir.c
++++ b/fs/jffs2/dir.c
+@@ -35,7 +35,7 @@ static int jffs2_mkdir (struct inode *,s
+ static int jffs2_rmdir (struct inode *,struct dentry *);
+ static int jffs2_mknod (struct inode *,struct dentry *,umode_t,dev_t);
+ static int jffs2_rename (struct inode *, struct dentry *,
+-                       struct inode *, struct dentry *);
++                       struct inode *, struct dentry *, unsigned int);
+ const struct file_operations jffs2_dir_operations =
+ {
+@@ -57,7 +57,7 @@ const struct inode_operations jffs2_dir_
+       .mkdir =        jffs2_mkdir,
+       .rmdir =        jffs2_rmdir,
+       .mknod =        jffs2_mknod,
+-      .rename =       jffs2_rename,
++      .rename2 =      jffs2_rename,
+       .get_acl =      jffs2_get_acl,
+       .set_acl =      jffs2_set_acl,
+       .setattr =      jffs2_setattr,
+@@ -756,8 +756,27 @@ static int jffs2_mknod (struct inode *di
+       return ret;
+ }
++static int jffs2_whiteout(struct inode *old_dir, struct dentry *old_dentry)
++{
++      struct dentry *wh;
++      int err;
++
++      wh = d_alloc(old_dentry->d_parent, &old_dentry->d_name);
++      if (!wh)
++              return -ENOMEM;
++
++      err = jffs2_mknod(old_dir, wh, S_IFCHR | WHITEOUT_MODE,
++                        WHITEOUT_DEV);
++      if (err)
++              return err;
++
++      d_rehash(wh);
++      return 0;
++}
++
+ static int jffs2_rename (struct inode *old_dir_i, struct dentry *old_dentry,
+-                       struct inode *new_dir_i, struct dentry *new_dentry)
++                       struct inode *new_dir_i, struct dentry *new_dentry,
++                       unsigned int flags)
+ {
+       int ret;
+       struct jffs2_sb_info *c = JFFS2_SB_INFO(old_dir_i->i_sb);
+@@ -765,6 +784,9 @@ static int jffs2_rename (struct inode *o
+       uint8_t type;
+       uint32_t now;
++      if (flags & ~RENAME_WHITEOUT)
++              return -EINVAL;
++
+       /* The VFS will check for us and prevent trying to rename a
+        * file over a directory and vice versa, but if it's a directory,
+        * the VFS can't check whether the victim is empty. The filesystem
+@@ -828,9 +850,14 @@ static int jffs2_rename (struct inode *o
+       if (S_ISDIR(old_dentry->d_inode->i_mode) && !victim_f)
+               inc_nlink(new_dir_i);
+-      /* Unlink the original */
+-      ret = jffs2_do_unlink(c, JFFS2_INODE_INFO(old_dir_i),
+-                            old_dentry->d_name.name, old_dentry->d_name.len, NULL, now);
++      if (flags & RENAME_WHITEOUT)
++              /* Replace with whiteout */
++              ret = jffs2_whiteout(old_dir_i, old_dentry);
++      else
++              /* Unlink the original */
++              ret = jffs2_do_unlink(c, JFFS2_INODE_INFO(old_dir_i),
++                                    old_dentry->d_name.name,
++                                    old_dentry->d_name.len, NULL, now);
+       /* We don't touch inode->i_nlink */
diff --git a/trunk/target/linux/generic/patches-3.18/120-bridge_allow_receiption_on_disabled_port.patch b/trunk/target/linux/generic/patches-3.18/120-bridge_allow_receiption_on_disabled_port.patch
new file mode 100644 (file)
index 0000000..d80ef18
--- /dev/null
@@ -0,0 +1,54 @@
+From: Stephen Hemminger <stephen@networkplumber.org>
+Subject: bridge: allow receiption on disabled port
+
+When an ethernet device is enslaved to a bridge, and the bridge STP
+detects loss of carrier (or operational state down), then normally
+packet receiption is blocked.
+
+This breaks control applications like WPA which maybe expecting to
+receive packets to negotiate to bring link up. The bridge needs to
+block forwarding packets from these disabled ports, but there is no
+hard requirement to not allow local packet delivery.
+
+Signed-off-by: Stephen Hemminger <stephen@networkplumber.org>
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+
+--- a/net/bridge/br_input.c
++++ b/net/bridge/br_input.c
+@@ -146,11 +146,13 @@ EXPORT_SYMBOL_GPL(br_handle_frame_finish
+ static int br_handle_local_finish(struct sk_buff *skb)
+ {
+       struct net_bridge_port *p = br_port_get_rcu(skb->dev);
+-      u16 vid = 0;
++      if (p->state != BR_STATE_DISABLED) {
++              u16 vid = 0;
+-      /* check if vlan is allowed, to avoid spoofing */
+-      if (p->flags & BR_LEARNING && br_should_learn(p, skb, &vid))
+-              br_fdb_update(p->br, p, eth_hdr(skb)->h_source, vid, false);
++              /* check if vlan is allowed, to avoid spoofing */
++              if (p->flags & BR_LEARNING && br_should_learn(p, skb, &vid))
++                      br_fdb_update(p->br, p, eth_hdr(skb)->h_source, vid, false);
++      }
+       return 0;        /* process further */
+ }
+@@ -224,6 +226,18 @@ rx_handler_result_t br_handle_frame(stru
+ forward:
+       switch (p->state) {
++      case BR_STATE_DISABLED:
++              if (ether_addr_equal(p->br->dev->dev_addr, dest))
++                      skb->pkt_type = PACKET_HOST;
++
++              if (NF_HOOK(NFPROTO_BRIDGE, NF_BR_PRE_ROUTING, skb, skb->dev, NULL,
++                      br_handle_local_finish))
++                      break;
++
++              BR_INPUT_SKB_CB(skb)->brdev = p->br->dev;
++              br_pass_frame_up(skb);
++              break;
++
+       case BR_STATE_FORWARDING:
+               rhook = rcu_dereference(br_should_route_hook);
+               if (rhook) {
diff --git a/trunk/target/linux/generic/patches-3.18/132-mips_inline_dma_ops.patch b/trunk/target/linux/generic/patches-3.18/132-mips_inline_dma_ops.patch
new file mode 100644 (file)
index 0000000..8795bde
--- /dev/null
@@ -0,0 +1,688 @@
+From 2c58080407554e1bac8fd50d23cb02420524caed Mon Sep 17 00:00:00 2001
+From: Felix Fietkau <nbd@openwrt.org>
+Date: Mon, 12 Aug 2013 12:50:22 +0200
+Subject: [PATCH] MIPS: partially inline dma ops
+
+Several DMA ops are no-op on many platforms, and the indirection through
+the mips_dma_map_ops function table is causing the compiler to emit
+unnecessary code.
+
+Inlining visibly improves network performance in my tests (on a 24Kc
+based system), and also slightly reduces code size of a few drivers.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+ arch/mips/Kconfig                   |   4 +
+ arch/mips/include/asm/dma-mapping.h | 360 +++++++++++++++++++++++++++++++++++-
+ arch/mips/mm/dma-default.c          | 163 ++--------------
+ 3 files changed, 373 insertions(+), 154 deletions(-)
+
+--- a/arch/mips/Kconfig
++++ b/arch/mips/Kconfig
+@@ -1450,6 +1450,7 @@ config CPU_CAVIUM_OCTEON
+       select CPU_SUPPORTS_HUGEPAGES
+       select USB_EHCI_BIG_ENDIAN_MMIO
+       select MIPS_L1_CACHE_SHIFT_7
++      select SYS_HAS_DMA_OPS
+       help
+         The Cavium Octeon processor is a highly integrated chip containing
+         many ethernet hardware widgets for networking tasks. The processor
+@@ -1705,6 +1706,9 @@ config MIPS_MALTA_PM
+       bool
+       default y
++config SYS_HAS_DMA_OPS
++      bool
++
+ #
+ # CPU may reorder R->R, R->W, W->R, W->W
+ # Reordering beyond LL and SC is handled in WEAK_REORDERING_BEYOND_LLSC
+--- a/arch/mips/include/asm/dma-mapping.h
++++ b/arch/mips/include/asm/dma-mapping.h
+@@ -1,9 +1,16 @@
+ #ifndef _ASM_DMA_MAPPING_H
+ #define _ASM_DMA_MAPPING_H
++#include <linux/kmemcheck.h>
++#include <linux/bug.h>
++#include <linux/scatterlist.h>
++#include <linux/dma-debug.h>
++#include <linux/dma-attrs.h>
++
+ #include <asm/scatterlist.h>
+ #include <asm/dma-coherence.h>
+ #include <asm/cache.h>
++#include <asm/cpu-type.h>
+ #include <asm-generic/dma-coherent.h>
+ #ifndef CONFIG_SGI_IP27 /* Kludge to fix 2.6.39 build for IP27 */
+@@ -12,12 +19,48 @@
+ extern struct dma_map_ops *mips_dma_map_ops;
++void __dma_sync(struct page *page, unsigned long offset, size_t size,
++              enum dma_data_direction direction);
++void *mips_dma_alloc_coherent(struct device *dev, size_t size,
++                            dma_addr_t *dma_handle, gfp_t gfp,
++                            struct dma_attrs *attrs);
++void mips_dma_free_coherent(struct device *dev, size_t size, void *vaddr,
++                          dma_addr_t dma_handle, struct dma_attrs *attrs);
++
+ static inline struct dma_map_ops *get_dma_ops(struct device *dev)
+ {
++#ifdef CONFIG_SYS_HAS_DMA_OPS
+       if (dev && dev->archdata.dma_ops)
+               return dev->archdata.dma_ops;
+       else
+               return mips_dma_map_ops;
++#else
++      return NULL;
++#endif
++}
++
++/*
++ * Warning on the terminology - Linux calls an uncached area coherent;
++ * MIPS terminology calls memory areas with hardware maintained coherency
++ * coherent.
++ */
++
++static inline int cpu_needs_post_dma_flush(struct device *dev)
++{
++#ifndef CONFIG_SYS_HAS_CPU_R10000
++      return 0;
++#endif
++      return !plat_device_is_coherent(dev) &&
++             (boot_cpu_type() == CPU_R10000 ||
++              boot_cpu_type() == CPU_R12000 ||
++              boot_cpu_type() == CPU_BMIPS5000);
++}
++
++static inline struct page *dma_addr_to_page(struct device *dev,
++      dma_addr_t dma_addr)
++{
++      return pfn_to_page(
++              plat_dma_addr_to_phys(dev, dma_addr) >> PAGE_SHIFT);
+ }
+ static inline bool dma_capable(struct device *dev, dma_addr_t addr, size_t size)
+@@ -30,12 +73,304 @@ static inline bool dma_capable(struct de
+ static inline void dma_mark_clean(void *addr, size_t size) {}
+-#include <asm-generic/dma-mapping-common.h>
++static inline dma_addr_t dma_map_single_attrs(struct device *dev, void *ptr,
++                                            size_t size,
++                                            enum dma_data_direction dir,
++                                            struct dma_attrs *attrs)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      unsigned long offset = (unsigned long)ptr & ~PAGE_MASK;
++      struct page *page = virt_to_page(ptr);
++      dma_addr_t addr;
++
++      kmemcheck_mark_initialized(ptr, size);
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops) {
++              addr = ops->map_page(dev, page, offset, size, dir, attrs);
++      } else {
++              if (!plat_device_is_coherent(dev))
++                      __dma_sync(page, offset, size, dir);
++
++              addr = plat_map_dma_mem_page(dev, page) + offset;
++      }
++      debug_dma_map_page(dev, page, offset, size, dir, addr, true);
++      return addr;
++}
++
++static inline void dma_unmap_single_attrs(struct device *dev, dma_addr_t addr,
++                                        size_t size,
++                                        enum dma_data_direction dir,
++                                        struct dma_attrs *attrs)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops) {
++              ops->unmap_page(dev, addr, size, dir, attrs);
++      } else {
++              if (cpu_needs_post_dma_flush(dev))
++                      __dma_sync(dma_addr_to_page(dev, addr),
++                                 addr & ~PAGE_MASK, size, dir);
++
++              plat_unmap_dma_mem(dev, addr, size, dir);
++      }
++      debug_dma_unmap_page(dev, addr, size, dir, true);
++}
++
++static inline int dma_map_sg_attrs(struct device *dev, struct scatterlist *sg,
++                                 int nents, enum dma_data_direction dir,
++                                 struct dma_attrs *attrs)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      int i, ents;
++      struct scatterlist *s;
++
++      for_each_sg(sg, s, nents, i)
++              kmemcheck_mark_initialized(sg_virt(s), s->length);
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops) {
++              ents = ops->map_sg(dev, sg, nents, dir, attrs);
++      } else {
++              for_each_sg(sg, s, nents, i) {
++                      struct page *page = sg_page(s);
++
++                      if (!plat_device_is_coherent(dev))
++                              __dma_sync(page, s->offset, s->length, dir);
++#ifdef CONFIG_NEED_SG_DMA_LENGTH
++                      s->dma_length = s->length;
++#endif
++                      s->dma_address =
++                              plat_map_dma_mem_page(dev, page) + s->offset;
++              }
++              ents = nents;
++      }
++      debug_dma_map_sg(dev, sg, nents, ents, dir);
++
++      return ents;
++}
++
++static inline void dma_unmap_sg_attrs(struct device *dev, struct scatterlist *sg,
++                                    int nents, enum dma_data_direction dir,
++                                    struct dma_attrs *attrs)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      struct scatterlist *s;
++      int i;
++
++      BUG_ON(!valid_dma_direction(dir));
++      debug_dma_unmap_sg(dev, sg, nents, dir);
++      if (ops) {
++              ops->unmap_sg(dev, sg, nents, dir, attrs);
++              return;
++      }
++
++      for_each_sg(sg, s, nents, i) {
++              if (!plat_device_is_coherent(dev) && dir != DMA_TO_DEVICE)
++                      __dma_sync(sg_page(s), s->offset, s->length, dir);
++              plat_unmap_dma_mem(dev, s->dma_address, s->length, dir);
++      }
++}
++
++static inline dma_addr_t dma_map_page(struct device *dev, struct page *page,
++                                    size_t offset, size_t size,
++                                    enum dma_data_direction dir)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      dma_addr_t addr;
++
++      kmemcheck_mark_initialized(page_address(page) + offset, size);
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops) {
++              addr = ops->map_page(dev, page, offset, size, dir, NULL);
++      } else {
++              if (!plat_device_is_coherent(dev))
++                      __dma_sync(page, offset, size, dir);
++
++              addr = plat_map_dma_mem_page(dev, page) + offset;
++      }
++      debug_dma_map_page(dev, page, offset, size, dir, addr, false);
++
++      return addr;
++}
++
++static inline void dma_unmap_page(struct device *dev, dma_addr_t addr,
++                                size_t size, enum dma_data_direction dir)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops) {
++              ops->unmap_page(dev, addr, size, dir, NULL);
++      } else {
++              if (cpu_needs_post_dma_flush(dev))
++                      __dma_sync(dma_addr_to_page(dev, addr),
++                                 addr & ~PAGE_MASK, size, dir);
++
++              plat_unmap_dma_mem(dev, addr, size, dir);
++      }
++      debug_dma_unmap_page(dev, addr, size, dir, false);
++}
++
++static inline void dma_sync_single_for_cpu(struct device *dev, dma_addr_t addr,
++                                         size_t size,
++                                         enum dma_data_direction dir)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops)
++              ops->sync_single_for_cpu(dev, addr, size, dir);
++      else if (cpu_needs_post_dma_flush(dev))
++              __dma_sync(dma_addr_to_page(dev, addr),
++                         addr & ~PAGE_MASK, size, dir);
++      debug_dma_sync_single_for_cpu(dev, addr, size, dir);
++}
++
++static inline void dma_sync_single_for_device(struct device *dev,
++                                            dma_addr_t addr, size_t size,
++                                            enum dma_data_direction dir)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops)
++              ops->sync_single_for_device(dev, addr, size, dir);
++      else if (!plat_device_is_coherent(dev))
++              __dma_sync(dma_addr_to_page(dev, addr),
++                         addr & ~PAGE_MASK, size, dir);
++      debug_dma_sync_single_for_device(dev, addr, size, dir);
++}
++
++static inline void dma_sync_single_range_for_cpu(struct device *dev,
++                                               dma_addr_t addr,
++                                               unsigned long offset,
++                                               size_t size,
++                                               enum dma_data_direction dir)
++{
++      const struct dma_map_ops *ops = get_dma_ops(dev);
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops)
++              ops->sync_single_for_cpu(dev, addr + offset, size, dir);
++      else if (cpu_needs_post_dma_flush(dev))
++              __dma_sync(dma_addr_to_page(dev, addr + offset),
++                         (addr + offset) & ~PAGE_MASK, size, dir);
++      debug_dma_sync_single_range_for_cpu(dev, addr, offset, size, dir);
++}
++
++static inline void dma_sync_single_range_for_device(struct device *dev,
++                                                  dma_addr_t addr,
++                                                  unsigned long offset,
++                                                  size_t size,
++                                                  enum dma_data_direction dir)
++{
++      const struct dma_map_ops *ops = get_dma_ops(dev);
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops)
++              ops->sync_single_for_device(dev, addr + offset, size, dir);
++      else if (!plat_device_is_coherent(dev))
++              __dma_sync(dma_addr_to_page(dev, addr + offset),
++                         (addr + offset) & ~PAGE_MASK, size, dir);
++      debug_dma_sync_single_range_for_device(dev, addr, offset, size, dir);
++}
++
++static inline void
++dma_sync_sg_for_cpu(struct device *dev, struct scatterlist *sg,
++                  int nelems, enum dma_data_direction dir)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      struct scatterlist *s;
++      int i;
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops)
++              ops->sync_sg_for_cpu(dev, sg, nelems, dir);
++      else if (cpu_needs_post_dma_flush(dev)) {
++              for_each_sg(sg, s, nelems, i)
++                      __dma_sync(sg_page(s), s->offset, s->length, dir);
++      }
++      debug_dma_sync_sg_for_cpu(dev, sg, nelems, dir);
++}
++
++static inline void
++dma_sync_sg_for_device(struct device *dev, struct scatterlist *sg,
++                     int nelems, enum dma_data_direction dir)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      struct scatterlist *s;
++      int i;
++
++      BUG_ON(!valid_dma_direction(dir));
++      if (ops)
++              ops->sync_sg_for_device(dev, sg, nelems, dir);
++      else if (!plat_device_is_coherent(dev)) {
++              for_each_sg(sg, s, nelems, i)
++                      __dma_sync(sg_page(s), s->offset, s->length, dir);
++      }
++      debug_dma_sync_sg_for_device(dev, sg, nelems, dir);
++
++}
++
++#define dma_map_single(d, a, s, r) dma_map_single_attrs(d, a, s, r, NULL)
++#define dma_unmap_single(d, a, s, r) dma_unmap_single_attrs(d, a, s, r, NULL)
++#define dma_map_sg(d, s, n, r) dma_map_sg_attrs(d, s, n, r, NULL)
++#define dma_unmap_sg(d, s, n, r) dma_unmap_sg_attrs(d, s, n, r, NULL)
++
++extern int dma_common_mmap(struct device *dev, struct vm_area_struct *vma,
++                         void *cpu_addr, dma_addr_t dma_addr, size_t size);
++
++/**
++ * dma_mmap_attrs - map a coherent DMA allocation into user space
++ * @dev: valid struct device pointer, or NULL for ISA and EISA-like devices
++ * @vma: vm_area_struct describing requested user mapping
++ * @cpu_addr: kernel CPU-view address returned from dma_alloc_attrs
++ * @handle: device-view address returned from dma_alloc_attrs
++ * @size: size of memory originally requested in dma_alloc_attrs
++ * @attrs: attributes of mapping properties requested in dma_alloc_attrs
++ *
++ * Map a coherent DMA buffer previously allocated by dma_alloc_attrs
++ * into user space.  The coherent DMA buffer must not be freed by the
++ * driver until the user space mapping has been released.
++ */
++static inline int
++dma_mmap_attrs(struct device *dev, struct vm_area_struct *vma, void *cpu_addr,
++             dma_addr_t dma_addr, size_t size, struct dma_attrs *attrs)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      BUG_ON(!ops);
++      if (ops && ops->mmap)
++              return ops->mmap(dev, vma, cpu_addr, dma_addr, size, attrs);
++      return dma_common_mmap(dev, vma, cpu_addr, dma_addr, size);
++}
++
++#define dma_mmap_coherent(d, v, c, h, s) dma_mmap_attrs(d, v, c, h, s, NULL)
++
++int
++dma_common_get_sgtable(struct device *dev, struct sg_table *sgt,
++                     void *cpu_addr, dma_addr_t dma_addr, size_t size);
++
++static inline int
++dma_get_sgtable_attrs(struct device *dev, struct sg_table *sgt, void *cpu_addr,
++                    dma_addr_t dma_addr, size_t size, struct dma_attrs *attrs)
++{
++      struct dma_map_ops *ops = get_dma_ops(dev);
++      BUG_ON(!ops);
++      if (ops && ops->get_sgtable)
++              return ops->get_sgtable(dev, sgt, cpu_addr, dma_addr, size,
++                                      attrs);
++      return dma_common_get_sgtable(dev, sgt, cpu_addr, dma_addr, size);
++}
++
++#define dma_get_sgtable(d, t, v, h, s) dma_get_sgtable_attrs(d, t, v, h, s, NULL)
++
+ static inline int dma_supported(struct device *dev, u64 mask)
+ {
+       struct dma_map_ops *ops = get_dma_ops(dev);
+-      return ops->dma_supported(dev, mask);
++      if (ops)
++              return ops->dma_supported(dev, mask);
++      return plat_dma_supported(dev, mask);
+ }
+ static inline int dma_mapping_error(struct device *dev, u64 mask)
+@@ -43,7 +378,9 @@ static inline int dma_mapping_error(stru
+       struct dma_map_ops *ops = get_dma_ops(dev);
+       debug_dma_mapping_error(dev, mask);
+-      return ops->mapping_error(dev, mask);
++      if (ops)
++              return ops->mapping_error(dev, mask);
++      return 0;
+ }
+ static inline int
+@@ -54,7 +391,7 @@ dma_set_mask(struct device *dev, u64 mas
+       if(!dev->dma_mask || !dma_supported(dev, mask))
+               return -EIO;
+-      if (ops->set_dma_mask)
++      if (ops && ops->set_dma_mask)
+               return ops->set_dma_mask(dev, mask);
+       *dev->dma_mask = mask;
+@@ -74,7 +411,11 @@ static inline void *dma_alloc_attrs(stru
+       void *ret;
+       struct dma_map_ops *ops = get_dma_ops(dev);
+-      ret = ops->alloc(dev, size, dma_handle, gfp, attrs);
++      if (ops)
++              ret = ops->alloc(dev, size, dma_handle, gfp, attrs);
++      else
++              ret = mips_dma_alloc_coherent(dev, size, dma_handle, gfp,
++                                            attrs);
+       debug_dma_alloc_coherent(dev, size, *dma_handle, ret);
+@@ -89,7 +430,10 @@ static inline void dma_free_attrs(struct
+ {
+       struct dma_map_ops *ops = get_dma_ops(dev);
+-      ops->free(dev, size, vaddr, dma_handle, attrs);
++      if (ops)
++              ops->free(dev, size, vaddr, dma_handle, attrs);
++      else
++              mips_dma_free_coherent(dev, size, vaddr, dma_handle, attrs);
+       debug_dma_free_coherent(dev, size, vaddr, dma_handle);
+ }
+--- a/arch/mips/mm/dma-default.c
++++ b/arch/mips/mm/dma-default.c
+@@ -26,7 +26,7 @@
+ #ifdef CONFIG_DMA_MAYBE_COHERENT
+ int coherentio = 0;   /* User defined DMA coherency from command line. */
+-EXPORT_SYMBOL_GPL(coherentio);
++EXPORT_SYMBOL(coherentio);
+ int hw_coherentio = 0;        /* Actual hardware supported DMA coherency setting. */
+ static int __init setcoherentio(char *str)
+@@ -46,30 +46,6 @@ static int __init setnocoherentio(char *
+ early_param("nocoherentio", setnocoherentio);
+ #endif
+-static inline struct page *dma_addr_to_page(struct device *dev,
+-      dma_addr_t dma_addr)
+-{
+-      return pfn_to_page(
+-              plat_dma_addr_to_phys(dev, dma_addr) >> PAGE_SHIFT);
+-}
+-
+-/*
+- * The affected CPUs below in 'cpu_needs_post_dma_flush()' can
+- * speculatively fill random cachelines with stale data at any time,
+- * requiring an extra flush post-DMA.
+- *
+- * Warning on the terminology - Linux calls an uncached area coherent;
+- * MIPS terminology calls memory areas with hardware maintained coherency
+- * coherent.
+- */
+-static inline int cpu_needs_post_dma_flush(struct device *dev)
+-{
+-      return !plat_device_is_coherent(dev) &&
+-             (boot_cpu_type() == CPU_R10000 ||
+-              boot_cpu_type() == CPU_R12000 ||
+-              boot_cpu_type() == CPU_BMIPS5000);
+-}
+-
+ static gfp_t massage_gfp_flags(const struct device *dev, gfp_t gfp)
+ {
+       gfp_t dma_flag;
+@@ -125,8 +101,9 @@ void *dma_alloc_noncoherent(struct devic
+ }
+ EXPORT_SYMBOL(dma_alloc_noncoherent);
+-static void *mips_dma_alloc_coherent(struct device *dev, size_t size,
+-      dma_addr_t * dma_handle, gfp_t gfp, struct dma_attrs *attrs)
++void *mips_dma_alloc_coherent(struct device *dev, size_t size,
++                            dma_addr_t *dma_handle, gfp_t gfp,
++                            struct dma_attrs *attrs)
+ {
+       void *ret;
+       struct page *page = NULL;
+@@ -157,6 +134,7 @@ static void *mips_dma_alloc_coherent(str
+       return ret;
+ }
++EXPORT_SYMBOL(mips_dma_alloc_coherent);
+ void dma_free_noncoherent(struct device *dev, size_t size, void *vaddr,
+@@ -167,8 +145,8 @@ void dma_free_noncoherent(struct device
+ }
+ EXPORT_SYMBOL(dma_free_noncoherent);
+-static void mips_dma_free_coherent(struct device *dev, size_t size, void *vaddr,
+-      dma_addr_t dma_handle, struct dma_attrs *attrs)
++void mips_dma_free_coherent(struct device *dev, size_t size, void *vaddr,
++                          dma_addr_t dma_handle, struct dma_attrs *attrs)
+ {
+       unsigned long addr = (unsigned long) vaddr;
+       int order = get_order(size);
+@@ -188,6 +166,7 @@ static void mips_dma_free_coherent(struc
+       if (!dma_release_from_contiguous(dev, page, count))
+               __free_pages(page, get_order(size));
+ }
++EXPORT_SYMBOL(mips_dma_free_coherent);
+ static inline void __dma_sync_virtual(void *addr, size_t size,
+       enum dma_data_direction direction)
+@@ -216,8 +195,8 @@ static inline void __dma_sync_virtual(vo
+  * If highmem is not configured then the bulk of this loop gets
+  * optimized out.
+  */
+-static inline void __dma_sync(struct page *page,
+-      unsigned long offset, size_t size, enum dma_data_direction direction)
++void __dma_sync(struct page *page, unsigned long offset, size_t size,
++              enum dma_data_direction direction)
+ {
+       size_t left = size;
+@@ -246,108 +225,7 @@ static inline void __dma_sync(struct pag
+               left -= len;
+       } while (left);
+ }
+-
+-static void mips_dma_unmap_page(struct device *dev, dma_addr_t dma_addr,
+-      size_t size, enum dma_data_direction direction, struct dma_attrs *attrs)
+-{
+-      if (cpu_needs_post_dma_flush(dev))
+-              __dma_sync(dma_addr_to_page(dev, dma_addr),
+-                         dma_addr & ~PAGE_MASK, size, direction);
+-
+-      plat_unmap_dma_mem(dev, dma_addr, size, direction);
+-}
+-
+-static int mips_dma_map_sg(struct device *dev, struct scatterlist *sg,
+-      int nents, enum dma_data_direction direction, struct dma_attrs *attrs)
+-{
+-      int i;
+-
+-      for (i = 0; i < nents; i++, sg++) {
+-              if (!plat_device_is_coherent(dev))
+-                      __dma_sync(sg_page(sg), sg->offset, sg->length,
+-                                 direction);
+-#ifdef CONFIG_NEED_SG_DMA_LENGTH
+-              sg->dma_length = sg->length;
+-#endif
+-              sg->dma_address = plat_map_dma_mem_page(dev, sg_page(sg)) +
+-                                sg->offset;
+-      }
+-
+-      return nents;
+-}
+-
+-static dma_addr_t mips_dma_map_page(struct device *dev, struct page *page,
+-      unsigned long offset, size_t size, enum dma_data_direction direction,
+-      struct dma_attrs *attrs)
+-{
+-      if (!plat_device_is_coherent(dev))
+-              __dma_sync(page, offset, size, direction);
+-
+-      return plat_map_dma_mem_page(dev, page) + offset;
+-}
+-
+-static void mips_dma_unmap_sg(struct device *dev, struct scatterlist *sg,
+-      int nhwentries, enum dma_data_direction direction,
+-      struct dma_attrs *attrs)
+-{
+-      int i;
+-
+-      for (i = 0; i < nhwentries; i++, sg++) {
+-              if (!plat_device_is_coherent(dev) &&
+-                  direction != DMA_TO_DEVICE)
+-                      __dma_sync(sg_page(sg), sg->offset, sg->length,
+-                                 direction);
+-              plat_unmap_dma_mem(dev, sg->dma_address, sg->length, direction);
+-      }
+-}
+-
+-static void mips_dma_sync_single_for_cpu(struct device *dev,
+-      dma_addr_t dma_handle, size_t size, enum dma_data_direction direction)
+-{
+-      if (cpu_needs_post_dma_flush(dev))
+-              __dma_sync(dma_addr_to_page(dev, dma_handle),
+-                         dma_handle & ~PAGE_MASK, size, direction);
+-}
+-
+-static void mips_dma_sync_single_for_device(struct device *dev,
+-      dma_addr_t dma_handle, size_t size, enum dma_data_direction direction)
+-{
+-      if (!plat_device_is_coherent(dev))
+-              __dma_sync(dma_addr_to_page(dev, dma_handle),
+-                         dma_handle & ~PAGE_MASK, size, direction);
+-}
+-
+-static void mips_dma_sync_sg_for_cpu(struct device *dev,
+-      struct scatterlist *sg, int nelems, enum dma_data_direction direction)
+-{
+-      int i;
+-
+-      if (cpu_needs_post_dma_flush(dev))
+-              for (i = 0; i < nelems; i++, sg++)
+-                      __dma_sync(sg_page(sg), sg->offset, sg->length,
+-                                 direction);
+-}
+-
+-static void mips_dma_sync_sg_for_device(struct device *dev,
+-      struct scatterlist *sg, int nelems, enum dma_data_direction direction)
+-{
+-      int i;
+-
+-      if (!plat_device_is_coherent(dev))
+-              for (i = 0; i < nelems; i++, sg++)
+-                      __dma_sync(sg_page(sg), sg->offset, sg->length,
+-                                 direction);
+-}
+-
+-int mips_dma_mapping_error(struct device *dev, dma_addr_t dma_addr)
+-{
+-      return 0;
+-}
+-
+-int mips_dma_supported(struct device *dev, u64 mask)
+-{
+-      return plat_dma_supported(dev, mask);
+-}
++EXPORT_SYMBOL(__dma_sync);
+ void dma_cache_sync(struct device *dev, void *vaddr, size_t size,
+                        enum dma_data_direction direction)
+@@ -360,23 +238,10 @@ void dma_cache_sync(struct device *dev,
+ EXPORT_SYMBOL(dma_cache_sync);
+-static struct dma_map_ops mips_default_dma_map_ops = {
+-      .alloc = mips_dma_alloc_coherent,
+-      .free = mips_dma_free_coherent,
+-      .map_page = mips_dma_map_page,
+-      .unmap_page = mips_dma_unmap_page,
+-      .map_sg = mips_dma_map_sg,
+-      .unmap_sg = mips_dma_unmap_sg,
+-      .sync_single_for_cpu = mips_dma_sync_single_for_cpu,
+-      .sync_single_for_device = mips_dma_sync_single_for_device,
+-      .sync_sg_for_cpu = mips_dma_sync_sg_for_cpu,
+-      .sync_sg_for_device = mips_dma_sync_sg_for_device,
+-      .mapping_error = mips_dma_mapping_error,
+-      .dma_supported = mips_dma_supported
+-};
+-
+-struct dma_map_ops *mips_dma_map_ops = &mips_default_dma_map_ops;
++#ifdef CONFIG_SYS_HAS_DMA_OPS
++struct dma_map_ops *mips_dma_map_ops = NULL;
+ EXPORT_SYMBOL(mips_dma_map_ops);
++#endif
+ #define PREALLOC_DMA_DEBUG_ENTRIES (1 << 16)
diff --git a/trunk/target/linux/generic/patches-3.18/200-fix_localversion.patch b/trunk/target/linux/generic/patches-3.18/200-fix_localversion.patch
new file mode 100644 (file)
index 0000000..70228bb
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/scripts/setlocalversion
++++ b/scripts/setlocalversion
+@@ -165,7 +165,7 @@ else
+       # annotated or signed tagged state (as git describe only
+       # looks at signed or annotated tags - git tag -a/-s) and
+       # LOCALVERSION= is not specified
+-      if test "${LOCALVERSION+set}" != "set"; then
++      if test "${CONFIG_LOCALVERSION+set}" != "set"; then
+               scm=$(scm_version --short)
+               res="$res${scm:++}"
+       fi
diff --git a/trunk/target/linux/generic/patches-3.18/201-extra_optimization.patch b/trunk/target/linux/generic/patches-3.18/201-extra_optimization.patch
new file mode 100644 (file)
index 0000000..7ec93a4
--- /dev/null
@@ -0,0 +1,14 @@
+--- a/Makefile
++++ b/Makefile
+@@ -612,9 +612,9 @@ include $(srctree)/arch/$(SRCARCH)/Makef
+ KBUILD_CFLAGS += $(call cc-option,-fno-delete-null-pointer-checks,)
+ ifdef CONFIG_CC_OPTIMIZE_FOR_SIZE
+-KBUILD_CFLAGS += -Os $(call cc-disable-warning,maybe-uninitialized,)
++KBUILD_CFLAGS += -Os $(EXTRA_OPTIMIZATION) $(call cc-disable-warning,maybe-uninitialized,)
+ else
+-KBUILD_CFLAGS += -O2
++KBUILD_CFLAGS += -O2 -fno-reorder-blocks -fno-tree-ch $(EXTRA_OPTIMIZATION)
+ endif
+ # Tell gcc to never replace conditional load with a non-conditional one
diff --git a/trunk/target/linux/generic/patches-3.18/202-reduce_module_size.patch b/trunk/target/linux/generic/patches-3.18/202-reduce_module_size.patch
new file mode 100644 (file)
index 0000000..b98ea4e
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/Makefile
++++ b/Makefile
+@@ -409,7 +409,7 @@ KBUILD_CFLAGS_KERNEL :=
+ KBUILD_AFLAGS   := -D__ASSEMBLY__
+ KBUILD_AFLAGS_MODULE  := -DMODULE
+ KBUILD_CFLAGS_MODULE  := -DMODULE
+-KBUILD_LDFLAGS_MODULE := -T $(srctree)/scripts/module-common.lds
++KBUILD_LDFLAGS_MODULE = -T $(srctree)/scripts/module-common.lds $(if $(CONFIG_PROFILING),,-s)
+ # Read KERNELRELEASE from include/config/kernel.release (if it exists)
+ KERNELRELEASE = $(shell cat include/config/kernel.release 2> /dev/null)
diff --git a/trunk/target/linux/generic/patches-3.18/203-kallsyms_uncompressed.patch b/trunk/target/linux/generic/patches-3.18/203-kallsyms_uncompressed.patch
new file mode 100644 (file)
index 0000000..b9d8220
--- /dev/null
@@ -0,0 +1,108 @@
+--- a/scripts/kallsyms.c
++++ b/scripts/kallsyms.c
+@@ -58,6 +58,7 @@ static struct addr_range percpu_range =
+ static struct sym_entry *table;
+ static unsigned int table_size, table_cnt;
+ static int all_symbols = 0;
++static int uncompressed = 0;
+ static int absolute_percpu = 0;
+ static char symbol_prefix_char = '\0';
+ static unsigned long long kernel_start_addr = 0;
+@@ -392,6 +393,9 @@ static void write_src(void)
+       free(markers);
++      if (uncompressed)
++              return;
++
+       output_label("kallsyms_token_table");
+       off = 0;
+       for (i = 0; i < 256; i++) {
+@@ -450,6 +454,9 @@ static void *find_token(unsigned char *s
+ {
+       int i;
++      if (uncompressed)
++              return NULL;
++
+       for (i = 0; i < len - 1; i++) {
+               if (str[i] == token[0] && str[i+1] == token[1])
+                       return &str[i];
+@@ -522,6 +529,9 @@ static void optimize_result(void)
+ {
+       int i, best;
++      if (uncompressed)
++              return;
++
+       /* using the '\0' symbol last allows compress_symbols to use standard
+        * fast string functions */
+       for (i = 255; i >= 0; i--) {
+@@ -692,7 +702,9 @@ int main(int argc, char **argv)
+                       } else if (strncmp(argv[i], "--page-offset=", 14) == 0) {
+                               const char *p = &argv[i][14];
+                               kernel_start_addr = strtoull(p, NULL, 16);
+-                      } else
++                      } else if (strcmp(argv[i], "--uncompressed") == 0)
++                              uncompressed = 1;
++                      else
+                               usage();
+               }
+       } else if (argc != 1)
+--- a/init/Kconfig
++++ b/init/Kconfig
+@@ -1338,6 +1338,17 @@ config SYSCTL_ARCH_UNALIGN_ALLOW
+         the unaligned access emulation.
+         see arch/parisc/kernel/unaligned.c for reference
++config KALLSYMS_UNCOMPRESSED
++      bool "Keep kallsyms uncompressed"
++      depends on KALLSYMS
++      help
++              Normally kallsyms contains compressed symbols (using a token table),
++              reducing the uncompressed kernel image size. Keeping the symbol table
++              uncompressed significantly improves the size of this part in compressed
++              kernel images.
++
++              Say N unless you need compressed kernel images to be small.
++
+ config HAVE_PCSPKR_PLATFORM
+       bool
+--- a/scripts/link-vmlinux.sh
++++ b/scripts/link-vmlinux.sh
+@@ -90,6 +90,10 @@ kallsyms()
+               kallsymopt="${kallsymopt} --absolute-percpu"
+       fi
++      if [ -n "${CONFIG_KALLSYMS_UNCOMPRESSED}" ]; then
++              kallsymopt="${kallsymopt} --uncompressed"
++      fi
++
+       local aflags="${KBUILD_AFLAGS} ${KBUILD_AFLAGS_KERNEL}               \
+                     ${NOSTDINC_FLAGS} ${LINUXINCLUDE} ${KBUILD_CPPFLAGS}"
+--- a/kernel/kallsyms.c
++++ b/kernel/kallsyms.c
+@@ -109,6 +109,11 @@ static unsigned int kallsyms_expand_symb
+        * For every byte on the compressed symbol data, copy the table
+        * entry for that byte.
+        */
++#ifdef CONFIG_KALLSYMS_UNCOMPRESSED
++      memcpy(result, data + 1, len - 1);
++      result += len - 1;
++      len = 0;
++#endif
+       while (len) {
+               tptr = &kallsyms_token_table[kallsyms_token_index[*data]];
+               data++;
+@@ -141,6 +146,9 @@ tail:
+  */
+ static char kallsyms_get_symbol_type(unsigned int off)
+ {
++#ifdef CONFIG_KALLSYMS_UNCOMPRESSED
++      return kallsyms_names[off + 1];
++#endif
+       /*
+        * Get just the first code, look it up in the token table,
+        * and return the first char from this token.
diff --git a/trunk/target/linux/generic/patches-3.18/204-module_strip.patch b/trunk/target/linux/generic/patches-3.18/204-module_strip.patch
new file mode 100644 (file)
index 0000000..ed95eaf
--- /dev/null
@@ -0,0 +1,194 @@
+From: Felix Fietkau <nbd@openwrt.org>
+Subject: [PATCH] build: add a hack for removing non-essential module info
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+---
+--- a/include/linux/module.h
++++ b/include/linux/module.h
+@@ -84,9 +84,10 @@ void trim_init_extable(struct module *m)
+ /* Generic info of form tag = "info" */
+ #define MODULE_INFO(tag, info) __MODULE_INFO(tag, tag, info)
++#define MODULE_INFO_STRIP(tag, info) __MODULE_INFO_STRIP(tag, tag, info)
+ /* For userspace: you can also call me... */
+-#define MODULE_ALIAS(_alias) MODULE_INFO(alias, _alias)
++#define MODULE_ALIAS(_alias) MODULE_INFO_STRIP(alias, _alias)
+ /* Soft module dependencies. See man modprobe.d for details.
+  * Example: MODULE_SOFTDEP("pre: module-foo module-bar post: module-baz")
+@@ -127,12 +128,12 @@ void trim_init_extable(struct module *m)
+  * Author(s), use "Name <email>" or just "Name", for multiple
+  * authors use multiple MODULE_AUTHOR() statements/lines.
+  */
+-#define MODULE_AUTHOR(_author) MODULE_INFO(author, _author)
++#define MODULE_AUTHOR(_author) MODULE_INFO_STRIP(author, _author)
+ /* What your module does. */
+-#define MODULE_DESCRIPTION(_description) MODULE_INFO(description, _description)
++#define MODULE_DESCRIPTION(_description) MODULE_INFO_STRIP(description, _description)
+-#ifdef MODULE
++#if defined(MODULE) && !defined(CONFIG_MODULE_STRIPPED)
+ /* Creates an alias so file2alias.c can find device table. */
+ #define MODULE_DEVICE_TABLE(type, name)                                       \
+   extern const struct type##_device_id __mod_##type##__##name##_device_table \
+@@ -159,7 +160,9 @@ void trim_init_extable(struct module *m)
+  */
+ #if defined(MODULE) || !defined(CONFIG_SYSFS)
+-#define MODULE_VERSION(_version) MODULE_INFO(version, _version)
++#define MODULE_VERSION(_version) MODULE_INFO_STRIP(version, _version)
++#elif defined(CONFIG_MODULE_STRIPPED)
++#define MODULE_VERSION(_version) __MODULE_INFO_DISABLED(version)
+ #else
+ #define MODULE_VERSION(_version)                                      \
+       static struct module_version_attribute ___modver_attr = {       \
+@@ -181,7 +184,7 @@ void trim_init_extable(struct module *m)
+ /* Optional firmware file (or files) needed by the module
+  * format is simply firmware file name.  Multiple firmware
+  * files require multiple MODULE_FIRMWARE() specifiers */
+-#define MODULE_FIRMWARE(_firmware) MODULE_INFO(firmware, _firmware)
++#define MODULE_FIRMWARE(_firmware) MODULE_INFO_STRIP(firmware, _firmware)
+ /* Given an address, look for it in the exception tables */
+ const struct exception_table_entry *search_exception_tables(unsigned long add);
+--- a/include/linux/moduleparam.h
++++ b/include/linux/moduleparam.h
+@@ -16,6 +16,16 @@
+ /* Chosen so that structs with an unsigned long line up. */
+ #define MAX_PARAM_PREFIX_LEN (64 - sizeof(unsigned long))
++/* This struct is here for syntactic coherency, it is not used */
++#define __MODULE_INFO_DISABLED(name)                                    \
++  struct __UNIQUE_ID(name) {}
++
++#ifdef CONFIG_MODULE_STRIPPED
++#define __MODULE_INFO_STRIP(tag, name, info) __MODULE_INFO_DISABLED(name)
++#else
++#define __MODULE_INFO_STRIP(tag, name, info) __MODULE_INFO(tag, name, info)
++#endif
++
+ #ifdef MODULE
+ #define __MODULE_INFO(tag, name, info)                                          \
+ static const char __UNIQUE_ID(name)[]                                   \
+@@ -23,8 +33,7 @@ static const char __UNIQUE_ID(name)[]
+   = __stringify(tag) "=" info
+ #else  /* !MODULE */
+ /* This struct is here for syntactic coherency, it is not used */
+-#define __MODULE_INFO(tag, name, info)                                          \
+-  struct __UNIQUE_ID(name) {}
++#define __MODULE_INFO(tag, name, info) __MODULE_INFO_DISABLED(name)
+ #endif
+ #define __MODULE_PARM_TYPE(name, _type)                                         \
+   __MODULE_INFO(parmtype, name##type, #name ":" _type)
+@@ -32,7 +41,7 @@ static const char __UNIQUE_ID(name)[]
+ /* One for each parameter, describing how to use it.  Some files do
+    multiple of these per line, so can't just use MODULE_INFO. */
+ #define MODULE_PARM_DESC(_parm, desc) \
+-      __MODULE_INFO(parm, _parm, #_parm ":" desc)
++      __MODULE_INFO_STRIP(parm, _parm, #_parm ":" desc)
+ struct kernel_param;
+--- a/init/Kconfig
++++ b/init/Kconfig
+@@ -1987,6 +1987,13 @@ config MODULE_COMPRESS_XZ
+ endchoice
++config MODULE_STRIPPED
++      bool "Reduce module size"
++      depends on MODULES
++      help
++        Remove module parameter descriptions, author info, version, aliases,
++        device tables, etc.
++
+ endif # MODULES
+ config INIT_ALL_POSSIBLE
+--- a/kernel/module.c
++++ b/kernel/module.c
+@@ -2665,6 +2665,7 @@ static struct module *setup_load_info(st
+ static int check_modinfo(struct module *mod, struct load_info *info, int flags)
+ {
++#ifndef CONFIG_MODULE_STRIPPED
+       const char *modmagic = get_modinfo(info, "vermagic");
+       int err;
+@@ -2690,6 +2691,7 @@ static int check_modinfo(struct module *
+               pr_warn("%s: module is from the staging directory, the quality "
+                       "is unknown, you have been warned.\n", mod->name);
+       }
++#endif
+       /* Set up license info based on the info section */
+       set_license(mod, get_modinfo(info, "license"));
+--- a/scripts/mod/modpost.c
++++ b/scripts/mod/modpost.c
+@@ -1726,7 +1726,9 @@ static void read_symbols(char *modname)
+               symname = remove_dot(info.strtab + sym->st_name);
+               handle_modversions(mod, &info, sym, symname);
++#ifndef CONFIG_MODULE_STRIPPED
+               handle_moddevtable(mod, &info, sym, symname);
++#endif
+       }
+       if (!is_vmlinux(modname) ||
+            (is_vmlinux(modname) && vmlinux_section_warnings))
+@@ -1870,7 +1872,9 @@ static void add_header(struct buffer *b,
+       buf_printf(b, "#include <linux/vermagic.h>\n");
+       buf_printf(b, "#include <linux/compiler.h>\n");
+       buf_printf(b, "\n");
++#ifndef CONFIG_MODULE_STRIPPED
+       buf_printf(b, "MODULE_INFO(vermagic, VERMAGIC_STRING);\n");
++#endif
+       buf_printf(b, "\n");
+       buf_printf(b, "__visible struct module __this_module\n");
+       buf_printf(b, "__attribute__((section(\".gnu.linkonce.this_module\"))) = {\n");
+@@ -1887,16 +1891,20 @@ static void add_header(struct buffer *b,
+ static void add_intree_flag(struct buffer *b, int is_intree)
+ {
++#ifndef CONFIG_MODULE_STRIPPED
+       if (is_intree)
+               buf_printf(b, "\nMODULE_INFO(intree, \"Y\");\n");
++#endif
+ }
+ static void add_staging_flag(struct buffer *b, const char *name)
+ {
++#ifndef CONFIG_MODULE_STRIPPED
+       static const char *staging_dir = "drivers/staging";
+       if (strncmp(staging_dir, name, strlen(staging_dir)) == 0)
+               buf_printf(b, "\nMODULE_INFO(staging, \"Y\");\n");
++#endif
+ }
+ /**
+@@ -1989,11 +1997,13 @@ static void add_depends(struct buffer *b
+ static void add_srcversion(struct buffer *b, struct module *mod)
+ {
++#ifndef CONFIG_MODULE_STRIPPED
+       if (mod->srcversion[0]) {
+               buf_printf(b, "\n");
+               buf_printf(b, "MODULE_INFO(srcversion, \"%s\");\n",
+                          mod->srcversion);
+       }
++#endif
+ }
+ static void write_if_changed(struct buffer *b, const char *fname)
+@@ -2224,7 +2234,9 @@ int main(int argc, char **argv)
+               add_staging_flag(&buf, mod->name);
+               err |= add_versions(&buf, mod);
+               add_depends(&buf, mod, modules);
++#ifndef CONFIG_MODULE_STRIPPED
+               add_moddevtable(&buf, mod);
++#endif
+               add_srcversion(&buf, mod);
+               sprintf(fname, "%s.mod.c", mod->name);
diff --git a/trunk/target/linux/generic/patches-3.18/210-darwin_scripts_include.patch b/trunk/target/linux/generic/patches-3.18/210-darwin_scripts_include.patch
new file mode 100644 (file)
index 0000000..dc554de
--- /dev/null
@@ -0,0 +1,3088 @@
+--- a/scripts/kallsyms.c
++++ b/scripts/kallsyms.c
+@@ -22,6 +22,35 @@
+ #include <stdlib.h>
+ #include <string.h>
+ #include <ctype.h>
++#ifdef __APPLE__
++/* Darwin has no memmem implementation, this one is ripped of the uClibc-0.9.28 source */
++void *memmem (const void *haystack, size_t haystack_len,
++                          const void *needle,  size_t needle_len)
++{
++  const char *begin;
++  const char *const last_possible
++    = (const char *) haystack + haystack_len - needle_len;
++
++  if (needle_len == 0)
++    /* The first occurrence of the empty string is deemed to occur at
++       the beginning of the string.  */
++    return (void *) haystack;
++
++  /* Sanity check, otherwise the loop might search through the whole
++     memory.  */
++  if (__builtin_expect (haystack_len < needle_len, 0))
++    return NULL;
++
++  for (begin = (const char *) haystack; begin <= last_possible; ++begin)
++    if (begin[0] == ((const char *) needle)[0] &&
++        !memcmp ((const void *) &begin[1],
++                 (const void *) ((const char *) needle + 1),
++                 needle_len - 1))
++      return (void *) begin;
++
++  return NULL;
++}
++#endif
+ #ifndef ARRAY_SIZE
+ #define ARRAY_SIZE(arr) (sizeof(arr) / sizeof(arr[0]))
+--- a/scripts/kconfig/Makefile
++++ b/scripts/kconfig/Makefile
+@@ -151,6 +151,9 @@ check-lxdialog  := $(srctree)/$(src)/lxd
+ # we really need to do so. (Do not call gcc as part of make mrproper)
+ HOST_EXTRACFLAGS += $(shell $(CONFIG_SHELL) $(check-lxdialog) -ccflags) \
+                     -DLOCALE
++ifeq ($(shell uname -s),Darwin)
++HOST_LOADLIBES  += -lncurses
++endif
+ # ===========================================================================
+ # Shared Makefile for the various kconfig executables:
+--- a/scripts/mod/mk_elfconfig.c
++++ b/scripts/mod/mk_elfconfig.c
+@@ -1,7 +1,11 @@
+ #include <stdio.h>
+ #include <stdlib.h>
+ #include <string.h>
++#ifndef __APPLE__
+ #include <elf.h>
++#else
++#include "elf.h"
++#endif
+ int
+ main(int argc, char **argv)
+--- a/scripts/mod/modpost.h
++++ b/scripts/mod/modpost.h
+@@ -7,7 +7,11 @@
+ #include <sys/mman.h>
+ #include <fcntl.h>
+ #include <unistd.h>
++#if !(defined(__APPLE__) || defined(__CYGWIN__))
+ #include <elf.h>
++#else
++#include "elf.h"
++#endif
+ #include "elfconfig.h"
+--- /dev/null
++++ b/scripts/mod/elf.h
+@@ -0,0 +1,3007 @@
++/* This file defines standard ELF types, structures, and macros.
++   Copyright (C) 1995-2012 Free Software Foundation, Inc.
++   This file is part of the GNU C Library.
++
++   The GNU C Library is free software; you can redistribute it and/or
++   modify it under the terms of the GNU Lesser General Public
++   License as published by the Free Software Foundation; either
++   version 2.1 of the License, or (at your option) any later version.
++
++   The GNU C Library is distributed in the hope that it will be useful,
++   but WITHOUT ANY WARRANTY; without even the implied warranty of
++   MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
++   Lesser General Public License for more details.
++
++   You should have received a copy of the GNU Lesser General Public
++   License along with the GNU C Library; if not, see
++   <http://www.gnu.org/licenses/>.  */
++
++#ifndef _ELF_H
++#define       _ELF_H 1
++
++/* Standard ELF types.  */
++
++#include <stdint.h>
++
++/* Type for a 16-bit quantity.  */
++typedef uint16_t Elf32_Half;
++typedef uint16_t Elf64_Half;
++
++/* Types for signed and unsigned 32-bit quantities.  */
++typedef uint32_t Elf32_Word;
++typedef       int32_t  Elf32_Sword;
++typedef uint32_t Elf64_Word;
++typedef       int32_t  Elf64_Sword;
++
++/* Types for signed and unsigned 64-bit quantities.  */
++typedef uint64_t Elf32_Xword;
++typedef       int64_t  Elf32_Sxword;
++typedef uint64_t Elf64_Xword;
++typedef       int64_t  Elf64_Sxword;
++
++/* Type of addresses.  */
++typedef uint32_t Elf32_Addr;
++typedef uint64_t Elf64_Addr;
++
++/* Type of file offsets.  */
++typedef uint32_t Elf32_Off;
++typedef uint64_t Elf64_Off;
++
++/* Type for section indices, which are 16-bit quantities.  */
++typedef uint16_t Elf32_Section;
++typedef uint16_t Elf64_Section;
++
++/* Type for version symbol information.  */
++typedef Elf32_Half Elf32_Versym;
++typedef Elf64_Half Elf64_Versym;
++
++
++/* The ELF file header.  This appears at the start of every ELF file.  */
++
++#define EI_NIDENT (16)
++
++typedef struct
++{
++  unsigned char       e_ident[EI_NIDENT];     /* Magic number and other info */
++  Elf32_Half  e_type;                 /* Object file type */
++  Elf32_Half  e_machine;              /* Architecture */
++  Elf32_Word  e_version;              /* Object file version */
++  Elf32_Addr  e_entry;                /* Entry point virtual address */
++  Elf32_Off   e_phoff;                /* Program header table file offset */
++  Elf32_Off   e_shoff;                /* Section header table file offset */
++  Elf32_Word  e_flags;                /* Processor-specific flags */
++  Elf32_Half  e_ehsize;               /* ELF header size in bytes */
++  Elf32_Half  e_phentsize;            /* Program header table entry size */
++  Elf32_Half  e_phnum;                /* Program header table entry count */
++  Elf32_Half  e_shentsize;            /* Section header table entry size */
++  Elf32_Half  e_shnum;                /* Section header table entry count */
++  Elf32_Half  e_shstrndx;             /* Section header string table index */
++} Elf32_Ehdr;
++
++typedef struct
++{
++  unsigned char       e_ident[EI_NIDENT];     /* Magic number and other info */
++  Elf64_Half  e_type;                 /* Object file type */
++  Elf64_Half  e_machine;              /* Architecture */
++  Elf64_Word  e_version;              /* Object file version */
++  Elf64_Addr  e_entry;                /* Entry point virtual address */
++  Elf64_Off   e_phoff;                /* Program header table file offset */
++  Elf64_Off   e_shoff;                /* Section header table file offset */
++  Elf64_Word  e_flags;                /* Processor-specific flags */
++  Elf64_Half  e_ehsize;               /* ELF header size in bytes */
++  Elf64_Half  e_phentsize;            /* Program header table entry size */
++  Elf64_Half  e_phnum;                /* Program header table entry count */
++  Elf64_Half  e_shentsize;            /* Section header table entry size */
++  Elf64_Half  e_shnum;                /* Section header table entry count */
++  Elf64_Half  e_shstrndx;             /* Section header string table index */
++} Elf64_Ehdr;
++
++/* Fields in the e_ident array.  The EI_* macros are indices into the
++   array.  The macros under each EI_* macro are the values the byte
++   may have.  */
++
++#define EI_MAG0               0               /* File identification byte 0 index */
++#define ELFMAG0               0x7f            /* Magic number byte 0 */
++
++#define EI_MAG1               1               /* File identification byte 1 index */
++#define ELFMAG1               'E'             /* Magic number byte 1 */
++
++#define EI_MAG2               2               /* File identification byte 2 index */
++#define ELFMAG2               'L'             /* Magic number byte 2 */
++
++#define EI_MAG3               3               /* File identification byte 3 index */
++#define ELFMAG3               'F'             /* Magic number byte 3 */
++
++/* Conglomeration of the identification bytes, for easy testing as a word.  */
++#define       ELFMAG          "\177ELF"
++#define       SELFMAG         4
++
++#define EI_CLASS      4               /* File class byte index */
++#define ELFCLASSNONE  0               /* Invalid class */
++#define ELFCLASS32    1               /* 32-bit objects */
++#define ELFCLASS64    2               /* 64-bit objects */
++#define ELFCLASSNUM   3
++
++#define EI_DATA               5               /* Data encoding byte index */
++#define ELFDATANONE   0               /* Invalid data encoding */
++#define ELFDATA2LSB   1               /* 2's complement, little endian */
++#define ELFDATA2MSB   2               /* 2's complement, big endian */
++#define ELFDATANUM    3
++
++#define EI_VERSION    6               /* File version byte index */
++                                      /* Value must be EV_CURRENT */
++
++#define EI_OSABI      7               /* OS ABI identification */
++#define ELFOSABI_NONE         0       /* UNIX System V ABI */
++#define ELFOSABI_SYSV         0       /* Alias.  */
++#define ELFOSABI_HPUX         1       /* HP-UX */
++#define ELFOSABI_NETBSD               2       /* NetBSD.  */
++#define ELFOSABI_GNU          3       /* Object uses GNU ELF extensions.  */
++#define ELFOSABI_LINUX                ELFOSABI_GNU /* Compatibility alias.  */
++#define ELFOSABI_SOLARIS      6       /* Sun Solaris.  */
++#define ELFOSABI_AIX          7       /* IBM AIX.  */
++#define ELFOSABI_IRIX         8       /* SGI Irix.  */
++#define ELFOSABI_FREEBSD      9       /* FreeBSD.  */
++#define ELFOSABI_TRU64                10      /* Compaq TRU64 UNIX.  */
++#define ELFOSABI_MODESTO      11      /* Novell Modesto.  */
++#define ELFOSABI_OPENBSD      12      /* OpenBSD.  */
++#define ELFOSABI_ARM_AEABI    64      /* ARM EABI */
++#define ELFOSABI_ARM          97      /* ARM */
++#define ELFOSABI_STANDALONE   255     /* Standalone (embedded) application */
++
++#define EI_ABIVERSION 8               /* ABI version */
++
++#define EI_PAD                9               /* Byte index of padding bytes */
++
++/* Legal values for e_type (object file type).  */
++
++#define ET_NONE               0               /* No file type */
++#define ET_REL                1               /* Relocatable file */
++#define ET_EXEC               2               /* Executable file */
++#define ET_DYN                3               /* Shared object file */
++#define ET_CORE               4               /* Core file */
++#define       ET_NUM          5               /* Number of defined types */
++#define ET_LOOS               0xfe00          /* OS-specific range start */
++#define ET_HIOS               0xfeff          /* OS-specific range end */
++#define ET_LOPROC     0xff00          /* Processor-specific range start */
++#define ET_HIPROC     0xffff          /* Processor-specific range end */
++
++/* Legal values for e_machine (architecture).  */
++
++#define EM_NONE                0              /* No machine */
++#define EM_M32                 1              /* AT&T WE 32100 */
++#define EM_SPARC       2              /* SUN SPARC */
++#define EM_386                 3              /* Intel 80386 */
++#define EM_68K                 4              /* Motorola m68k family */
++#define EM_88K                 5              /* Motorola m88k family */
++#define EM_860                 7              /* Intel 80860 */
++#define EM_MIPS                8              /* MIPS R3000 big-endian */
++#define EM_S370                9              /* IBM System/370 */
++#define EM_MIPS_RS3_LE        10              /* MIPS R3000 little-endian */
++
++#define EM_PARISC     15              /* HPPA */
++#define EM_VPP500     17              /* Fujitsu VPP500 */
++#define EM_SPARC32PLUS        18              /* Sun's "v8plus" */
++#define EM_960                19              /* Intel 80960 */
++#define EM_PPC                20              /* PowerPC */
++#define EM_PPC64      21              /* PowerPC 64-bit */
++#define EM_S390               22              /* IBM S390 */
++
++#define EM_V800               36              /* NEC V800 series */
++#define EM_FR20               37              /* Fujitsu FR20 */
++#define EM_RH32               38              /* TRW RH-32 */
++#define EM_RCE                39              /* Motorola RCE */
++#define EM_ARM                40              /* ARM */
++#define EM_FAKE_ALPHA 41              /* Digital Alpha */
++#define EM_SH         42              /* Hitachi SH */
++#define EM_SPARCV9    43              /* SPARC v9 64-bit */
++#define EM_TRICORE    44              /* Siemens Tricore */
++#define EM_ARC                45              /* Argonaut RISC Core */
++#define EM_H8_300     46              /* Hitachi H8/300 */
++#define EM_H8_300H    47              /* Hitachi H8/300H */
++#define EM_H8S                48              /* Hitachi H8S */
++#define EM_H8_500     49              /* Hitachi H8/500 */
++#define EM_IA_64      50              /* Intel Merced */
++#define EM_MIPS_X     51              /* Stanford MIPS-X */
++#define EM_COLDFIRE   52              /* Motorola Coldfire */
++#define EM_68HC12     53              /* Motorola M68HC12 */
++#define EM_MMA                54              /* Fujitsu MMA Multimedia Accelerator*/
++#define EM_PCP                55              /* Siemens PCP */
++#define EM_NCPU               56              /* Sony nCPU embeeded RISC */
++#define EM_NDR1               57              /* Denso NDR1 microprocessor */
++#define EM_STARCORE   58              /* Motorola Start*Core processor */
++#define EM_ME16               59              /* Toyota ME16 processor */
++#define EM_ST100      60              /* STMicroelectronic ST100 processor */
++#define EM_TINYJ      61              /* Advanced Logic Corp. Tinyj emb.fam*/
++#define EM_X86_64     62              /* AMD x86-64 architecture */
++#define EM_PDSP               63              /* Sony DSP Processor */
++
++#define EM_FX66               66              /* Siemens FX66 microcontroller */
++#define EM_ST9PLUS    67              /* STMicroelectronics ST9+ 8/16 mc */
++#define EM_ST7                68              /* STmicroelectronics ST7 8 bit mc */
++#define EM_68HC16     69              /* Motorola MC68HC16 microcontroller */
++#define EM_68HC11     70              /* Motorola MC68HC11 microcontroller */
++#define EM_68HC08     71              /* Motorola MC68HC08 microcontroller */
++#define EM_68HC05     72              /* Motorola MC68HC05 microcontroller */
++#define EM_SVX                73              /* Silicon Graphics SVx */
++#define EM_ST19               74              /* STMicroelectronics ST19 8 bit mc */
++#define EM_VAX                75              /* Digital VAX */
++#define EM_CRIS               76              /* Axis Communications 32-bit embedded processor */
++#define EM_JAVELIN    77              /* Infineon Technologies 32-bit embedded processor */
++#define EM_FIREPATH   78              /* Element 14 64-bit DSP Processor */
++#define EM_ZSP                79              /* LSI Logic 16-bit DSP Processor */
++#define EM_MMIX               80              /* Donald Knuth's educational 64-bit processor */
++#define EM_HUANY      81              /* Harvard University machine-independent object files */
++#define EM_PRISM      82              /* SiTera Prism */
++#define EM_AVR                83              /* Atmel AVR 8-bit microcontroller */
++#define EM_FR30               84              /* Fujitsu FR30 */
++#define EM_D10V               85              /* Mitsubishi D10V */
++#define EM_D30V               86              /* Mitsubishi D30V */
++#define EM_V850               87              /* NEC v850 */
++#define EM_M32R               88              /* Mitsubishi M32R */
++#define EM_MN10300    89              /* Matsushita MN10300 */
++#define EM_MN10200    90              /* Matsushita MN10200 */
++#define EM_PJ         91              /* picoJava */
++#define EM_OPENRISC   92              /* OpenRISC 32-bit embedded processor */
++#define EM_ARC_A5     93              /* ARC Cores Tangent-A5 */
++#define EM_XTENSA     94              /* Tensilica Xtensa Architecture */
++#define EM_TILEPRO    188             /* Tilera TILEPro */
++#define EM_TILEGX     191             /* Tilera TILE-Gx */
++#define EM_NUM                192
++
++/* If it is necessary to assign new unofficial EM_* values, please
++   pick large random numbers (0x8523, 0xa7f2, etc.) to minimize the
++   chances of collision with official or non-GNU unofficial values.  */
++
++#define EM_ALPHA      0x9026
++
++/* Legal values for e_version (version).  */
++
++#define EV_NONE               0               /* Invalid ELF version */
++#define EV_CURRENT    1               /* Current version */
++#define EV_NUM                2
++
++/* Section header.  */
++
++typedef struct
++{
++  Elf32_Word  sh_name;                /* Section name (string tbl index) */
++  Elf32_Word  sh_type;                /* Section type */
++  Elf32_Word  sh_flags;               /* Section flags */
++  Elf32_Addr  sh_addr;                /* Section virtual addr at execution */
++  Elf32_Off   sh_offset;              /* Section file offset */
++  Elf32_Word  sh_size;                /* Section size in bytes */
++  Elf32_Word  sh_link;                /* Link to another section */
++  Elf32_Word  sh_info;                /* Additional section information */
++  Elf32_Word  sh_addralign;           /* Section alignment */
++  Elf32_Word  sh_entsize;             /* Entry size if section holds table */
++} Elf32_Shdr;
++
++typedef struct
++{
++  Elf64_Word  sh_name;                /* Section name (string tbl index) */
++  Elf64_Word  sh_type;                /* Section type */
++  Elf64_Xword sh_flags;               /* Section flags */
++  Elf64_Addr  sh_addr;                /* Section virtual addr at execution */
++  Elf64_Off   sh_offset;              /* Section file offset */
++  Elf64_Xword sh_size;                /* Section size in bytes */
++  Elf64_Word  sh_link;                /* Link to another section */
++  Elf64_Word  sh_info;                /* Additional section information */
++  Elf64_Xword sh_addralign;           /* Section alignment */
++  Elf64_Xword sh_entsize;             /* Entry size if section holds table */
++} Elf64_Shdr;
++
++/* Special section indices.  */
++
++#define SHN_UNDEF     0               /* Undefined section */
++#define SHN_LORESERVE 0xff00          /* Start of reserved indices */
++#define SHN_LOPROC    0xff00          /* Start of processor-specific */
++#define SHN_BEFORE    0xff00          /* Order section before all others
++                                         (Solaris).  */
++#define SHN_AFTER     0xff01          /* Order section after all others
++                                         (Solaris).  */
++#define SHN_HIPROC    0xff1f          /* End of processor-specific */
++#define SHN_LOOS      0xff20          /* Start of OS-specific */
++#define SHN_HIOS      0xff3f          /* End of OS-specific */
++#define SHN_ABS               0xfff1          /* Associated symbol is absolute */
++#define SHN_COMMON    0xfff2          /* Associated symbol is common */
++#define SHN_XINDEX    0xffff          /* Index is in extra table.  */
++#define SHN_HIRESERVE 0xffff          /* End of reserved indices */
++
++/* Legal values for sh_type (section type).  */
++
++#define SHT_NULL        0             /* Section header table entry unused */
++#define SHT_PROGBITS    1             /* Program data */
++#define SHT_SYMTAB      2             /* Symbol table */
++#define SHT_STRTAB      3             /* String table */
++#define SHT_RELA        4             /* Relocation entries with addends */
++#define SHT_HASH        5             /* Symbol hash table */
++#define SHT_DYNAMIC     6             /* Dynamic linking information */
++#define SHT_NOTE        7             /* Notes */
++#define SHT_NOBITS      8             /* Program space with no data (bss) */
++#define SHT_REL                 9             /* Relocation entries, no addends */
++#define SHT_SHLIB       10            /* Reserved */
++#define SHT_DYNSYM      11            /* Dynamic linker symbol table */
++#define SHT_INIT_ARRAY          14            /* Array of constructors */
++#define SHT_FINI_ARRAY          15            /* Array of destructors */
++#define SHT_PREINIT_ARRAY 16          /* Array of pre-constructors */
++#define SHT_GROUP       17            /* Section group */
++#define SHT_SYMTAB_SHNDX  18          /* Extended section indeces */
++#define       SHT_NUM           19            /* Number of defined types.  */
++#define SHT_LOOS        0x60000000    /* Start OS-specific.  */
++#define SHT_GNU_ATTRIBUTES 0x6ffffff5 /* Object attributes.  */
++#define SHT_GNU_HASH    0x6ffffff6    /* GNU-style hash table.  */
++#define SHT_GNU_LIBLIST         0x6ffffff7    /* Prelink library list */
++#define SHT_CHECKSUM    0x6ffffff8    /* Checksum for DSO content.  */
++#define SHT_LOSUNW      0x6ffffffa    /* Sun-specific low bound.  */
++#define SHT_SUNW_move   0x6ffffffa
++#define SHT_SUNW_COMDAT   0x6ffffffb
++#define SHT_SUNW_syminfo  0x6ffffffc
++#define SHT_GNU_verdef          0x6ffffffd    /* Version definition section.  */
++#define SHT_GNU_verneed         0x6ffffffe    /* Version needs section.  */
++#define SHT_GNU_versym          0x6fffffff    /* Version symbol table.  */
++#define SHT_HISUNW      0x6fffffff    /* Sun-specific high bound.  */
++#define SHT_HIOS        0x6fffffff    /* End OS-specific type */
++#define SHT_LOPROC      0x70000000    /* Start of processor-specific */
++#define SHT_HIPROC      0x7fffffff    /* End of processor-specific */
++#define SHT_LOUSER      0x80000000    /* Start of application-specific */
++#define SHT_HIUSER      0x8fffffff    /* End of application-specific */
++
++/* Legal values for sh_flags (section flags).  */
++
++#define SHF_WRITE          (1 << 0)   /* Writable */
++#define SHF_ALLOC          (1 << 1)   /* Occupies memory during execution */
++#define SHF_EXECINSTR      (1 << 2)   /* Executable */
++#define SHF_MERGE          (1 << 4)   /* Might be merged */
++#define SHF_STRINGS        (1 << 5)   /* Contains nul-terminated strings */
++#define SHF_INFO_LINK      (1 << 6)   /* `sh_info' contains SHT index */
++#define SHF_LINK_ORDER             (1 << 7)   /* Preserve order after combining */
++#define SHF_OS_NONCONFORMING (1 << 8) /* Non-standard OS specific handling
++                                         required */
++#define SHF_GROUP          (1 << 9)   /* Section is member of a group.  */
++#define SHF_TLS                    (1 << 10)  /* Section hold thread-local data.  */
++#define SHF_MASKOS         0x0ff00000 /* OS-specific.  */
++#define SHF_MASKPROC       0xf0000000 /* Processor-specific */
++#define SHF_ORDERED        (1 << 30)  /* Special ordering requirement
++                                         (Solaris).  */
++#define SHF_EXCLUDE        (1 << 31)  /* Section is excluded unless
++                                         referenced or allocated (Solaris).*/
++
++/* Section group handling.  */
++#define GRP_COMDAT    0x1             /* Mark group as COMDAT.  */
++
++/* Symbol table entry.  */
++
++typedef struct
++{
++  Elf32_Word  st_name;                /* Symbol name (string tbl index) */
++  Elf32_Addr  st_value;               /* Symbol value */
++  Elf32_Word  st_size;                /* Symbol size */
++  unsigned char       st_info;                /* Symbol type and binding */
++  unsigned char       st_other;               /* Symbol visibility */
++  Elf32_Section       st_shndx;               /* Section index */
++} Elf32_Sym;
++
++typedef struct
++{
++  Elf64_Word  st_name;                /* Symbol name (string tbl index) */
++  unsigned char       st_info;                /* Symbol type and binding */
++  unsigned char st_other;             /* Symbol visibility */
++  Elf64_Section       st_shndx;               /* Section index */
++  Elf64_Addr  st_value;               /* Symbol value */
++  Elf64_Xword st_size;                /* Symbol size */
++} Elf64_Sym;
++
++/* The syminfo section if available contains additional information about
++   every dynamic symbol.  */
++
++typedef struct
++{
++  Elf32_Half si_boundto;              /* Direct bindings, symbol bound to */
++  Elf32_Half si_flags;                        /* Per symbol flags */
++} Elf32_Syminfo;
++
++typedef struct
++{
++  Elf64_Half si_boundto;              /* Direct bindings, symbol bound to */
++  Elf64_Half si_flags;                        /* Per symbol flags */
++} Elf64_Syminfo;
++
++/* Possible values for si_boundto.  */
++#define SYMINFO_BT_SELF               0xffff  /* Symbol bound to self */
++#define SYMINFO_BT_PARENT     0xfffe  /* Symbol bound to parent */
++#define SYMINFO_BT_LOWRESERVE 0xff00  /* Beginning of reserved entries */
++
++/* Possible bitmasks for si_flags.  */
++#define SYMINFO_FLG_DIRECT    0x0001  /* Direct bound symbol */
++#define SYMINFO_FLG_PASSTHRU  0x0002  /* Pass-thru symbol for translator */
++#define SYMINFO_FLG_COPY      0x0004  /* Symbol is a copy-reloc */
++#define SYMINFO_FLG_LAZYLOAD  0x0008  /* Symbol bound to object to be lazy
++                                         loaded */
++/* Syminfo version values.  */
++#define SYMINFO_NONE          0
++#define SYMINFO_CURRENT               1
++#define SYMINFO_NUM           2
++
++
++/* How to extract and insert information held in the st_info field.  */
++
++#define ELF32_ST_BIND(val)            (((unsigned char) (val)) >> 4)
++#define ELF32_ST_TYPE(val)            ((val) & 0xf)
++#define ELF32_ST_INFO(bind, type)     (((bind) << 4) + ((type) & 0xf))
++
++/* Both Elf32_Sym and Elf64_Sym use the same one-byte st_info field.  */
++#define ELF64_ST_BIND(val)            ELF32_ST_BIND (val)
++#define ELF64_ST_TYPE(val)            ELF32_ST_TYPE (val)
++#define ELF64_ST_INFO(bind, type)     ELF32_ST_INFO ((bind), (type))
++
++/* Legal values for ST_BIND subfield of st_info (symbol binding).  */
++
++#define STB_LOCAL     0               /* Local symbol */
++#define STB_GLOBAL    1               /* Global symbol */
++#define STB_WEAK      2               /* Weak symbol */
++#define       STB_NUM         3               /* Number of defined types.  */
++#define STB_LOOS      10              /* Start of OS-specific */
++#define STB_GNU_UNIQUE        10              /* Unique symbol.  */
++#define STB_HIOS      12              /* End of OS-specific */
++#define STB_LOPROC    13              /* Start of processor-specific */
++#define STB_HIPROC    15              /* End of processor-specific */
++
++/* Legal values for ST_TYPE subfield of st_info (symbol type).  */
++
++#define STT_NOTYPE    0               /* Symbol type is unspecified */
++#define STT_OBJECT    1               /* Symbol is a data object */
++#define STT_FUNC      2               /* Symbol is a code object */
++#define STT_SECTION   3               /* Symbol associated with a section */
++#define STT_FILE      4               /* Symbol's name is file name */
++#define STT_COMMON    5               /* Symbol is a common data object */
++#define STT_TLS               6               /* Symbol is thread-local data object*/
++#define       STT_NUM         7               /* Number of defined types.  */
++#define STT_LOOS      10              /* Start of OS-specific */
++#define STT_GNU_IFUNC 10              /* Symbol is indirect code object */
++#define STT_HIOS      12              /* End of OS-specific */
++#define STT_LOPROC    13              /* Start of processor-specific */
++#define STT_HIPROC    15              /* End of processor-specific */
++
++
++/* Symbol table indices are found in the hash buckets and chain table
++   of a symbol hash table section.  This special index value indicates
++   the end of a chain, meaning no further symbols are found in that bucket.  */
++
++#define STN_UNDEF     0               /* End of a chain.  */
++
++
++/* How to extract and insert information held in the st_other field.  */
++
++#define ELF32_ST_VISIBILITY(o)        ((o) & 0x03)
++
++/* For ELF64 the definitions are the same.  */
++#define ELF64_ST_VISIBILITY(o)        ELF32_ST_VISIBILITY (o)
++
++/* Symbol visibility specification encoded in the st_other field.  */
++#define STV_DEFAULT   0               /* Default symbol visibility rules */
++#define STV_INTERNAL  1               /* Processor specific hidden class */
++#define STV_HIDDEN    2               /* Sym unavailable in other modules */
++#define STV_PROTECTED 3               /* Not preemptible, not exported */
++
++
++/* Relocation table entry without addend (in section of type SHT_REL).  */
++
++typedef struct
++{
++  Elf32_Addr  r_offset;               /* Address */
++  Elf32_Word  r_info;                 /* Relocation type and symbol index */
++} Elf32_Rel;
++
++/* I have seen two different definitions of the Elf64_Rel and
++   Elf64_Rela structures, so we'll leave them out until Novell (or
++   whoever) gets their act together.  */
++/* The following, at least, is used on Sparc v9, MIPS, and Alpha.  */
++
++typedef struct
++{
++  Elf64_Addr  r_offset;               /* Address */
++  Elf64_Xword r_info;                 /* Relocation type and symbol index */
++} Elf64_Rel;
++
++/* Relocation table entry with addend (in section of type SHT_RELA).  */
++
++typedef struct
++{
++  Elf32_Addr  r_offset;               /* Address */
++  Elf32_Word  r_info;                 /* Relocation type and symbol index */
++  Elf32_Sword r_addend;               /* Addend */
++} Elf32_Rela;
++
++typedef struct
++{
++  Elf64_Addr  r_offset;               /* Address */
++  Elf64_Xword r_info;                 /* Relocation type and symbol index */
++  Elf64_Sxword        r_addend;               /* Addend */
++} Elf64_Rela;
++
++/* How to extract and insert information held in the r_info field.  */
++
++#define ELF32_R_SYM(val)              ((val) >> 8)
++#define ELF32_R_TYPE(val)             ((val) & 0xff)
++#define ELF32_R_INFO(sym, type)               (((sym) << 8) + ((type) & 0xff))
++
++#define ELF64_R_SYM(i)                        ((i) >> 32)
++#define ELF64_R_TYPE(i)                       ((i) & 0xffffffff)
++#define ELF64_R_INFO(sym,type)                ((((Elf64_Xword) (sym)) << 32) + (type))
++
++/* Program segment header.  */
++
++typedef struct
++{
++  Elf32_Word  p_type;                 /* Segment type */
++  Elf32_Off   p_offset;               /* Segment file offset */
++  Elf32_Addr  p_vaddr;                /* Segment virtual address */
++  Elf32_Addr  p_paddr;                /* Segment physical address */
++  Elf32_Word  p_filesz;               /* Segment size in file */
++  Elf32_Word  p_memsz;                /* Segment size in memory */
++  Elf32_Word  p_flags;                /* Segment flags */
++  Elf32_Word  p_align;                /* Segment alignment */
++} Elf32_Phdr;
++
++typedef struct
++{
++  Elf64_Word  p_type;                 /* Segment type */
++  Elf64_Word  p_flags;                /* Segment flags */
++  Elf64_Off   p_offset;               /* Segment file offset */
++  Elf64_Addr  p_vaddr;                /* Segment virtual address */
++  Elf64_Addr  p_paddr;                /* Segment physical address */
++  Elf64_Xword p_filesz;               /* Segment size in file */
++  Elf64_Xword p_memsz;                /* Segment size in memory */
++  Elf64_Xword p_align;                /* Segment alignment */
++} Elf64_Phdr;
++
++/* Special value for e_phnum.  This indicates that the real number of
++   program headers is too large to fit into e_phnum.  Instead the real
++   value is in the field sh_info of section 0.  */
++
++#define PN_XNUM               0xffff
++
++/* Legal values for p_type (segment type).  */
++
++#define       PT_NULL         0               /* Program header table entry unused */
++#define PT_LOAD               1               /* Loadable program segment */
++#define PT_DYNAMIC    2               /* Dynamic linking information */
++#define PT_INTERP     3               /* Program interpreter */
++#define PT_NOTE               4               /* Auxiliary information */
++#define PT_SHLIB      5               /* Reserved */
++#define PT_PHDR               6               /* Entry for header table itself */
++#define PT_TLS                7               /* Thread-local storage segment */
++#define       PT_NUM          8               /* Number of defined types */
++#define PT_LOOS               0x60000000      /* Start of OS-specific */
++#define PT_GNU_EH_FRAME       0x6474e550      /* GCC .eh_frame_hdr segment */
++#define PT_GNU_STACK  0x6474e551      /* Indicates stack executability */
++#define PT_GNU_RELRO  0x6474e552      /* Read-only after relocation */
++#define PT_LOSUNW     0x6ffffffa
++#define PT_SUNWBSS    0x6ffffffa      /* Sun Specific segment */
++#define PT_SUNWSTACK  0x6ffffffb      /* Stack segment */
++#define PT_HISUNW     0x6fffffff
++#define PT_HIOS               0x6fffffff      /* End of OS-specific */
++#define PT_LOPROC     0x70000000      /* Start of processor-specific */
++#define PT_HIPROC     0x7fffffff      /* End of processor-specific */
++
++/* Legal values for p_flags (segment flags).  */
++
++#define PF_X          (1 << 0)        /* Segment is executable */
++#define PF_W          (1 << 1)        /* Segment is writable */
++#define PF_R          (1 << 2)        /* Segment is readable */
++#define PF_MASKOS     0x0ff00000      /* OS-specific */
++#define PF_MASKPROC   0xf0000000      /* Processor-specific */
++
++/* Legal values for note segment descriptor types for core files. */
++
++#define NT_PRSTATUS   1               /* Contains copy of prstatus struct */
++#define NT_FPREGSET   2               /* Contains copy of fpregset struct */
++#define NT_PRPSINFO   3               /* Contains copy of prpsinfo struct */
++#define NT_PRXREG     4               /* Contains copy of prxregset struct */
++#define NT_TASKSTRUCT 4               /* Contains copy of task structure */
++#define NT_PLATFORM   5               /* String from sysinfo(SI_PLATFORM) */
++#define NT_AUXV               6               /* Contains copy of auxv array */
++#define NT_GWINDOWS   7               /* Contains copy of gwindows struct */
++#define NT_ASRS               8               /* Contains copy of asrset struct */
++#define NT_PSTATUS    10              /* Contains copy of pstatus struct */
++#define NT_PSINFO     13              /* Contains copy of psinfo struct */
++#define NT_PRCRED     14              /* Contains copy of prcred struct */
++#define NT_UTSNAME    15              /* Contains copy of utsname struct */
++#define NT_LWPSTATUS  16              /* Contains copy of lwpstatus struct */
++#define NT_LWPSINFO   17              /* Contains copy of lwpinfo struct */
++#define NT_PRFPXREG   20              /* Contains copy of fprxregset struct */
++#define NT_PRXFPREG   0x46e62b7f      /* Contains copy of user_fxsr_struct */
++#define NT_PPC_VMX    0x100           /* PowerPC Altivec/VMX registers */
++#define NT_PPC_SPE    0x101           /* PowerPC SPE/EVR registers */
++#define NT_PPC_VSX    0x102           /* PowerPC VSX registers */
++#define NT_386_TLS    0x200           /* i386 TLS slots (struct user_desc) */
++#define NT_386_IOPERM 0x201           /* x86 io permission bitmap (1=deny) */
++#define NT_X86_XSTATE 0x202           /* x86 extended state using xsave */
++
++/* Legal values for the note segment descriptor types for object files.  */
++
++#define NT_VERSION    1               /* Contains a version string.  */
++
++
++/* Dynamic section entry.  */
++
++typedef struct
++{
++  Elf32_Sword d_tag;                  /* Dynamic entry type */
++  union
++    {
++      Elf32_Word d_val;                       /* Integer value */
++      Elf32_Addr d_ptr;                       /* Address value */
++    } d_un;
++} Elf32_Dyn;
++
++typedef struct
++{
++  Elf64_Sxword        d_tag;                  /* Dynamic entry type */
++  union
++    {
++      Elf64_Xword d_val;              /* Integer value */
++      Elf64_Addr d_ptr;                       /* Address value */
++    } d_un;
++} Elf64_Dyn;
++
++/* Legal values for d_tag (dynamic entry type).  */
++
++#define DT_NULL               0               /* Marks end of dynamic section */
++#define DT_NEEDED     1               /* Name of needed library */
++#define DT_PLTRELSZ   2               /* Size in bytes of PLT relocs */
++#define DT_PLTGOT     3               /* Processor defined value */
++#define DT_HASH               4               /* Address of symbol hash table */
++#define DT_STRTAB     5               /* Address of string table */
++#define DT_SYMTAB     6               /* Address of symbol table */
++#define DT_RELA               7               /* Address of Rela relocs */
++#define DT_RELASZ     8               /* Total size of Rela relocs */
++#define DT_RELAENT    9               /* Size of one Rela reloc */
++#define DT_STRSZ      10              /* Size of string table */
++#define DT_SYMENT     11              /* Size of one symbol table entry */
++#define DT_INIT               12              /* Address of init function */
++#define DT_FINI               13              /* Address of termination function */
++#define DT_SONAME     14              /* Name of shared object */
++#define DT_RPATH      15              /* Library search path (deprecated) */
++#define DT_SYMBOLIC   16              /* Start symbol search here */
++#define DT_REL                17              /* Address of Rel relocs */
++#define DT_RELSZ      18              /* Total size of Rel relocs */
++#define DT_RELENT     19              /* Size of one Rel reloc */
++#define DT_PLTREL     20              /* Type of reloc in PLT */
++#define DT_DEBUG      21              /* For debugging; unspecified */
++#define DT_TEXTREL    22              /* Reloc might modify .text */
++#define DT_JMPREL     23              /* Address of PLT relocs */
++#define       DT_BIND_NOW     24              /* Process relocations of object */
++#define       DT_INIT_ARRAY   25              /* Array with addresses of init fct */
++#define       DT_FINI_ARRAY   26              /* Array with addresses of fini fct */
++#define       DT_INIT_ARRAYSZ 27              /* Size in bytes of DT_INIT_ARRAY */
++#define       DT_FINI_ARRAYSZ 28              /* Size in bytes of DT_FINI_ARRAY */
++#define DT_RUNPATH    29              /* Library search path */
++#define DT_FLAGS      30              /* Flags for the object being loaded */
++#define DT_ENCODING   32              /* Start of encoded range */
++#define DT_PREINIT_ARRAY 32           /* Array with addresses of preinit fct*/
++#define DT_PREINIT_ARRAYSZ 33         /* size in bytes of DT_PREINIT_ARRAY */
++#define       DT_NUM          34              /* Number used */
++#define DT_LOOS               0x6000000d      /* Start of OS-specific */
++#define DT_HIOS               0x6ffff000      /* End of OS-specific */
++#define DT_LOPROC     0x70000000      /* Start of processor-specific */
++#define DT_HIPROC     0x7fffffff      /* End of processor-specific */
++#define       DT_PROCNUM      DT_MIPS_NUM     /* Most used by any processor */
++
++/* DT_* entries which fall between DT_VALRNGHI & DT_VALRNGLO use the
++   Dyn.d_un.d_val field of the Elf*_Dyn structure.  This follows Sun's
++   approach.  */
++#define DT_VALRNGLO   0x6ffffd00
++#define DT_GNU_PRELINKED 0x6ffffdf5   /* Prelinking timestamp */
++#define DT_GNU_CONFLICTSZ 0x6ffffdf6  /* Size of conflict section */
++#define DT_GNU_LIBLISTSZ 0x6ffffdf7   /* Size of library list */
++#define DT_CHECKSUM   0x6ffffdf8
++#define DT_PLTPADSZ   0x6ffffdf9
++#define DT_MOVEENT    0x6ffffdfa
++#define DT_MOVESZ     0x6ffffdfb
++#define DT_FEATURE_1  0x6ffffdfc      /* Feature selection (DTF_*).  */
++#define DT_POSFLAG_1  0x6ffffdfd      /* Flags for DT_* entries, effecting
++                                         the following DT_* entry.  */
++#define DT_SYMINSZ    0x6ffffdfe      /* Size of syminfo table (in bytes) */
++#define DT_SYMINENT   0x6ffffdff      /* Entry size of syminfo */
++#define DT_VALRNGHI   0x6ffffdff
++#define DT_VALTAGIDX(tag)     (DT_VALRNGHI - (tag))   /* Reverse order! */
++#define DT_VALNUM 12
++
++/* DT_* entries which fall between DT_ADDRRNGHI & DT_ADDRRNGLO use the
++   Dyn.d_un.d_ptr field of the Elf*_Dyn structure.
++
++   If any adjustment is made to the ELF object after it has been
++   built these entries will need to be adjusted.  */
++#define DT_ADDRRNGLO  0x6ffffe00
++#define DT_GNU_HASH   0x6ffffef5      /* GNU-style hash table.  */
++#define DT_TLSDESC_PLT        0x6ffffef6
++#define DT_TLSDESC_GOT        0x6ffffef7
++#define DT_GNU_CONFLICT       0x6ffffef8      /* Start of conflict section */
++#define DT_GNU_LIBLIST        0x6ffffef9      /* Library list */
++#define DT_CONFIG     0x6ffffefa      /* Configuration information.  */
++#define DT_DEPAUDIT   0x6ffffefb      /* Dependency auditing.  */
++#define DT_AUDIT      0x6ffffefc      /* Object auditing.  */
++#define       DT_PLTPAD       0x6ffffefd      /* PLT padding.  */
++#define       DT_MOVETAB      0x6ffffefe      /* Move table.  */
++#define DT_SYMINFO    0x6ffffeff      /* Syminfo table.  */
++#define DT_ADDRRNGHI  0x6ffffeff
++#define DT_ADDRTAGIDX(tag)    (DT_ADDRRNGHI - (tag))  /* Reverse order! */
++#define DT_ADDRNUM 11
++
++/* The versioning entry types.  The next are defined as part of the
++   GNU extension.  */
++#define DT_VERSYM     0x6ffffff0
++
++#define DT_RELACOUNT  0x6ffffff9
++#define DT_RELCOUNT   0x6ffffffa
++
++/* These were chosen by Sun.  */
++#define DT_FLAGS_1    0x6ffffffb      /* State flags, see DF_1_* below.  */
++#define       DT_VERDEF       0x6ffffffc      /* Address of version definition
++                                         table */
++#define       DT_VERDEFNUM    0x6ffffffd      /* Number of version definitions */
++#define       DT_VERNEED      0x6ffffffe      /* Address of table with needed
++                                         versions */
++#define       DT_VERNEEDNUM   0x6fffffff      /* Number of needed versions */
++#define DT_VERSIONTAGIDX(tag) (DT_VERNEEDNUM - (tag)) /* Reverse order! */
++#define DT_VERSIONTAGNUM 16
++
++/* Sun added these machine-independent extensions in the "processor-specific"
++   range.  Be compatible.  */
++#define DT_AUXILIARY    0x7ffffffd      /* Shared object to load before self */
++#define DT_FILTER       0x7fffffff      /* Shared object to get values from */
++#define DT_EXTRATAGIDX(tag)   ((Elf32_Word)-((Elf32_Sword) (tag) <<1>>1)-1)
++#define DT_EXTRANUM   3
++
++/* Values of `d_un.d_val' in the DT_FLAGS entry.  */
++#define DF_ORIGIN     0x00000001      /* Object may use DF_ORIGIN */
++#define DF_SYMBOLIC   0x00000002      /* Symbol resolutions starts here */
++#define DF_TEXTREL    0x00000004      /* Object contains text relocations */
++#define DF_BIND_NOW   0x00000008      /* No lazy binding for this object */
++#define DF_STATIC_TLS 0x00000010      /* Module uses the static TLS model */
++
++/* State flags selectable in the `d_un.d_val' element of the DT_FLAGS_1
++   entry in the dynamic section.  */
++#define DF_1_NOW      0x00000001      /* Set RTLD_NOW for this object.  */
++#define DF_1_GLOBAL   0x00000002      /* Set RTLD_GLOBAL for this object.  */
++#define DF_1_GROUP    0x00000004      /* Set RTLD_GROUP for this object.  */
++#define DF_1_NODELETE 0x00000008      /* Set RTLD_NODELETE for this object.*/
++#define DF_1_LOADFLTR 0x00000010      /* Trigger filtee loading at runtime.*/
++#define DF_1_INITFIRST        0x00000020      /* Set RTLD_INITFIRST for this object*/
++#define DF_1_NOOPEN   0x00000040      /* Set RTLD_NOOPEN for this object.  */
++#define DF_1_ORIGIN   0x00000080      /* $ORIGIN must be handled.  */
++#define DF_1_DIRECT   0x00000100      /* Direct binding enabled.  */
++#define DF_1_TRANS    0x00000200
++#define DF_1_INTERPOSE        0x00000400      /* Object is used to interpose.  */
++#define DF_1_NODEFLIB 0x00000800      /* Ignore default lib search path.  */
++#define DF_1_NODUMP   0x00001000      /* Object can't be dldump'ed.  */
++#define DF_1_CONFALT  0x00002000      /* Configuration alternative created.*/
++#define DF_1_ENDFILTEE        0x00004000      /* Filtee terminates filters search. */
++#define       DF_1_DISPRELDNE 0x00008000      /* Disp reloc applied at build time. */
++#define       DF_1_DISPRELPND 0x00010000      /* Disp reloc applied at run-time.  */
++
++/* Flags for the feature selection in DT_FEATURE_1.  */
++#define DTF_1_PARINIT 0x00000001
++#define DTF_1_CONFEXP 0x00000002
++
++/* Flags in the DT_POSFLAG_1 entry effecting only the next DT_* entry.  */
++#define DF_P1_LAZYLOAD        0x00000001      /* Lazyload following object.  */
++#define DF_P1_GROUPPERM       0x00000002      /* Symbols from next object are not
++                                         generally available.  */
++
++/* Version definition sections.  */
++
++typedef struct
++{
++  Elf32_Half  vd_version;             /* Version revision */
++  Elf32_Half  vd_flags;               /* Version information */
++  Elf32_Half  vd_ndx;                 /* Version Index */
++  Elf32_Half  vd_cnt;                 /* Number of associated aux entries */
++  Elf32_Word  vd_hash;                /* Version name hash value */
++  Elf32_Word  vd_aux;                 /* Offset in bytes to verdaux array */
++  Elf32_Word  vd_next;                /* Offset in bytes to next verdef
++                                         entry */
++} Elf32_Verdef;
++
++typedef struct
++{
++  Elf64_Half  vd_version;             /* Version revision */
++  Elf64_Half  vd_flags;               /* Version information */
++  Elf64_Half  vd_ndx;                 /* Version Index */
++  Elf64_Half  vd_cnt;                 /* Number of associated aux entries */
++  Elf64_Word  vd_hash;                /* Version name hash value */
++  Elf64_Word  vd_aux;                 /* Offset in bytes to verdaux array */
++  Elf64_Word  vd_next;                /* Offset in bytes to next verdef
++                                         entry */
++} Elf64_Verdef;
++
++
++/* Legal values for vd_version (version revision).  */
++#define VER_DEF_NONE  0               /* No version */
++#define VER_DEF_CURRENT       1               /* Current version */
++#define VER_DEF_NUM   2               /* Given version number */
++
++/* Legal values for vd_flags (version information flags).  */
++#define VER_FLG_BASE  0x1             /* Version definition of file itself */
++#define VER_FLG_WEAK  0x2             /* Weak version identifier */
++
++/* Versym symbol index values.  */
++#define       VER_NDX_LOCAL           0       /* Symbol is local.  */
++#define       VER_NDX_GLOBAL          1       /* Symbol is global.  */
++#define       VER_NDX_LORESERVE       0xff00  /* Beginning of reserved entries.  */
++#define       VER_NDX_ELIMINATE       0xff01  /* Symbol is to be eliminated.  */
++
++/* Auxialiary version information.  */
++
++typedef struct
++{
++  Elf32_Word  vda_name;               /* Version or dependency names */
++  Elf32_Word  vda_next;               /* Offset in bytes to next verdaux
++                                         entry */
++} Elf32_Verdaux;
++
++typedef struct
++{
++  Elf64_Word  vda_name;               /* Version or dependency names */
++  Elf64_Word  vda_next;               /* Offset in bytes to next verdaux
++                                         entry */
++} Elf64_Verdaux;
++
++
++/* Version dependency section.  */
++
++typedef struct
++{
++  Elf32_Half  vn_version;             /* Version of structure */
++  Elf32_Half  vn_cnt;                 /* Number of associated aux entries */
++  Elf32_Word  vn_file;                /* Offset of filename for this
++                                         dependency */
++  Elf32_Word  vn_aux;                 /* Offset in bytes to vernaux array */
++  Elf32_Word  vn_next;                /* Offset in bytes to next verneed
++                                         entry */
++} Elf32_Verneed;
++
++typedef struct
++{
++  Elf64_Half  vn_version;             /* Version of structure */
++  Elf64_Half  vn_cnt;                 /* Number of associated aux entries */
++  Elf64_Word  vn_file;                /* Offset of filename for this
++                                         dependency */
++  Elf64_Word  vn_aux;                 /* Offset in bytes to vernaux array */
++  Elf64_Word  vn_next;                /* Offset in bytes to next verneed
++                                         entry */
++} Elf64_Verneed;
++
++
++/* Legal values for vn_version (version revision).  */
++#define VER_NEED_NONE  0              /* No version */
++#define VER_NEED_CURRENT 1            /* Current version */
++#define VER_NEED_NUM   2              /* Given version number */
++
++/* Auxiliary needed version information.  */
++
++typedef struct
++{
++  Elf32_Word  vna_hash;               /* Hash value of dependency name */
++  Elf32_Half  vna_flags;              /* Dependency specific information */
++  Elf32_Half  vna_other;              /* Unused */
++  Elf32_Word  vna_name;               /* Dependency name string offset */
++  Elf32_Word  vna_next;               /* Offset in bytes to next vernaux
++                                         entry */
++} Elf32_Vernaux;
++
++typedef struct
++{
++  Elf64_Word  vna_hash;               /* Hash value of dependency name */
++  Elf64_Half  vna_flags;              /* Dependency specific information */
++  Elf64_Half  vna_other;              /* Unused */
++  Elf64_Word  vna_name;               /* Dependency name string offset */
++  Elf64_Word  vna_next;               /* Offset in bytes to next vernaux
++                                         entry */
++} Elf64_Vernaux;
++
++
++/* Legal values for vna_flags.  */
++#define VER_FLG_WEAK  0x2             /* Weak version identifier */
++
++
++/* Auxiliary vector.  */
++
++/* This vector is normally only used by the program interpreter.  The
++   usual definition in an ABI supplement uses the name auxv_t.  The
++   vector is not usually defined in a standard <elf.h> file, but it
++   can't hurt.  We rename it to avoid conflicts.  The sizes of these
++   types are an arrangement between the exec server and the program
++   interpreter, so we don't fully specify them here.  */
++
++typedef struct
++{
++  uint32_t a_type;            /* Entry type */
++  union
++    {
++      uint32_t a_val;         /* Integer value */
++      /* We use to have pointer elements added here.  We cannot do that,
++       though, since it does not work when using 32-bit definitions
++       on 64-bit platforms and vice versa.  */
++    } a_un;
++} Elf32_auxv_t;
++
++typedef struct
++{
++  uint64_t a_type;            /* Entry type */
++  union
++    {
++      uint64_t a_val;         /* Integer value */
++      /* We use to have pointer elements added here.  We cannot do that,
++       though, since it does not work when using 32-bit definitions
++       on 64-bit platforms and vice versa.  */
++    } a_un;
++} Elf64_auxv_t;
++
++/* Legal values for a_type (entry type).  */
++
++#define AT_NULL               0               /* End of vector */
++#define AT_IGNORE     1               /* Entry should be ignored */
++#define AT_EXECFD     2               /* File descriptor of program */
++#define AT_PHDR               3               /* Program headers for program */
++#define AT_PHENT      4               /* Size of program header entry */
++#define AT_PHNUM      5               /* Number of program headers */
++#define AT_PAGESZ     6               /* System page size */
++#define AT_BASE               7               /* Base address of interpreter */
++#define AT_FLAGS      8               /* Flags */
++#define AT_ENTRY      9               /* Entry point of program */
++#define AT_NOTELF     10              /* Program is not ELF */
++#define AT_UID                11              /* Real uid */
++#define AT_EUID               12              /* Effective uid */
++#define AT_GID                13              /* Real gid */
++#define AT_EGID               14              /* Effective gid */
++#define AT_CLKTCK     17              /* Frequency of times() */
++
++/* Some more special a_type values describing the hardware.  */
++#define AT_PLATFORM   15              /* String identifying platform.  */
++#define AT_HWCAP      16              /* Machine dependent hints about
++                                         processor capabilities.  */
++
++/* This entry gives some information about the FPU initialization
++   performed by the kernel.  */
++#define AT_FPUCW      18              /* Used FPU control word.  */
++
++/* Cache block sizes.  */
++#define AT_DCACHEBSIZE        19              /* Data cache block size.  */
++#define AT_ICACHEBSIZE        20              /* Instruction cache block size.  */
++#define AT_UCACHEBSIZE        21              /* Unified cache block size.  */
++
++/* A special ignored value for PPC, used by the kernel to control the
++   interpretation of the AUXV. Must be > 16.  */
++#define AT_IGNOREPPC  22              /* Entry should be ignored.  */
++
++#define       AT_SECURE       23              /* Boolean, was exec setuid-like?  */
++
++#define AT_BASE_PLATFORM 24           /* String identifying real platforms.*/
++
++#define AT_RANDOM     25              /* Address of 16 random bytes.  */
++
++#define AT_EXECFN     31              /* Filename of executable.  */
++
++/* Pointer to the global system page used for system calls and other
++   nice things.  */
++#define AT_SYSINFO    32
++#define AT_SYSINFO_EHDR       33
++
++/* Shapes of the caches.  Bits 0-3 contains associativity; bits 4-7 contains
++   log2 of line size; mask those to get cache size.  */
++#define AT_L1I_CACHESHAPE     34
++#define AT_L1D_CACHESHAPE     35
++#define AT_L2_CACHESHAPE      36
++#define AT_L3_CACHESHAPE      37
++
++/* Note section contents.  Each entry in the note section begins with
++   a header of a fixed form.  */
++
++typedef struct
++{
++  Elf32_Word n_namesz;                        /* Length of the note's name.  */
++  Elf32_Word n_descsz;                        /* Length of the note's descriptor.  */
++  Elf32_Word n_type;                  /* Type of the note.  */
++} Elf32_Nhdr;
++
++typedef struct
++{
++  Elf64_Word n_namesz;                        /* Length of the note's name.  */
++  Elf64_Word n_descsz;                        /* Length of the note's descriptor.  */
++  Elf64_Word n_type;                  /* Type of the note.  */
++} Elf64_Nhdr;
++
++/* Known names of notes.  */
++
++/* Solaris entries in the note section have this name.  */
++#define ELF_NOTE_SOLARIS      "SUNW Solaris"
++
++/* Note entries for GNU systems have this name.  */
++#define ELF_NOTE_GNU          "GNU"
++
++
++/* Defined types of notes for Solaris.  */
++
++/* Value of descriptor (one word) is desired pagesize for the binary.  */
++#define ELF_NOTE_PAGESIZE_HINT        1
++
++
++/* Defined note types for GNU systems.  */
++
++/* ABI information.  The descriptor consists of words:
++   word 0: OS descriptor
++   word 1: major version of the ABI
++   word 2: minor version of the ABI
++   word 3: subminor version of the ABI
++*/
++#define NT_GNU_ABI_TAG        1
++#define ELF_NOTE_ABI  NT_GNU_ABI_TAG /* Old name.  */
++
++/* Known OSes.  These values can appear in word 0 of an
++   NT_GNU_ABI_TAG note section entry.  */
++#define ELF_NOTE_OS_LINUX     0
++#define ELF_NOTE_OS_GNU               1
++#define ELF_NOTE_OS_SOLARIS2  2
++#define ELF_NOTE_OS_FREEBSD   3
++
++/* Synthetic hwcap information.  The descriptor begins with two words:
++   word 0: number of entries
++   word 1: bitmask of enabled entries
++   Then follow variable-length entries, one byte followed by a
++   '\0'-terminated hwcap name string.  The byte gives the bit
++   number to test if enabled, (1U << bit) & bitmask.  */
++#define NT_GNU_HWCAP  2
++
++/* Build ID bits as generated by ld --build-id.
++   The descriptor consists of any nonzero number of bytes.  */
++#define NT_GNU_BUILD_ID       3
++
++/* Version note generated by GNU gold containing a version string.  */
++#define NT_GNU_GOLD_VERSION   4
++
++
++/* Move records.  */
++typedef struct
++{
++  Elf32_Xword m_value;                /* Symbol value.  */
++  Elf32_Word m_info;          /* Size and index.  */
++  Elf32_Word m_poffset;               /* Symbol offset.  */
++  Elf32_Half m_repeat;                /* Repeat count.  */
++  Elf32_Half m_stride;                /* Stride info.  */
++} Elf32_Move;
++
++typedef struct
++{
++  Elf64_Xword m_value;                /* Symbol value.  */
++  Elf64_Xword m_info;         /* Size and index.  */
++  Elf64_Xword m_poffset;      /* Symbol offset.  */
++  Elf64_Half m_repeat;                /* Repeat count.  */
++  Elf64_Half m_stride;                /* Stride info.  */
++} Elf64_Move;
++
++/* Macro to construct move records.  */
++#define ELF32_M_SYM(info)     ((info) >> 8)
++#define ELF32_M_SIZE(info)    ((unsigned char) (info))
++#define ELF32_M_INFO(sym, size)       (((sym) << 8) + (unsigned char) (size))
++
++#define ELF64_M_SYM(info)     ELF32_M_SYM (info)
++#define ELF64_M_SIZE(info)    ELF32_M_SIZE (info)
++#define ELF64_M_INFO(sym, size)       ELF32_M_INFO (sym, size)
++
++
++/* Motorola 68k specific definitions.  */
++
++/* Values for Elf32_Ehdr.e_flags.  */
++#define EF_CPU32      0x00810000
++
++/* m68k relocs.  */
++
++#define R_68K_NONE    0               /* No reloc */
++#define R_68K_32      1               /* Direct 32 bit  */
++#define R_68K_16      2               /* Direct 16 bit  */
++#define R_68K_8               3               /* Direct 8 bit  */
++#define R_68K_PC32    4               /* PC relative 32 bit */
++#define R_68K_PC16    5               /* PC relative 16 bit */
++#define R_68K_PC8     6               /* PC relative 8 bit */
++#define R_68K_GOT32   7               /* 32 bit PC relative GOT entry */
++#define R_68K_GOT16   8               /* 16 bit PC relative GOT entry */
++#define R_68K_GOT8    9               /* 8 bit PC relative GOT entry */
++#define R_68K_GOT32O  10              /* 32 bit GOT offset */
++#define R_68K_GOT16O  11              /* 16 bit GOT offset */
++#define R_68K_GOT8O   12              /* 8 bit GOT offset */
++#define R_68K_PLT32   13              /* 32 bit PC relative PLT address */
++#define R_68K_PLT16   14              /* 16 bit PC relative PLT address */
++#define R_68K_PLT8    15              /* 8 bit PC relative PLT address */
++#define R_68K_PLT32O  16              /* 32 bit PLT offset */
++#define R_68K_PLT16O  17              /* 16 bit PLT offset */
++#define R_68K_PLT8O   18              /* 8 bit PLT offset */
++#define R_68K_COPY    19              /* Copy symbol at runtime */
++#define R_68K_GLOB_DAT        20              /* Create GOT entry */
++#define R_68K_JMP_SLOT        21              /* Create PLT entry */
++#define R_68K_RELATIVE        22              /* Adjust by program base */
++#define R_68K_TLS_GD32      25          /* 32 bit GOT offset for GD */
++#define R_68K_TLS_GD16      26          /* 16 bit GOT offset for GD */
++#define R_68K_TLS_GD8       27          /* 8 bit GOT offset for GD */
++#define R_68K_TLS_LDM32     28          /* 32 bit GOT offset for LDM */
++#define R_68K_TLS_LDM16     29          /* 16 bit GOT offset for LDM */
++#define R_68K_TLS_LDM8      30          /* 8 bit GOT offset for LDM */
++#define R_68K_TLS_LDO32     31          /* 32 bit module-relative offset */
++#define R_68K_TLS_LDO16     32          /* 16 bit module-relative offset */
++#define R_68K_TLS_LDO8      33          /* 8 bit module-relative offset */
++#define R_68K_TLS_IE32      34          /* 32 bit GOT offset for IE */
++#define R_68K_TLS_IE16      35          /* 16 bit GOT offset for IE */
++#define R_68K_TLS_IE8       36          /* 8 bit GOT offset for IE */
++#define R_68K_TLS_LE32      37          /* 32 bit offset relative to
++                                         static TLS block */
++#define R_68K_TLS_LE16      38          /* 16 bit offset relative to
++                                         static TLS block */
++#define R_68K_TLS_LE8       39          /* 8 bit offset relative to
++                                         static TLS block */
++#define R_68K_TLS_DTPMOD32  40          /* 32 bit module number */
++#define R_68K_TLS_DTPREL32  41          /* 32 bit module-relative offset */
++#define R_68K_TLS_TPREL32   42          /* 32 bit TP-relative offset */
++/* Keep this the last entry.  */
++#define R_68K_NUM     43
++
++/* Intel 80386 specific definitions.  */
++
++/* i386 relocs.  */
++
++#define R_386_NONE       0            /* No reloc */
++#define R_386_32         1            /* Direct 32 bit  */
++#define R_386_PC32       2            /* PC relative 32 bit */
++#define R_386_GOT32      3            /* 32 bit GOT entry */
++#define R_386_PLT32      4            /* 32 bit PLT address */
++#define R_386_COPY       5            /* Copy symbol at runtime */
++#define R_386_GLOB_DAT           6            /* Create GOT entry */
++#define R_386_JMP_SLOT           7            /* Create PLT entry */
++#define R_386_RELATIVE           8            /* Adjust by program base */
++#define R_386_GOTOFF     9            /* 32 bit offset to GOT */
++#define R_386_GOTPC      10           /* 32 bit PC relative offset to GOT */
++#define R_386_32PLT      11
++#define R_386_TLS_TPOFF          14           /* Offset in static TLS block */
++#define R_386_TLS_IE     15           /* Address of GOT entry for static TLS
++                                         block offset */
++#define R_386_TLS_GOTIE          16           /* GOT entry for static TLS block
++                                         offset */
++#define R_386_TLS_LE     17           /* Offset relative to static TLS
++                                         block */
++#define R_386_TLS_GD     18           /* Direct 32 bit for GNU version of
++                                         general dynamic thread local data */
++#define R_386_TLS_LDM    19           /* Direct 32 bit for GNU version of
++                                         local dynamic thread local data
++                                         in LE code */
++#define R_386_16         20
++#define R_386_PC16       21
++#define R_386_8                  22
++#define R_386_PC8        23
++#define R_386_TLS_GD_32          24           /* Direct 32 bit for general dynamic
++                                         thread local data */
++#define R_386_TLS_GD_PUSH  25         /* Tag for pushl in GD TLS code */
++#define R_386_TLS_GD_CALL  26         /* Relocation for call to
++                                         __tls_get_addr() */
++#define R_386_TLS_GD_POP   27         /* Tag for popl in GD TLS code */
++#define R_386_TLS_LDM_32   28         /* Direct 32 bit for local dynamic
++                                         thread local data in LE code */
++#define R_386_TLS_LDM_PUSH 29         /* Tag for pushl in LDM TLS code */
++#define R_386_TLS_LDM_CALL 30         /* Relocation for call to
++                                         __tls_get_addr() in LDM code */
++#define R_386_TLS_LDM_POP  31         /* Tag for popl in LDM TLS code */
++#define R_386_TLS_LDO_32   32         /* Offset relative to TLS block */
++#define R_386_TLS_IE_32          33           /* GOT entry for negated static TLS
++                                         block offset */
++#define R_386_TLS_LE_32          34           /* Negated offset relative to static
++                                         TLS block */
++#define R_386_TLS_DTPMOD32 35         /* ID of module containing symbol */
++#define R_386_TLS_DTPOFF32 36         /* Offset in TLS block */
++#define R_386_TLS_TPOFF32  37         /* Negated offset in static TLS block */
++/* 38? */
++#define R_386_TLS_GOTDESC  39         /* GOT offset for TLS descriptor.  */
++#define R_386_TLS_DESC_CALL 40                /* Marker of call through TLS
++                                         descriptor for
++                                         relaxation.  */
++#define R_386_TLS_DESC     41         /* TLS descriptor containing
++                                         pointer to code and to
++                                         argument, returning the TLS
++                                         offset for the symbol.  */
++#define R_386_IRELATIVE          42           /* Adjust indirectly by program base */
++/* Keep this the last entry.  */
++#define R_386_NUM        43
++
++/* SUN SPARC specific definitions.  */
++
++/* Legal values for ST_TYPE subfield of st_info (symbol type).  */
++
++#define STT_SPARC_REGISTER    13      /* Global register reserved to app. */
++
++/* Values for Elf64_Ehdr.e_flags.  */
++
++#define EF_SPARCV9_MM         3
++#define EF_SPARCV9_TSO                0
++#define EF_SPARCV9_PSO                1
++#define EF_SPARCV9_RMO                2
++#define EF_SPARC_LEDATA               0x800000 /* little endian data */
++#define EF_SPARC_EXT_MASK     0xFFFF00
++#define EF_SPARC_32PLUS               0x000100 /* generic V8+ features */
++#define EF_SPARC_SUN_US1      0x000200 /* Sun UltraSPARC1 extensions */
++#define EF_SPARC_HAL_R1               0x000400 /* HAL R1 extensions */
++#define EF_SPARC_SUN_US3      0x000800 /* Sun UltraSPARCIII extensions */
++
++/* SPARC relocs.  */
++
++#define R_SPARC_NONE          0       /* No reloc */
++#define R_SPARC_8             1       /* Direct 8 bit */
++#define R_SPARC_16            2       /* Direct 16 bit */
++#define R_SPARC_32            3       /* Direct 32 bit */
++#define R_SPARC_DISP8         4       /* PC relative 8 bit */
++#define R_SPARC_DISP16                5       /* PC relative 16 bit */
++#define R_SPARC_DISP32                6       /* PC relative 32 bit */
++#define R_SPARC_WDISP30               7       /* PC relative 30 bit shifted */
++#define R_SPARC_WDISP22               8       /* PC relative 22 bit shifted */
++#define R_SPARC_HI22          9       /* High 22 bit */
++#define R_SPARC_22            10      /* Direct 22 bit */
++#define R_SPARC_13            11      /* Direct 13 bit */
++#define R_SPARC_LO10          12      /* Truncated 10 bit */
++#define R_SPARC_GOT10         13      /* Truncated 10 bit GOT entry */
++#define R_SPARC_GOT13         14      /* 13 bit GOT entry */
++#define R_SPARC_GOT22         15      /* 22 bit GOT entry shifted */
++#define R_SPARC_PC10          16      /* PC relative 10 bit truncated */
++#define R_SPARC_PC22          17      /* PC relative 22 bit shifted */
++#define R_SPARC_WPLT30                18      /* 30 bit PC relative PLT address */
++#define R_SPARC_COPY          19      /* Copy symbol at runtime */
++#define R_SPARC_GLOB_DAT      20      /* Create GOT entry */
++#define R_SPARC_JMP_SLOT      21      /* Create PLT entry */
++#define R_SPARC_RELATIVE      22      /* Adjust by program base */
++#define R_SPARC_UA32          23      /* Direct 32 bit unaligned */
++
++/* Additional Sparc64 relocs.  */
++
++#define R_SPARC_PLT32         24      /* Direct 32 bit ref to PLT entry */
++#define R_SPARC_HIPLT22               25      /* High 22 bit PLT entry */
++#define R_SPARC_LOPLT10               26      /* Truncated 10 bit PLT entry */
++#define R_SPARC_PCPLT32               27      /* PC rel 32 bit ref to PLT entry */
++#define R_SPARC_PCPLT22               28      /* PC rel high 22 bit PLT entry */
++#define R_SPARC_PCPLT10               29      /* PC rel trunc 10 bit PLT entry */
++#define R_SPARC_10            30      /* Direct 10 bit */
++#define R_SPARC_11            31      /* Direct 11 bit */
++#define R_SPARC_64            32      /* Direct 64 bit */
++#define R_SPARC_OLO10         33      /* 10bit with secondary 13bit addend */
++#define R_SPARC_HH22          34      /* Top 22 bits of direct 64 bit */
++#define R_SPARC_HM10          35      /* High middle 10 bits of ... */
++#define R_SPARC_LM22          36      /* Low middle 22 bits of ... */
++#define R_SPARC_PC_HH22               37      /* Top 22 bits of pc rel 64 bit */
++#define R_SPARC_PC_HM10               38      /* High middle 10 bit of ... */
++#define R_SPARC_PC_LM22               39      /* Low miggle 22 bits of ... */
++#define R_SPARC_WDISP16               40      /* PC relative 16 bit shifted */
++#define R_SPARC_WDISP19               41      /* PC relative 19 bit shifted */
++#define R_SPARC_GLOB_JMP      42      /* was part of v9 ABI but was removed */
++#define R_SPARC_7             43      /* Direct 7 bit */
++#define R_SPARC_5             44      /* Direct 5 bit */
++#define R_SPARC_6             45      /* Direct 6 bit */
++#define R_SPARC_DISP64                46      /* PC relative 64 bit */
++#define R_SPARC_PLT64         47      /* Direct 64 bit ref to PLT entry */
++#define R_SPARC_HIX22         48      /* High 22 bit complemented */
++#define R_SPARC_LOX10         49      /* Truncated 11 bit complemented */
++#define R_SPARC_H44           50      /* Direct high 12 of 44 bit */
++#define R_SPARC_M44           51      /* Direct mid 22 of 44 bit */
++#define R_SPARC_L44           52      /* Direct low 10 of 44 bit */
++#define R_SPARC_REGISTER      53      /* Global register usage */
++#define R_SPARC_UA64          54      /* Direct 64 bit unaligned */
++#define R_SPARC_UA16          55      /* Direct 16 bit unaligned */
++#define R_SPARC_TLS_GD_HI22   56
++#define R_SPARC_TLS_GD_LO10   57
++#define R_SPARC_TLS_GD_ADD    58
++#define R_SPARC_TLS_GD_CALL   59
++#define R_SPARC_TLS_LDM_HI22  60
++#define R_SPARC_TLS_LDM_LO10  61
++#define R_SPARC_TLS_LDM_ADD   62
++#define R_SPARC_TLS_LDM_CALL  63
++#define R_SPARC_TLS_LDO_HIX22 64
++#define R_SPARC_TLS_LDO_LOX10 65
++#define R_SPARC_TLS_LDO_ADD   66
++#define R_SPARC_TLS_IE_HI22   67
++#define R_SPARC_TLS_IE_LO10   68
++#define R_SPARC_TLS_IE_LD     69
++#define R_SPARC_TLS_IE_LDX    70
++#define R_SPARC_TLS_IE_ADD    71
++#define R_SPARC_TLS_LE_HIX22  72
++#define R_SPARC_TLS_LE_LOX10  73
++#define R_SPARC_TLS_DTPMOD32  74
++#define R_SPARC_TLS_DTPMOD64  75
++#define R_SPARC_TLS_DTPOFF32  76
++#define R_SPARC_TLS_DTPOFF64  77
++#define R_SPARC_TLS_TPOFF32   78
++#define R_SPARC_TLS_TPOFF64   79
++#define R_SPARC_GOTDATA_HIX22 80
++#define R_SPARC_GOTDATA_LOX10 81
++#define R_SPARC_GOTDATA_OP_HIX22      82
++#define R_SPARC_GOTDATA_OP_LOX10      83
++#define R_SPARC_GOTDATA_OP    84
++#define R_SPARC_H34           85
++#define R_SPARC_SIZE32                86
++#define R_SPARC_SIZE64                87
++#define R_SPARC_WDISP10               88
++#define R_SPARC_JMP_IREL      248
++#define R_SPARC_IRELATIVE     249
++#define R_SPARC_GNU_VTINHERIT 250
++#define R_SPARC_GNU_VTENTRY   251
++#define R_SPARC_REV32         252
++/* Keep this the last entry.  */
++#define R_SPARC_NUM           253
++
++/* For Sparc64, legal values for d_tag of Elf64_Dyn.  */
++
++#define DT_SPARC_REGISTER 0x70000001
++#define DT_SPARC_NUM  2
++
++/* MIPS R3000 specific definitions.  */
++
++/* Legal values for e_flags field of Elf32_Ehdr.  */
++
++#define EF_MIPS_NOREORDER   1         /* A .noreorder directive was used */
++#define EF_MIPS_PIC       2           /* Contains PIC code */
++#define EF_MIPS_CPIC      4           /* Uses PIC calling sequence */
++#define EF_MIPS_XGOT      8
++#define EF_MIPS_64BIT_WHIRL 16
++#define EF_MIPS_ABI2      32
++#define EF_MIPS_ABI_ON32    64
++#define EF_MIPS_ARCH      0xf0000000  /* MIPS architecture level */
++
++/* Legal values for MIPS architecture level.  */
++
++#define EF_MIPS_ARCH_1            0x00000000  /* -mips1 code.  */
++#define EF_MIPS_ARCH_2            0x10000000  /* -mips2 code.  */
++#define EF_MIPS_ARCH_3            0x20000000  /* -mips3 code.  */
++#define EF_MIPS_ARCH_4            0x30000000  /* -mips4 code.  */
++#define EF_MIPS_ARCH_5            0x40000000  /* -mips5 code.  */
++#define EF_MIPS_ARCH_32           0x60000000  /* MIPS32 code.  */
++#define EF_MIPS_ARCH_64           0x70000000  /* MIPS64 code.  */
++
++/* The following are non-official names and should not be used.  */
++
++#define E_MIPS_ARCH_1   0x00000000    /* -mips1 code.  */
++#define E_MIPS_ARCH_2   0x10000000    /* -mips2 code.  */
++#define E_MIPS_ARCH_3   0x20000000    /* -mips3 code.  */
++#define E_MIPS_ARCH_4   0x30000000    /* -mips4 code.  */
++#define E_MIPS_ARCH_5   0x40000000    /* -mips5 code.  */
++#define E_MIPS_ARCH_32          0x60000000    /* MIPS32 code.  */
++#define E_MIPS_ARCH_64          0x70000000    /* MIPS64 code.  */
++
++/* Special section indices.  */
++
++#define SHN_MIPS_ACOMMON    0xff00    /* Allocated common symbols */
++#define SHN_MIPS_TEXT     0xff01      /* Allocated test symbols.  */
++#define SHN_MIPS_DATA     0xff02      /* Allocated data symbols.  */
++#define SHN_MIPS_SCOMMON    0xff03    /* Small common symbols */
++#define SHN_MIPS_SUNDEFINED 0xff04    /* Small undefined symbols */
++
++/* Legal values for sh_type field of Elf32_Shdr.  */
++
++#define SHT_MIPS_LIBLIST       0x70000000 /* Shared objects used in link */
++#define SHT_MIPS_MSYM        0x70000001
++#define SHT_MIPS_CONFLICT      0x70000002 /* Conflicting symbols */
++#define SHT_MIPS_GPTAB               0x70000003 /* Global data area sizes */
++#define SHT_MIPS_UCODE               0x70000004 /* Reserved for SGI/MIPS compilers */
++#define SHT_MIPS_DEBUG               0x70000005 /* MIPS ECOFF debugging information*/
++#define SHT_MIPS_REGINFO       0x70000006 /* Register usage information */
++#define SHT_MIPS_PACKAGE       0x70000007
++#define SHT_MIPS_PACKSYM       0x70000008
++#define SHT_MIPS_RELD        0x70000009
++#define SHT_MIPS_IFACE         0x7000000b
++#define SHT_MIPS_CONTENT       0x7000000c
++#define SHT_MIPS_OPTIONS       0x7000000d /* Miscellaneous options.  */
++#define SHT_MIPS_SHDR        0x70000010
++#define SHT_MIPS_FDESC               0x70000011
++#define SHT_MIPS_EXTSYM              0x70000012
++#define SHT_MIPS_DENSE               0x70000013
++#define SHT_MIPS_PDESC               0x70000014
++#define SHT_MIPS_LOCSYM              0x70000015
++#define SHT_MIPS_AUXSYM              0x70000016
++#define SHT_MIPS_OPTSYM              0x70000017
++#define SHT_MIPS_LOCSTR              0x70000018
++#define SHT_MIPS_LINE        0x70000019
++#define SHT_MIPS_RFDESC              0x7000001a
++#define SHT_MIPS_DELTASYM      0x7000001b
++#define SHT_MIPS_DELTAINST     0x7000001c
++#define SHT_MIPS_DELTACLASS    0x7000001d
++#define SHT_MIPS_DWARF         0x7000001e /* DWARF debugging information.  */
++#define SHT_MIPS_DELTADECL     0x7000001f
++#define SHT_MIPS_SYMBOL_LIB    0x70000020
++#define SHT_MIPS_EVENTS              0x70000021 /* Event section.  */
++#define SHT_MIPS_TRANSLATE     0x70000022
++#define SHT_MIPS_PIXIE               0x70000023
++#define SHT_MIPS_XLATE               0x70000024
++#define SHT_MIPS_XLATE_DEBUG   0x70000025
++#define SHT_MIPS_WHIRL               0x70000026
++#define SHT_MIPS_EH_REGION     0x70000027
++#define SHT_MIPS_XLATE_OLD     0x70000028
++#define SHT_MIPS_PDR_EXCEPTION 0x70000029
++
++/* Legal values for sh_flags field of Elf32_Shdr.  */
++
++#define SHF_MIPS_GPREL         0x10000000     /* Must be part of global data area */
++#define SHF_MIPS_MERGE         0x20000000
++#define SHF_MIPS_ADDR  0x40000000
++#define SHF_MIPS_STRINGS 0x80000000
++#define SHF_MIPS_NOSTRIP 0x08000000
++#define SHF_MIPS_LOCAL         0x04000000
++#define SHF_MIPS_NAMES         0x02000000
++#define SHF_MIPS_NODUPE        0x01000000
++
++
++/* Symbol tables.  */
++
++/* MIPS specific values for `st_other'.  */
++#define STO_MIPS_DEFAULT              0x0
++#define STO_MIPS_INTERNAL             0x1
++#define STO_MIPS_HIDDEN                       0x2
++#define STO_MIPS_PROTECTED            0x3
++#define STO_MIPS_PLT                  0x8
++#define STO_MIPS_SC_ALIGN_UNUSED      0xff
++
++/* MIPS specific values for `st_info'.  */
++#define STB_MIPS_SPLIT_COMMON         13
++
++/* Entries found in sections of type SHT_MIPS_GPTAB.  */
++
++typedef union
++{
++  struct
++    {
++      Elf32_Word gt_current_g_value;  /* -G value used for compilation */
++      Elf32_Word gt_unused;           /* Not used */
++    } gt_header;                      /* First entry in section */
++  struct
++    {
++      Elf32_Word gt_g_value;          /* If this value were used for -G */
++      Elf32_Word gt_bytes;            /* This many bytes would be used */
++    } gt_entry;                               /* Subsequent entries in section */
++} Elf32_gptab;
++
++/* Entry found in sections of type SHT_MIPS_REGINFO.  */
++
++typedef struct
++{
++  Elf32_Word  ri_gprmask;             /* General registers used */
++  Elf32_Word  ri_cprmask[4];          /* Coprocessor registers used */
++  Elf32_Sword ri_gp_value;            /* $gp register value */
++} Elf32_RegInfo;
++
++/* Entries found in sections of type SHT_MIPS_OPTIONS.  */
++
++typedef struct
++{
++  unsigned char kind;         /* Determines interpretation of the
++                                 variable part of descriptor.  */
++  unsigned char size;         /* Size of descriptor, including header.  */
++  Elf32_Section section;      /* Section header index of section affected,
++                                 0 for global options.  */
++  Elf32_Word info;            /* Kind-specific information.  */
++} Elf_Options;
++
++/* Values for `kind' field in Elf_Options.  */
++
++#define ODK_NULL      0       /* Undefined.  */
++#define ODK_REGINFO   1       /* Register usage information.  */
++#define ODK_EXCEPTIONS        2       /* Exception processing options.  */
++#define ODK_PAD               3       /* Section padding options.  */
++#define ODK_HWPATCH   4       /* Hardware workarounds performed */
++#define ODK_FILL      5       /* record the fill value used by the linker. */
++#define ODK_TAGS      6       /* reserve space for desktop tools to write. */
++#define ODK_HWAND     7       /* HW workarounds.  'AND' bits when merging. */
++#define ODK_HWOR      8       /* HW workarounds.  'OR' bits when merging.  */
++
++/* Values for `info' in Elf_Options for ODK_EXCEPTIONS entries.  */
++
++#define OEX_FPU_MIN   0x1f    /* FPE's which MUST be enabled.  */
++#define OEX_FPU_MAX   0x1f00  /* FPE's which MAY be enabled.  */
++#define OEX_PAGE0     0x10000 /* page zero must be mapped.  */
++#define OEX_SMM               0x20000 /* Force sequential memory mode?  */
++#define OEX_FPDBUG    0x40000 /* Force floating point debug mode?  */
++#define OEX_PRECISEFP OEX_FPDBUG
++#define OEX_DISMISS   0x80000 /* Dismiss invalid address faults?  */
++
++#define OEX_FPU_INVAL 0x10
++#define OEX_FPU_DIV0  0x08
++#define OEX_FPU_OFLO  0x04
++#define OEX_FPU_UFLO  0x02
++#define OEX_FPU_INEX  0x01
++
++/* Masks for `info' in Elf_Options for an ODK_HWPATCH entry.  */
++
++#define OHW_R4KEOP    0x1     /* R4000 end-of-page patch.  */
++#define OHW_R8KPFETCH 0x2     /* may need R8000 prefetch patch.  */
++#define OHW_R5KEOP    0x4     /* R5000 end-of-page patch.  */
++#define OHW_R5KCVTL   0x8     /* R5000 cvt.[ds].l bug.  clean=1.  */
++
++#define OPAD_PREFIX   0x1
++#define OPAD_POSTFIX  0x2
++#define OPAD_SYMBOL   0x4
++
++/* Entry found in `.options' section.  */
++
++typedef struct
++{
++  Elf32_Word hwp_flags1;      /* Extra flags.  */
++  Elf32_Word hwp_flags2;      /* Extra flags.  */
++} Elf_Options_Hw;
++
++/* Masks for `info' in ElfOptions for ODK_HWAND and ODK_HWOR entries.  */
++
++#define OHWA0_R4KEOP_CHECKED  0x00000001
++#define OHWA1_R4KEOP_CLEAN    0x00000002
++
++/* MIPS relocs.  */
++
++#define R_MIPS_NONE           0       /* No reloc */
++#define R_MIPS_16             1       /* Direct 16 bit */
++#define R_MIPS_32             2       /* Direct 32 bit */
++#define R_MIPS_REL32          3       /* PC relative 32 bit */
++#define R_MIPS_26             4       /* Direct 26 bit shifted */
++#define R_MIPS_HI16           5       /* High 16 bit */
++#define R_MIPS_LO16           6       /* Low 16 bit */
++#define R_MIPS_GPREL16                7       /* GP relative 16 bit */
++#define R_MIPS_LITERAL                8       /* 16 bit literal entry */
++#define R_MIPS_GOT16          9       /* 16 bit GOT entry */
++#define R_MIPS_PC16           10      /* PC relative 16 bit */
++#define R_MIPS_CALL16         11      /* 16 bit GOT entry for function */
++#define R_MIPS_GPREL32                12      /* GP relative 32 bit */
++
++#define R_MIPS_SHIFT5         16
++#define R_MIPS_SHIFT6         17
++#define R_MIPS_64             18
++#define R_MIPS_GOT_DISP               19
++#define R_MIPS_GOT_PAGE               20
++#define R_MIPS_GOT_OFST               21
++#define R_MIPS_GOT_HI16               22
++#define R_MIPS_GOT_LO16               23
++#define R_MIPS_SUB            24
++#define R_MIPS_INSERT_A               25
++#define R_MIPS_INSERT_B               26
++#define R_MIPS_DELETE         27
++#define R_MIPS_HIGHER         28
++#define R_MIPS_HIGHEST                29
++#define R_MIPS_CALL_HI16      30
++#define R_MIPS_CALL_LO16      31
++#define R_MIPS_SCN_DISP               32
++#define R_MIPS_REL16          33
++#define R_MIPS_ADD_IMMEDIATE  34
++#define R_MIPS_PJUMP          35
++#define R_MIPS_RELGOT         36
++#define R_MIPS_JALR           37
++#define R_MIPS_TLS_DTPMOD32   38      /* Module number 32 bit */
++#define R_MIPS_TLS_DTPREL32   39      /* Module-relative offset 32 bit */
++#define R_MIPS_TLS_DTPMOD64   40      /* Module number 64 bit */
++#define R_MIPS_TLS_DTPREL64   41      /* Module-relative offset 64 bit */
++#define R_MIPS_TLS_GD         42      /* 16 bit GOT offset for GD */
++#define R_MIPS_TLS_LDM                43      /* 16 bit GOT offset for LDM */
++#define R_MIPS_TLS_DTPREL_HI16        44      /* Module-relative offset, high 16 bits */
++#define R_MIPS_TLS_DTPREL_LO16        45      /* Module-relative offset, low 16 bits */
++#define R_MIPS_TLS_GOTTPREL   46      /* 16 bit GOT offset for IE */
++#define R_MIPS_TLS_TPREL32    47      /* TP-relative offset, 32 bit */
++#define R_MIPS_TLS_TPREL64    48      /* TP-relative offset, 64 bit */
++#define R_MIPS_TLS_TPREL_HI16 49      /* TP-relative offset, high 16 bits */
++#define R_MIPS_TLS_TPREL_LO16 50      /* TP-relative offset, low 16 bits */
++#define R_MIPS_GLOB_DAT               51
++#define R_MIPS_COPY           126
++#define R_MIPS_JUMP_SLOT        127
++/* Keep this the last entry.  */
++#define R_MIPS_NUM            128
++
++/* Legal values for p_type field of Elf32_Phdr.  */
++
++#define PT_MIPS_REGINFO       0x70000000      /* Register usage information */
++#define PT_MIPS_RTPROC  0x70000001    /* Runtime procedure table. */
++#define PT_MIPS_OPTIONS 0x70000002
++
++/* Special program header types.  */
++
++#define PF_MIPS_LOCAL 0x10000000
++
++/* Legal values for d_tag field of Elf32_Dyn.  */
++
++#define DT_MIPS_RLD_VERSION  0x70000001       /* Runtime linker interface version */
++#define DT_MIPS_TIME_STAMP   0x70000002       /* Timestamp */
++#define DT_MIPS_ICHECKSUM    0x70000003       /* Checksum */
++#define DT_MIPS_IVERSION     0x70000004       /* Version string (string tbl index) */
++#define DT_MIPS_FLAGS      0x70000005 /* Flags */
++#define DT_MIPS_BASE_ADDRESS 0x70000006       /* Base address */
++#define DT_MIPS_MSYM       0x70000007
++#define DT_MIPS_CONFLICT     0x70000008       /* Address of CONFLICT section */
++#define DT_MIPS_LIBLIST            0x70000009 /* Address of LIBLIST section */
++#define DT_MIPS_LOCAL_GOTNO  0x7000000a       /* Number of local GOT entries */
++#define DT_MIPS_CONFLICTNO   0x7000000b       /* Number of CONFLICT entries */
++#define DT_MIPS_LIBLISTNO    0x70000010       /* Number of LIBLIST entries */
++#define DT_MIPS_SYMTABNO     0x70000011       /* Number of DYNSYM entries */
++#define DT_MIPS_UNREFEXTNO   0x70000012       /* First external DYNSYM */
++#define DT_MIPS_GOTSYM             0x70000013 /* First GOT entry in DYNSYM */
++#define DT_MIPS_HIPAGENO     0x70000014       /* Number of GOT page table entries */
++#define DT_MIPS_RLD_MAP            0x70000016 /* Address of run time loader map.  */
++#define DT_MIPS_DELTA_CLASS  0x70000017       /* Delta C++ class definition.  */
++#define DT_MIPS_DELTA_CLASS_NO    0x70000018 /* Number of entries in
++                                              DT_MIPS_DELTA_CLASS.  */
++#define DT_MIPS_DELTA_INSTANCE    0x70000019 /* Delta C++ class instances.  */
++#define DT_MIPS_DELTA_INSTANCE_NO 0x7000001a /* Number of entries in
++                                              DT_MIPS_DELTA_INSTANCE.  */
++#define DT_MIPS_DELTA_RELOC  0x7000001b /* Delta relocations.  */
++#define DT_MIPS_DELTA_RELOC_NO 0x7000001c /* Number of entries in
++                                           DT_MIPS_DELTA_RELOC.  */
++#define DT_MIPS_DELTA_SYM    0x7000001d /* Delta symbols that Delta
++                                         relocations refer to.  */
++#define DT_MIPS_DELTA_SYM_NO 0x7000001e /* Number of entries in
++                                         DT_MIPS_DELTA_SYM.  */
++#define DT_MIPS_DELTA_CLASSSYM 0x70000020 /* Delta symbols that hold the
++                                           class declaration.  */
++#define DT_MIPS_DELTA_CLASSSYM_NO 0x70000021 /* Number of entries in
++                                              DT_MIPS_DELTA_CLASSSYM.  */
++#define DT_MIPS_CXX_FLAGS    0x70000022 /* Flags indicating for C++ flavor.  */
++#define DT_MIPS_PIXIE_INIT   0x70000023
++#define DT_MIPS_SYMBOL_LIB   0x70000024
++#define DT_MIPS_LOCALPAGE_GOTIDX 0x70000025
++#define DT_MIPS_LOCAL_GOTIDX 0x70000026
++#define DT_MIPS_HIDDEN_GOTIDX 0x70000027
++#define DT_MIPS_PROTECTED_GOTIDX 0x70000028
++#define DT_MIPS_OPTIONS            0x70000029 /* Address of .options.  */
++#define DT_MIPS_INTERFACE    0x7000002a /* Address of .interface.  */
++#define DT_MIPS_DYNSTR_ALIGN 0x7000002b
++#define DT_MIPS_INTERFACE_SIZE 0x7000002c /* Size of the .interface section. */
++#define DT_MIPS_RLD_TEXT_RESOLVE_ADDR 0x7000002d /* Address of rld_text_rsolve
++                                                  function stored in GOT.  */
++#define DT_MIPS_PERF_SUFFIX  0x7000002e /* Default suffix of dso to be added
++                                         by rld on dlopen() calls.  */
++#define DT_MIPS_COMPACT_SIZE 0x7000002f /* (O32)Size of compact rel section. */
++#define DT_MIPS_GP_VALUE     0x70000030 /* GP value for aux GOTs.  */
++#define DT_MIPS_AUX_DYNAMIC  0x70000031 /* Address of aux .dynamic.  */
++/* The address of .got.plt in an executable using the new non-PIC ABI.  */
++#define DT_MIPS_PLTGOT             0x70000032
++/* The base of the PLT in an executable using the new non-PIC ABI if that
++   PLT is writable.  For a non-writable PLT, this is omitted or has a zero
++   value.  */
++#define DT_MIPS_RWPLT        0x70000034
++#define DT_MIPS_NUM        0x35
++
++/* Legal values for DT_MIPS_FLAGS Elf32_Dyn entry.  */
++
++#define RHF_NONE                 0            /* No flags */
++#define RHF_QUICKSTART                   (1 << 0)     /* Use quickstart */
++#define RHF_NOTPOT               (1 << 1)     /* Hash size not power of 2 */
++#define RHF_NO_LIBRARY_REPLACEMENT (1 << 2)   /* Ignore LD_LIBRARY_PATH */
++#define RHF_NO_MOVE              (1 << 3)
++#define RHF_SGI_ONLY             (1 << 4)
++#define RHF_GUARANTEE_INIT       (1 << 5)
++#define RHF_DELTA_C_PLUS_PLUS    (1 << 6)
++#define RHF_GUARANTEE_START_INIT   (1 << 7)
++#define RHF_PIXIE                (1 << 8)
++#define RHF_DEFAULT_DELAY_LOAD           (1 << 9)
++#define RHF_REQUICKSTART         (1 << 10)
++#define RHF_REQUICKSTARTED       (1 << 11)
++#define RHF_CORD                 (1 << 12)
++#define RHF_NO_UNRES_UNDEF       (1 << 13)
++#define RHF_RLD_ORDER_SAFE       (1 << 14)
++
++/* Entries found in sections of type SHT_MIPS_LIBLIST.  */
++
++typedef struct
++{
++  Elf32_Word l_name;          /* Name (string table index) */
++  Elf32_Word l_time_stamp;    /* Timestamp */
++  Elf32_Word l_checksum;      /* Checksum */
++  Elf32_Word l_version;               /* Interface version */
++  Elf32_Word l_flags;         /* Flags */
++} Elf32_Lib;
++
++typedef struct
++{
++  Elf64_Word l_name;          /* Name (string table index) */
++  Elf64_Word l_time_stamp;    /* Timestamp */
++  Elf64_Word l_checksum;      /* Checksum */
++  Elf64_Word l_version;               /* Interface version */
++  Elf64_Word l_flags;         /* Flags */
++} Elf64_Lib;
++
++
++/* Legal values for l_flags.  */
++
++#define LL_NONE                 0
++#define LL_EXACT_MATCH          (1 << 0)      /* Require exact match */
++#define LL_IGNORE_INT_VER (1 << 1)    /* Ignore interface version */
++#define LL_REQUIRE_MINOR  (1 << 2)
++#define LL_EXPORTS      (1 << 3)
++#define LL_DELAY_LOAD   (1 << 4)
++#define LL_DELTA        (1 << 5)
++
++/* Entries found in sections of type SHT_MIPS_CONFLICT.  */
++
++typedef Elf32_Addr Elf32_Conflict;
++
++
++/* HPPA specific definitions.  */
++
++/* Legal values for e_flags field of Elf32_Ehdr.  */
++
++#define EF_PARISC_TRAPNIL     0x00010000 /* Trap nil pointer dereference.  */
++#define EF_PARISC_EXT         0x00020000 /* Program uses arch. extensions. */
++#define EF_PARISC_LSB         0x00040000 /* Program expects little endian. */
++#define EF_PARISC_WIDE                0x00080000 /* Program expects wide mode.  */
++#define EF_PARISC_NO_KABP     0x00100000 /* No kernel assisted branch
++                                            prediction.  */
++#define EF_PARISC_LAZYSWAP    0x00400000 /* Allow lazy swapping.  */
++#define EF_PARISC_ARCH                0x0000ffff /* Architecture version.  */
++
++/* Defined values for `e_flags & EF_PARISC_ARCH' are:  */
++
++#define EFA_PARISC_1_0                    0x020b /* PA-RISC 1.0 big-endian.  */
++#define EFA_PARISC_1_1                    0x0210 /* PA-RISC 1.1 big-endian.  */
++#define EFA_PARISC_2_0                    0x0214 /* PA-RISC 2.0 big-endian.  */
++
++/* Additional section indeces.  */
++
++#define SHN_PARISC_ANSI_COMMON        0xff00     /* Section for tenatively declared
++                                            symbols in ANSI C.  */
++#define SHN_PARISC_HUGE_COMMON        0xff01     /* Common blocks in huge model.  */
++
++/* Legal values for sh_type field of Elf32_Shdr.  */
++
++#define SHT_PARISC_EXT                0x70000000 /* Contains product specific ext. */
++#define SHT_PARISC_UNWIND     0x70000001 /* Unwind information.  */
++#define SHT_PARISC_DOC                0x70000002 /* Debug info for optimized code. */
++
++/* Legal values for sh_flags field of Elf32_Shdr.  */
++
++#define SHF_PARISC_SHORT      0x20000000 /* Section with short addressing. */
++#define SHF_PARISC_HUGE               0x40000000 /* Section far from gp.  */
++#define SHF_PARISC_SBP                0x80000000 /* Static branch prediction code. */
++
++/* Legal values for ST_TYPE subfield of st_info (symbol type).  */
++
++#define STT_PARISC_MILLICODE  13      /* Millicode function entry point.  */
++
++#define STT_HP_OPAQUE         (STT_LOOS + 0x1)
++#define STT_HP_STUB           (STT_LOOS + 0x2)
++
++/* HPPA relocs.  */
++
++#define R_PARISC_NONE         0       /* No reloc.  */
++#define R_PARISC_DIR32                1       /* Direct 32-bit reference.  */
++#define R_PARISC_DIR21L               2       /* Left 21 bits of eff. address.  */
++#define R_PARISC_DIR17R               3       /* Right 17 bits of eff. address.  */
++#define R_PARISC_DIR17F               4       /* 17 bits of eff. address.  */
++#define R_PARISC_DIR14R               6       /* Right 14 bits of eff. address.  */
++#define R_PARISC_PCREL32      9       /* 32-bit rel. address.  */
++#define R_PARISC_PCREL21L     10      /* Left 21 bits of rel. address.  */
++#define R_PARISC_PCREL17R     11      /* Right 17 bits of rel. address.  */
++#define R_PARISC_PCREL17F     12      /* 17 bits of rel. address.  */
++#define R_PARISC_PCREL14R     14      /* Right 14 bits of rel. address.  */
++#define R_PARISC_DPREL21L     18      /* Left 21 bits of rel. address.  */
++#define R_PARISC_DPREL14R     22      /* Right 14 bits of rel. address.  */
++#define R_PARISC_GPREL21L     26      /* GP-relative, left 21 bits.  */
++#define R_PARISC_GPREL14R     30      /* GP-relative, right 14 bits.  */
++#define R_PARISC_LTOFF21L     34      /* LT-relative, left 21 bits.  */
++#define R_PARISC_LTOFF14R     38      /* LT-relative, right 14 bits.  */
++#define R_PARISC_SECREL32     41      /* 32 bits section rel. address.  */
++#define R_PARISC_SEGBASE      48      /* No relocation, set segment base.  */
++#define R_PARISC_SEGREL32     49      /* 32 bits segment rel. address.  */
++#define R_PARISC_PLTOFF21L    50      /* PLT rel. address, left 21 bits.  */
++#define R_PARISC_PLTOFF14R    54      /* PLT rel. address, right 14 bits.  */
++#define R_PARISC_LTOFF_FPTR32 57      /* 32 bits LT-rel. function pointer. */
++#define R_PARISC_LTOFF_FPTR21L        58      /* LT-rel. fct ptr, left 21 bits. */
++#define R_PARISC_LTOFF_FPTR14R        62      /* LT-rel. fct ptr, right 14 bits. */
++#define R_PARISC_FPTR64               64      /* 64 bits function address.  */
++#define R_PARISC_PLABEL32     65      /* 32 bits function address.  */
++#define R_PARISC_PLABEL21L    66      /* Left 21 bits of fdesc address.  */
++#define R_PARISC_PLABEL14R    70      /* Right 14 bits of fdesc address.  */
++#define R_PARISC_PCREL64      72      /* 64 bits PC-rel. address.  */
++#define R_PARISC_PCREL22F     74      /* 22 bits PC-rel. address.  */
++#define R_PARISC_PCREL14WR    75      /* PC-rel. address, right 14 bits.  */
++#define R_PARISC_PCREL14DR    76      /* PC rel. address, right 14 bits.  */
++#define R_PARISC_PCREL16F     77      /* 16 bits PC-rel. address.  */
++#define R_PARISC_PCREL16WF    78      /* 16 bits PC-rel. address.  */
++#define R_PARISC_PCREL16DF    79      /* 16 bits PC-rel. address.  */
++#define R_PARISC_DIR64                80      /* 64 bits of eff. address.  */
++#define R_PARISC_DIR14WR      83      /* 14 bits of eff. address.  */
++#define R_PARISC_DIR14DR      84      /* 14 bits of eff. address.  */
++#define R_PARISC_DIR16F               85      /* 16 bits of eff. address.  */
++#define R_PARISC_DIR16WF      86      /* 16 bits of eff. address.  */
++#define R_PARISC_DIR16DF      87      /* 16 bits of eff. address.  */
++#define R_PARISC_GPREL64      88      /* 64 bits of GP-rel. address.  */
++#define R_PARISC_GPREL14WR    91      /* GP-rel. address, right 14 bits.  */
++#define R_PARISC_GPREL14DR    92      /* GP-rel. address, right 14 bits.  */
++#define R_PARISC_GPREL16F     93      /* 16 bits GP-rel. address.  */
++#define R_PARISC_GPREL16WF    94      /* 16 bits GP-rel. address.  */
++#define R_PARISC_GPREL16DF    95      /* 16 bits GP-rel. address.  */
++#define R_PARISC_LTOFF64      96      /* 64 bits LT-rel. address.  */
++#define R_PARISC_LTOFF14WR    99      /* LT-rel. address, right 14 bits.  */
++#define R_PARISC_LTOFF14DR    100     /* LT-rel. address, right 14 bits.  */
++#define R_PARISC_LTOFF16F     101     /* 16 bits LT-rel. address.  */
++#define R_PARISC_LTOFF16WF    102     /* 16 bits LT-rel. address.  */
++#define R_PARISC_LTOFF16DF    103     /* 16 bits LT-rel. address.  */
++#define R_PARISC_SECREL64     104     /* 64 bits section rel. address.  */
++#define R_PARISC_SEGREL64     112     /* 64 bits segment rel. address.  */
++#define R_PARISC_PLTOFF14WR   115     /* PLT-rel. address, right 14 bits.  */
++#define R_PARISC_PLTOFF14DR   116     /* PLT-rel. address, right 14 bits.  */
++#define R_PARISC_PLTOFF16F    117     /* 16 bits LT-rel. address.  */
++#define R_PARISC_PLTOFF16WF   118     /* 16 bits PLT-rel. address.  */
++#define R_PARISC_PLTOFF16DF   119     /* 16 bits PLT-rel. address.  */
++#define R_PARISC_LTOFF_FPTR64 120     /* 64 bits LT-rel. function ptr.  */
++#define R_PARISC_LTOFF_FPTR14WR       123     /* LT-rel. fct. ptr., right 14 bits. */
++#define R_PARISC_LTOFF_FPTR14DR       124     /* LT-rel. fct. ptr., right 14 bits. */
++#define R_PARISC_LTOFF_FPTR16F        125     /* 16 bits LT-rel. function ptr.  */
++#define R_PARISC_LTOFF_FPTR16WF       126     /* 16 bits LT-rel. function ptr.  */
++#define R_PARISC_LTOFF_FPTR16DF       127     /* 16 bits LT-rel. function ptr.  */
++#define R_PARISC_LORESERVE    128
++#define R_PARISC_COPY         128     /* Copy relocation.  */
++#define R_PARISC_IPLT         129     /* Dynamic reloc, imported PLT */
++#define R_PARISC_EPLT         130     /* Dynamic reloc, exported PLT */
++#define R_PARISC_TPREL32      153     /* 32 bits TP-rel. address.  */
++#define R_PARISC_TPREL21L     154     /* TP-rel. address, left 21 bits.  */
++#define R_PARISC_TPREL14R     158     /* TP-rel. address, right 14 bits.  */
++#define R_PARISC_LTOFF_TP21L  162     /* LT-TP-rel. address, left 21 bits. */
++#define R_PARISC_LTOFF_TP14R  166     /* LT-TP-rel. address, right 14 bits.*/
++#define R_PARISC_LTOFF_TP14F  167     /* 14 bits LT-TP-rel. address.  */
++#define R_PARISC_TPREL64      216     /* 64 bits TP-rel. address.  */
++#define R_PARISC_TPREL14WR    219     /* TP-rel. address, right 14 bits.  */
++#define R_PARISC_TPREL14DR    220     /* TP-rel. address, right 14 bits.  */
++#define R_PARISC_TPREL16F     221     /* 16 bits TP-rel. address.  */
++#define R_PARISC_TPREL16WF    222     /* 16 bits TP-rel. address.  */
++#define R_PARISC_TPREL16DF    223     /* 16 bits TP-rel. address.  */
++#define R_PARISC_LTOFF_TP64   224     /* 64 bits LT-TP-rel. address.  */
++#define R_PARISC_LTOFF_TP14WR 227     /* LT-TP-rel. address, right 14 bits.*/
++#define R_PARISC_LTOFF_TP14DR 228     /* LT-TP-rel. address, right 14 bits.*/
++#define R_PARISC_LTOFF_TP16F  229     /* 16 bits LT-TP-rel. address.  */
++#define R_PARISC_LTOFF_TP16WF 230     /* 16 bits LT-TP-rel. address.  */
++#define R_PARISC_LTOFF_TP16DF 231     /* 16 bits LT-TP-rel. address.  */
++#define R_PARISC_GNU_VTENTRY  232
++#define R_PARISC_GNU_VTINHERIT        233
++#define R_PARISC_TLS_GD21L    234     /* GD 21-bit left.  */
++#define R_PARISC_TLS_GD14R    235     /* GD 14-bit right.  */
++#define R_PARISC_TLS_GDCALL   236     /* GD call to __t_g_a.  */
++#define R_PARISC_TLS_LDM21L   237     /* LD module 21-bit left.  */
++#define R_PARISC_TLS_LDM14R   238     /* LD module 14-bit right.  */
++#define R_PARISC_TLS_LDMCALL  239     /* LD module call to __t_g_a.  */
++#define R_PARISC_TLS_LDO21L   240     /* LD offset 21-bit left.  */
++#define R_PARISC_TLS_LDO14R   241     /* LD offset 14-bit right.  */
++#define R_PARISC_TLS_DTPMOD32 242     /* DTP module 32-bit.  */
++#define R_PARISC_TLS_DTPMOD64 243     /* DTP module 64-bit.  */
++#define R_PARISC_TLS_DTPOFF32 244     /* DTP offset 32-bit.  */
++#define R_PARISC_TLS_DTPOFF64 245     /* DTP offset 32-bit.  */
++#define R_PARISC_TLS_LE21L    R_PARISC_TPREL21L
++#define R_PARISC_TLS_LE14R    R_PARISC_TPREL14R
++#define R_PARISC_TLS_IE21L    R_PARISC_LTOFF_TP21L
++#define R_PARISC_TLS_IE14R    R_PARISC_LTOFF_TP14R
++#define R_PARISC_TLS_TPREL32  R_PARISC_TPREL32
++#define R_PARISC_TLS_TPREL64  R_PARISC_TPREL64
++#define R_PARISC_HIRESERVE    255
++
++/* Legal values for p_type field of Elf32_Phdr/Elf64_Phdr.  */
++
++#define PT_HP_TLS             (PT_LOOS + 0x0)
++#define PT_HP_CORE_NONE               (PT_LOOS + 0x1)
++#define PT_HP_CORE_VERSION    (PT_LOOS + 0x2)
++#define PT_HP_CORE_KERNEL     (PT_LOOS + 0x3)
++#define PT_HP_CORE_COMM               (PT_LOOS + 0x4)
++#define PT_HP_CORE_PROC               (PT_LOOS + 0x5)
++#define PT_HP_CORE_LOADABLE   (PT_LOOS + 0x6)
++#define PT_HP_CORE_STACK      (PT_LOOS + 0x7)
++#define PT_HP_CORE_SHM                (PT_LOOS + 0x8)
++#define PT_HP_CORE_MMF                (PT_LOOS + 0x9)
++#define PT_HP_PARALLEL                (PT_LOOS + 0x10)
++#define PT_HP_FASTBIND                (PT_LOOS + 0x11)
++#define PT_HP_OPT_ANNOT               (PT_LOOS + 0x12)
++#define PT_HP_HSL_ANNOT               (PT_LOOS + 0x13)
++#define PT_HP_STACK           (PT_LOOS + 0x14)
++
++#define PT_PARISC_ARCHEXT     0x70000000
++#define PT_PARISC_UNWIND      0x70000001
++
++/* Legal values for p_flags field of Elf32_Phdr/Elf64_Phdr.  */
++
++#define PF_PARISC_SBP         0x08000000
++
++#define PF_HP_PAGE_SIZE               0x00100000
++#define PF_HP_FAR_SHARED      0x00200000
++#define PF_HP_NEAR_SHARED     0x00400000
++#define PF_HP_CODE            0x01000000
++#define PF_HP_MODIFY          0x02000000
++#define PF_HP_LAZYSWAP                0x04000000
++#define PF_HP_SBP             0x08000000
++
++
++/* Alpha specific definitions.  */
++
++/* Legal values for e_flags field of Elf64_Ehdr.  */
++
++#define EF_ALPHA_32BIT                1       /* All addresses must be < 2GB.  */
++#define EF_ALPHA_CANRELAX     2       /* Relocations for relaxing exist.  */
++
++/* Legal values for sh_type field of Elf64_Shdr.  */
++
++/* These two are primerily concerned with ECOFF debugging info.  */
++#define SHT_ALPHA_DEBUG               0x70000001
++#define SHT_ALPHA_REGINFO     0x70000002
++
++/* Legal values for sh_flags field of Elf64_Shdr.  */
++
++#define SHF_ALPHA_GPREL               0x10000000
++
++/* Legal values for st_other field of Elf64_Sym.  */
++#define STO_ALPHA_NOPV                0x80    /* No PV required.  */
++#define STO_ALPHA_STD_GPLOAD  0x88    /* PV only used for initial ldgp.  */
++
++/* Alpha relocs.  */
++
++#define R_ALPHA_NONE          0       /* No reloc */
++#define R_ALPHA_REFLONG               1       /* Direct 32 bit */
++#define R_ALPHA_REFQUAD               2       /* Direct 64 bit */
++#define R_ALPHA_GPREL32               3       /* GP relative 32 bit */
++#define R_ALPHA_LITERAL               4       /* GP relative 16 bit w/optimization */
++#define R_ALPHA_LITUSE                5       /* Optimization hint for LITERAL */
++#define R_ALPHA_GPDISP                6       /* Add displacement to GP */
++#define R_ALPHA_BRADDR                7       /* PC+4 relative 23 bit shifted */
++#define R_ALPHA_HINT          8       /* PC+4 relative 16 bit shifted */
++#define R_ALPHA_SREL16                9       /* PC relative 16 bit */
++#define R_ALPHA_SREL32                10      /* PC relative 32 bit */
++#define R_ALPHA_SREL64                11      /* PC relative 64 bit */
++#define R_ALPHA_GPRELHIGH     17      /* GP relative 32 bit, high 16 bits */
++#define R_ALPHA_GPRELLOW      18      /* GP relative 32 bit, low 16 bits */
++#define R_ALPHA_GPREL16               19      /* GP relative 16 bit */
++#define R_ALPHA_COPY          24      /* Copy symbol at runtime */
++#define R_ALPHA_GLOB_DAT      25      /* Create GOT entry */
++#define R_ALPHA_JMP_SLOT      26      /* Create PLT entry */
++#define R_ALPHA_RELATIVE      27      /* Adjust by program base */
++#define R_ALPHA_TLS_GD_HI     28
++#define R_ALPHA_TLSGD         29
++#define R_ALPHA_TLS_LDM               30
++#define R_ALPHA_DTPMOD64      31
++#define R_ALPHA_GOTDTPREL     32
++#define R_ALPHA_DTPREL64      33
++#define R_ALPHA_DTPRELHI      34
++#define R_ALPHA_DTPRELLO      35
++#define R_ALPHA_DTPREL16      36
++#define R_ALPHA_GOTTPREL      37
++#define R_ALPHA_TPREL64               38
++#define R_ALPHA_TPRELHI               39
++#define R_ALPHA_TPRELLO               40
++#define R_ALPHA_TPREL16               41
++/* Keep this the last entry.  */
++#define R_ALPHA_NUM           46
++
++/* Magic values of the LITUSE relocation addend.  */
++#define LITUSE_ALPHA_ADDR     0
++#define LITUSE_ALPHA_BASE     1
++#define LITUSE_ALPHA_BYTOFF   2
++#define LITUSE_ALPHA_JSR      3
++#define LITUSE_ALPHA_TLS_GD   4
++#define LITUSE_ALPHA_TLS_LDM  5
++
++/* Legal values for d_tag of Elf64_Dyn.  */
++#define DT_ALPHA_PLTRO                (DT_LOPROC + 0)
++#define DT_ALPHA_NUM          1
++
++/* PowerPC specific declarations */
++
++/* Values for Elf32/64_Ehdr.e_flags.  */
++#define EF_PPC_EMB            0x80000000      /* PowerPC embedded flag */
++
++/* Cygnus local bits below */
++#define EF_PPC_RELOCATABLE    0x00010000      /* PowerPC -mrelocatable flag*/
++#define EF_PPC_RELOCATABLE_LIB        0x00008000      /* PowerPC -mrelocatable-lib
++                                                 flag */
++
++/* PowerPC relocations defined by the ABIs */
++#define R_PPC_NONE            0
++#define R_PPC_ADDR32          1       /* 32bit absolute address */
++#define R_PPC_ADDR24          2       /* 26bit address, 2 bits ignored.  */
++#define R_PPC_ADDR16          3       /* 16bit absolute address */
++#define R_PPC_ADDR16_LO               4       /* lower 16bit of absolute address */
++#define R_PPC_ADDR16_HI               5       /* high 16bit of absolute address */
++#define R_PPC_ADDR16_HA               6       /* adjusted high 16bit */
++#define R_PPC_ADDR14          7       /* 16bit address, 2 bits ignored */
++#define R_PPC_ADDR14_BRTAKEN  8
++#define R_PPC_ADDR14_BRNTAKEN 9
++#define R_PPC_REL24           10      /* PC relative 26 bit */
++#define R_PPC_REL14           11      /* PC relative 16 bit */
++#define R_PPC_REL14_BRTAKEN   12
++#define R_PPC_REL14_BRNTAKEN  13
++#define R_PPC_GOT16           14
++#define R_PPC_GOT16_LO                15
++#define R_PPC_GOT16_HI                16
++#define R_PPC_GOT16_HA                17
++#define R_PPC_PLTREL24                18
++#define R_PPC_COPY            19
++#define R_PPC_GLOB_DAT                20
++#define R_PPC_JMP_SLOT                21
++#define R_PPC_RELATIVE                22
++#define R_PPC_LOCAL24PC               23
++#define R_PPC_UADDR32         24
++#define R_PPC_UADDR16         25
++#define R_PPC_REL32           26
++#define R_PPC_PLT32           27
++#define R_PPC_PLTREL32                28
++#define R_PPC_PLT16_LO                29
++#define R_PPC_PLT16_HI                30
++#define R_PPC_PLT16_HA                31
++#define R_PPC_SDAREL16                32
++#define R_PPC_SECTOFF         33
++#define R_PPC_SECTOFF_LO      34
++#define R_PPC_SECTOFF_HI      35
++#define R_PPC_SECTOFF_HA      36
++
++/* PowerPC relocations defined for the TLS access ABI.  */
++#define R_PPC_TLS             67 /* none      (sym+add)@tls */
++#define R_PPC_DTPMOD32                68 /* word32    (sym+add)@dtpmod */
++#define R_PPC_TPREL16         69 /* half16*   (sym+add)@tprel */
++#define R_PPC_TPREL16_LO      70 /* half16    (sym+add)@tprel@l */
++#define R_PPC_TPREL16_HI      71 /* half16    (sym+add)@tprel@h */
++#define R_PPC_TPREL16_HA      72 /* half16    (sym+add)@tprel@ha */
++#define R_PPC_TPREL32         73 /* word32    (sym+add)@tprel */
++#define R_PPC_DTPREL16                74 /* half16*   (sym+add)@dtprel */
++#define R_PPC_DTPREL16_LO     75 /* half16    (sym+add)@dtprel@l */
++#define R_PPC_DTPREL16_HI     76 /* half16    (sym+add)@dtprel@h */
++#define R_PPC_DTPREL16_HA     77 /* half16    (sym+add)@dtprel@ha */
++#define R_PPC_DTPREL32                78 /* word32    (sym+add)@dtprel */
++#define R_PPC_GOT_TLSGD16     79 /* half16*   (sym+add)@got@tlsgd */
++#define R_PPC_GOT_TLSGD16_LO  80 /* half16    (sym+add)@got@tlsgd@l */
++#define R_PPC_GOT_TLSGD16_HI  81 /* half16    (sym+add)@got@tlsgd@h */
++#define R_PPC_GOT_TLSGD16_HA  82 /* half16    (sym+add)@got@tlsgd@ha */
++#define R_PPC_GOT_TLSLD16     83 /* half16*   (sym+add)@got@tlsld */
++#define R_PPC_GOT_TLSLD16_LO  84 /* half16    (sym+add)@got@tlsld@l */
++#define R_PPC_GOT_TLSLD16_HI  85 /* half16    (sym+add)@got@tlsld@h */
++#define R_PPC_GOT_TLSLD16_HA  86 /* half16    (sym+add)@got@tlsld@ha */
++#define R_PPC_GOT_TPREL16     87 /* half16*   (sym+add)@got@tprel */
++#define R_PPC_GOT_TPREL16_LO  88 /* half16    (sym+add)@got@tprel@l */
++#define R_PPC_GOT_TPREL16_HI  89 /* half16    (sym+add)@got@tprel@h */
++#define R_PPC_GOT_TPREL16_HA  90 /* half16    (sym+add)@got@tprel@ha */
++#define R_PPC_GOT_DTPREL16    91 /* half16*   (sym+add)@got@dtprel */
++#define R_PPC_GOT_DTPREL16_LO 92 /* half16*   (sym+add)@got@dtprel@l */
++#define R_PPC_GOT_DTPREL16_HI 93 /* half16*   (sym+add)@got@dtprel@h */
++#define R_PPC_GOT_DTPREL16_HA 94 /* half16*   (sym+add)@got@dtprel@ha */
++
++/* The remaining relocs are from the Embedded ELF ABI, and are not
++   in the SVR4 ELF ABI.  */
++#define R_PPC_EMB_NADDR32     101
++#define R_PPC_EMB_NADDR16     102
++#define R_PPC_EMB_NADDR16_LO  103
++#define R_PPC_EMB_NADDR16_HI  104
++#define R_PPC_EMB_NADDR16_HA  105
++#define R_PPC_EMB_SDAI16      106
++#define R_PPC_EMB_SDA2I16     107
++#define R_PPC_EMB_SDA2REL     108
++#define R_PPC_EMB_SDA21               109     /* 16 bit offset in SDA */
++#define R_PPC_EMB_MRKREF      110
++#define R_PPC_EMB_RELSEC16    111
++#define R_PPC_EMB_RELST_LO    112
++#define R_PPC_EMB_RELST_HI    113
++#define R_PPC_EMB_RELST_HA    114
++#define R_PPC_EMB_BIT_FLD     115
++#define R_PPC_EMB_RELSDA      116     /* 16 bit relative offset in SDA */
++
++/* Diab tool relocations.  */
++#define R_PPC_DIAB_SDA21_LO   180     /* like EMB_SDA21, but lower 16 bit */
++#define R_PPC_DIAB_SDA21_HI   181     /* like EMB_SDA21, but high 16 bit */
++#define R_PPC_DIAB_SDA21_HA   182     /* like EMB_SDA21, adjusted high 16 */
++#define R_PPC_DIAB_RELSDA_LO  183     /* like EMB_RELSDA, but lower 16 bit */
++#define R_PPC_DIAB_RELSDA_HI  184     /* like EMB_RELSDA, but high 16 bit */
++#define R_PPC_DIAB_RELSDA_HA  185     /* like EMB_RELSDA, adjusted high 16 */
++
++/* GNU extension to support local ifunc.  */
++#define R_PPC_IRELATIVE               248
++
++/* GNU relocs used in PIC code sequences.  */
++#define R_PPC_REL16           249     /* half16   (sym+add-.) */
++#define R_PPC_REL16_LO                250     /* half16   (sym+add-.)@l */
++#define R_PPC_REL16_HI                251     /* half16   (sym+add-.)@h */
++#define R_PPC_REL16_HA                252     /* half16   (sym+add-.)@ha */
++
++/* This is a phony reloc to handle any old fashioned TOC16 references
++   that may still be in object files.  */
++#define R_PPC_TOC16           255
++
++/* PowerPC specific values for the Dyn d_tag field.  */
++#define DT_PPC_GOT            (DT_LOPROC + 0)
++#define DT_PPC_NUM            1
++
++/* PowerPC64 relocations defined by the ABIs */
++#define R_PPC64_NONE          R_PPC_NONE
++#define R_PPC64_ADDR32                R_PPC_ADDR32 /* 32bit absolute address */
++#define R_PPC64_ADDR24                R_PPC_ADDR24 /* 26bit address, word aligned */
++#define R_PPC64_ADDR16                R_PPC_ADDR16 /* 16bit absolute address */
++#define R_PPC64_ADDR16_LO     R_PPC_ADDR16_LO /* lower 16bits of address */
++#define R_PPC64_ADDR16_HI     R_PPC_ADDR16_HI /* high 16bits of address. */
++#define R_PPC64_ADDR16_HA     R_PPC_ADDR16_HA /* adjusted high 16bits.  */
++#define R_PPC64_ADDR14                R_PPC_ADDR14 /* 16bit address, word aligned */
++#define R_PPC64_ADDR14_BRTAKEN        R_PPC_ADDR14_BRTAKEN
++#define R_PPC64_ADDR14_BRNTAKEN       R_PPC_ADDR14_BRNTAKEN
++#define R_PPC64_REL24         R_PPC_REL24 /* PC-rel. 26 bit, word aligned */
++#define R_PPC64_REL14         R_PPC_REL14 /* PC relative 16 bit */
++#define R_PPC64_REL14_BRTAKEN R_PPC_REL14_BRTAKEN
++#define R_PPC64_REL14_BRNTAKEN        R_PPC_REL14_BRNTAKEN
++#define R_PPC64_GOT16         R_PPC_GOT16
++#define R_PPC64_GOT16_LO      R_PPC_GOT16_LO
++#define R_PPC64_GOT16_HI      R_PPC_GOT16_HI
++#define R_PPC64_GOT16_HA      R_PPC_GOT16_HA
++
++#define R_PPC64_COPY          R_PPC_COPY
++#define R_PPC64_GLOB_DAT      R_PPC_GLOB_DAT
++#define R_PPC64_JMP_SLOT      R_PPC_JMP_SLOT
++#define R_PPC64_RELATIVE      R_PPC_RELATIVE
++
++#define R_PPC64_UADDR32               R_PPC_UADDR32
++#define R_PPC64_UADDR16               R_PPC_UADDR16
++#define R_PPC64_REL32         R_PPC_REL32
++#define R_PPC64_PLT32         R_PPC_PLT32
++#define R_PPC64_PLTREL32      R_PPC_PLTREL32
++#define R_PPC64_PLT16_LO      R_PPC_PLT16_LO
++#define R_PPC64_PLT16_HI      R_PPC_PLT16_HI
++#define R_PPC64_PLT16_HA      R_PPC_PLT16_HA
++
++#define R_PPC64_SECTOFF               R_PPC_SECTOFF
++#define R_PPC64_SECTOFF_LO    R_PPC_SECTOFF_LO
++#define R_PPC64_SECTOFF_HI    R_PPC_SECTOFF_HI
++#define R_PPC64_SECTOFF_HA    R_PPC_SECTOFF_HA
++#define R_PPC64_ADDR30                37 /* word30 (S + A - P) >> 2 */
++#define R_PPC64_ADDR64                38 /* doubleword64 S + A */
++#define R_PPC64_ADDR16_HIGHER 39 /* half16 #higher(S + A) */
++#define R_PPC64_ADDR16_HIGHERA        40 /* half16 #highera(S + A) */
++#define R_PPC64_ADDR16_HIGHEST        41 /* half16 #highest(S + A) */
++#define R_PPC64_ADDR16_HIGHESTA       42 /* half16 #highesta(S + A) */
++#define R_PPC64_UADDR64               43 /* doubleword64 S + A */
++#define R_PPC64_REL64         44 /* doubleword64 S + A - P */
++#define R_PPC64_PLT64         45 /* doubleword64 L + A */
++#define R_PPC64_PLTREL64      46 /* doubleword64 L + A - P */
++#define R_PPC64_TOC16         47 /* half16* S + A - .TOC */
++#define R_PPC64_TOC16_LO      48 /* half16 #lo(S + A - .TOC.) */
++#define R_PPC64_TOC16_HI      49 /* half16 #hi(S + A - .TOC.) */
++#define R_PPC64_TOC16_HA      50 /* half16 #ha(S + A - .TOC.) */
++#define R_PPC64_TOC           51 /* doubleword64 .TOC */
++#define R_PPC64_PLTGOT16      52 /* half16* M + A */
++#define R_PPC64_PLTGOT16_LO   53 /* half16 #lo(M + A) */
++#define R_PPC64_PLTGOT16_HI   54 /* half16 #hi(M + A) */
++#define R_PPC64_PLTGOT16_HA   55 /* half16 #ha(M + A) */
++
++#define R_PPC64_ADDR16_DS     56 /* half16ds* (S + A) >> 2 */
++#define R_PPC64_ADDR16_LO_DS  57 /* half16ds  #lo(S + A) >> 2 */
++#define R_PPC64_GOT16_DS      58 /* half16ds* (G + A) >> 2 */
++#define R_PPC64_GOT16_LO_DS   59 /* half16ds  #lo(G + A) >> 2 */
++#define R_PPC64_PLT16_LO_DS   60 /* half16ds  #lo(L + A) >> 2 */
++#define R_PPC64_SECTOFF_DS    61 /* half16ds* (R + A) >> 2 */
++#define R_PPC64_SECTOFF_LO_DS 62 /* half16ds  #lo(R + A) >> 2 */
++#define R_PPC64_TOC16_DS      63 /* half16ds* (S + A - .TOC.) >> 2 */
++#define R_PPC64_TOC16_LO_DS   64 /* half16ds  #lo(S + A - .TOC.) >> 2 */
++#define R_PPC64_PLTGOT16_DS   65 /* half16ds* (M + A) >> 2 */
++#define R_PPC64_PLTGOT16_LO_DS        66 /* half16ds  #lo(M + A) >> 2 */
++
++/* PowerPC64 relocations defined for the TLS access ABI.  */
++#define R_PPC64_TLS           67 /* none      (sym+add)@tls */
++#define R_PPC64_DTPMOD64      68 /* doubleword64 (sym+add)@dtpmod */
++#define R_PPC64_TPREL16               69 /* half16*   (sym+add)@tprel */
++#define R_PPC64_TPREL16_LO    70 /* half16    (sym+add)@tprel@l */
++#define R_PPC64_TPREL16_HI    71 /* half16    (sym+add)@tprel@h */
++#define R_PPC64_TPREL16_HA    72 /* half16    (sym+add)@tprel@ha */
++#define R_PPC64_TPREL64               73 /* doubleword64 (sym+add)@tprel */
++#define R_PPC64_DTPREL16      74 /* half16*   (sym+add)@dtprel */
++#define R_PPC64_DTPREL16_LO   75 /* half16    (sym+add)@dtprel@l */
++#define R_PPC64_DTPREL16_HI   76 /* half16    (sym+add)@dtprel@h */
++#define R_PPC64_DTPREL16_HA   77 /* half16    (sym+add)@dtprel@ha */
++#define R_PPC64_DTPREL64      78 /* doubleword64 (sym+add)@dtprel */
++#define R_PPC64_GOT_TLSGD16   79 /* half16*   (sym+add)@got@tlsgd */
++#define R_PPC64_GOT_TLSGD16_LO        80 /* half16    (sym+add)@got@tlsgd@l */
++#define R_PPC64_GOT_TLSGD16_HI        81 /* half16    (sym+add)@got@tlsgd@h */
++#define R_PPC64_GOT_TLSGD16_HA        82 /* half16    (sym+add)@got@tlsgd@ha */
++#define R_PPC64_GOT_TLSLD16   83 /* half16*   (sym+add)@got@tlsld */
++#define R_PPC64_GOT_TLSLD16_LO        84 /* half16    (sym+add)@got@tlsld@l */
++#define R_PPC64_GOT_TLSLD16_HI        85 /* half16    (sym+add)@got@tlsld@h */
++#define R_PPC64_GOT_TLSLD16_HA        86 /* half16    (sym+add)@got@tlsld@ha */
++#define R_PPC64_GOT_TPREL16_DS        87 /* half16ds* (sym+add)@got@tprel */
++#define R_PPC64_GOT_TPREL16_LO_DS 88 /* half16ds (sym+add)@got@tprel@l */
++#define R_PPC64_GOT_TPREL16_HI        89 /* half16    (sym+add)@got@tprel@h */
++#define R_PPC64_GOT_TPREL16_HA        90 /* half16    (sym+add)@got@tprel@ha */
++#define R_PPC64_GOT_DTPREL16_DS       91 /* half16ds* (sym+add)@got@dtprel */
++#define R_PPC64_GOT_DTPREL16_LO_DS 92 /* half16ds (sym+add)@got@dtprel@l */
++#define R_PPC64_GOT_DTPREL16_HI       93 /* half16    (sym+add)@got@dtprel@h */
++#define R_PPC64_GOT_DTPREL16_HA       94 /* half16    (sym+add)@got@dtprel@ha */
++#define R_PPC64_TPREL16_DS    95 /* half16ds* (sym+add)@tprel */
++#define R_PPC64_TPREL16_LO_DS 96 /* half16ds  (sym+add)@tprel@l */
++#define R_PPC64_TPREL16_HIGHER        97 /* half16    (sym+add)@tprel@higher */
++#define R_PPC64_TPREL16_HIGHERA       98 /* half16    (sym+add)@tprel@highera */
++#define R_PPC64_TPREL16_HIGHEST       99 /* half16    (sym+add)@tprel@highest */
++#define R_PPC64_TPREL16_HIGHESTA 100 /* half16        (sym+add)@tprel@highesta */
++#define R_PPC64_DTPREL16_DS   101 /* half16ds* (sym+add)@dtprel */
++#define R_PPC64_DTPREL16_LO_DS        102 /* half16ds (sym+add)@dtprel@l */
++#define R_PPC64_DTPREL16_HIGHER       103 /* half16   (sym+add)@dtprel@higher */
++#define R_PPC64_DTPREL16_HIGHERA 104 /* half16        (sym+add)@dtprel@highera */
++#define R_PPC64_DTPREL16_HIGHEST 105 /* half16        (sym+add)@dtprel@highest */
++#define R_PPC64_DTPREL16_HIGHESTA 106 /* half16       (sym+add)@dtprel@highesta */
++
++/* GNU extension to support local ifunc.  */
++#define R_PPC64_JMP_IREL      247
++#define R_PPC64_IRELATIVE     248
++#define R_PPC64_REL16         249     /* half16   (sym+add-.) */
++#define R_PPC64_REL16_LO      250     /* half16   (sym+add-.)@l */
++#define R_PPC64_REL16_HI      251     /* half16   (sym+add-.)@h */
++#define R_PPC64_REL16_HA      252     /* half16   (sym+add-.)@ha */
++
++/* PowerPC64 specific values for the Dyn d_tag field.  */
++#define DT_PPC64_GLINK  (DT_LOPROC + 0)
++#define DT_PPC64_OPD  (DT_LOPROC + 1)
++#define DT_PPC64_OPDSZ        (DT_LOPROC + 2)
++#define DT_PPC64_NUM    3
++
++
++/* ARM specific declarations */
++
++/* Processor specific flags for the ELF header e_flags field.  */
++#define EF_ARM_RELEXEC                0x01
++#define EF_ARM_HASENTRY               0x02
++#define EF_ARM_INTERWORK      0x04
++#define EF_ARM_APCS_26                0x08
++#define EF_ARM_APCS_FLOAT     0x10
++#define EF_ARM_PIC            0x20
++#define EF_ARM_ALIGN8         0x40 /* 8-bit structure alignment is in use */
++#define EF_ARM_NEW_ABI                0x80
++#define EF_ARM_OLD_ABI                0x100
++#define EF_ARM_SOFT_FLOAT     0x200
++#define EF_ARM_VFP_FLOAT      0x400
++#define EF_ARM_MAVERICK_FLOAT 0x800
++
++
++/* Other constants defined in the ARM ELF spec. version B-01.  */
++/* NB. These conflict with values defined above.  */
++#define EF_ARM_SYMSARESORTED  0x04
++#define EF_ARM_DYNSYMSUSESEGIDX       0x08
++#define EF_ARM_MAPSYMSFIRST   0x10
++#define EF_ARM_EABIMASK               0XFF000000
++
++/* Constants defined in AAELF.  */
++#define EF_ARM_BE8        0x00800000
++#define EF_ARM_LE8        0x00400000
++
++#define EF_ARM_EABI_VERSION(flags)    ((flags) & EF_ARM_EABIMASK)
++#define EF_ARM_EABI_UNKNOWN   0x00000000
++#define EF_ARM_EABI_VER1      0x01000000
++#define EF_ARM_EABI_VER2      0x02000000
++#define EF_ARM_EABI_VER3      0x03000000
++#define EF_ARM_EABI_VER4      0x04000000
++#define EF_ARM_EABI_VER5      0x05000000
++
++/* Additional symbol types for Thumb.  */
++#define STT_ARM_TFUNC         STT_LOPROC /* A Thumb function.  */
++#define STT_ARM_16BIT         STT_HIPROC /* A Thumb label.  */
++
++/* ARM-specific values for sh_flags */
++#define SHF_ARM_ENTRYSECT     0x10000000 /* Section contains an entry point */
++#define SHF_ARM_COMDEF                0x80000000 /* Section may be multiply defined
++                                            in the input to a link step.  */
++
++/* ARM-specific program header flags */
++#define PF_ARM_SB             0x10000000 /* Segment contains the location
++                                            addressed by the static base. */
++#define PF_ARM_PI             0x20000000 /* Position-independent segment.  */
++#define PF_ARM_ABS            0x40000000 /* Absolute segment.  */
++
++/* Processor specific values for the Phdr p_type field.  */
++#define PT_ARM_EXIDX          (PT_LOPROC + 1) /* ARM unwind segment.  */
++
++/* Processor specific values for the Shdr sh_type field.  */
++#define SHT_ARM_EXIDX         (SHT_LOPROC + 1) /* ARM unwind section.  */
++#define SHT_ARM_PREEMPTMAP    (SHT_LOPROC + 2) /* Preemption details.  */
++#define SHT_ARM_ATTRIBUTES    (SHT_LOPROC + 3) /* ARM attributes section.  */
++
++
++/* ARM relocs.  */
++
++#define R_ARM_NONE            0       /* No reloc */
++#define R_ARM_PC24            1       /* PC relative 26 bit branch */
++#define R_ARM_ABS32           2       /* Direct 32 bit  */
++#define R_ARM_REL32           3       /* PC relative 32 bit */
++#define R_ARM_PC13            4
++#define R_ARM_ABS16           5       /* Direct 16 bit */
++#define R_ARM_ABS12           6       /* Direct 12 bit */
++#define R_ARM_THM_ABS5                7
++#define R_ARM_ABS8            8       /* Direct 8 bit */
++#define R_ARM_SBREL32         9
++#define R_ARM_THM_PC22                10
++#define R_ARM_THM_PC8         11
++#define R_ARM_AMP_VCALL9      12
++#define R_ARM_SWI24           13      /* Obsolete static relocation.  */
++#define R_ARM_TLS_DESC                13      /* Dynamic relocation.  */
++#define R_ARM_THM_SWI8                14
++#define R_ARM_XPC25           15
++#define R_ARM_THM_XPC22               16
++#define R_ARM_TLS_DTPMOD32    17      /* ID of module containing symbol */
++#define R_ARM_TLS_DTPOFF32    18      /* Offset in TLS block */
++#define R_ARM_TLS_TPOFF32     19      /* Offset in static TLS block */
++#define R_ARM_COPY            20      /* Copy symbol at runtime */
++#define R_ARM_GLOB_DAT                21      /* Create GOT entry */
++#define R_ARM_JUMP_SLOT               22      /* Create PLT entry */
++#define R_ARM_RELATIVE                23      /* Adjust by program base */
++#define R_ARM_GOTOFF          24      /* 32 bit offset to GOT */
++#define R_ARM_GOTPC           25      /* 32 bit PC relative offset to GOT */
++#define R_ARM_GOT32           26      /* 32 bit GOT entry */
++#define R_ARM_PLT32           27      /* 32 bit PLT address */
++#define R_ARM_ALU_PCREL_7_0   32
++#define R_ARM_ALU_PCREL_15_8  33
++#define R_ARM_ALU_PCREL_23_15 34
++#define R_ARM_LDR_SBREL_11_0  35
++#define R_ARM_ALU_SBREL_19_12 36
++#define R_ARM_ALU_SBREL_27_20 37
++#define R_ARM_TLS_GOTDESC     90
++#define R_ARM_TLS_CALL                91
++#define R_ARM_TLS_DESCSEQ     92
++#define R_ARM_THM_TLS_CALL    93
++#define R_ARM_GNU_VTENTRY     100
++#define R_ARM_GNU_VTINHERIT   101
++#define R_ARM_THM_PC11                102     /* thumb unconditional branch */
++#define R_ARM_THM_PC9         103     /* thumb conditional branch */
++#define R_ARM_TLS_GD32                104     /* PC-rel 32 bit for global dynamic
++                                         thread local data */
++#define R_ARM_TLS_LDM32               105     /* PC-rel 32 bit for local dynamic
++                                         thread local data */
++#define R_ARM_TLS_LDO32               106     /* 32 bit offset relative to TLS
++                                         block */
++#define R_ARM_TLS_IE32                107     /* PC-rel 32 bit for GOT entry of
++                                         static TLS block offset */
++#define R_ARM_TLS_LE32                108     /* 32 bit offset relative to static
++                                         TLS block */
++#define       R_ARM_THM_TLS_DESCSEQ   129
++#define R_ARM_IRELATIVE               160
++#define R_ARM_RXPC25          249
++#define R_ARM_RSBREL32                250
++#define R_ARM_THM_RPC22               251
++#define R_ARM_RREL32          252
++#define R_ARM_RABS22          253
++#define R_ARM_RPC24           254
++#define R_ARM_RBASE           255
++/* Keep this the last entry.  */
++#define R_ARM_NUM             256
++
++/* IA-64 specific declarations.  */
++
++/* Processor specific flags for the Ehdr e_flags field.  */
++#define EF_IA_64_MASKOS               0x0000000f      /* os-specific flags */
++#define EF_IA_64_ABI64                0x00000010      /* 64-bit ABI */
++#define EF_IA_64_ARCH         0xff000000      /* arch. version mask */
++
++/* Processor specific values for the Phdr p_type field.  */
++#define PT_IA_64_ARCHEXT      (PT_LOPROC + 0) /* arch extension bits */
++#define PT_IA_64_UNWIND               (PT_LOPROC + 1) /* ia64 unwind bits */
++#define PT_IA_64_HP_OPT_ANOT  (PT_LOOS + 0x12)
++#define PT_IA_64_HP_HSL_ANOT  (PT_LOOS + 0x13)
++#define PT_IA_64_HP_STACK     (PT_LOOS + 0x14)
++
++/* Processor specific flags for the Phdr p_flags field.  */
++#define PF_IA_64_NORECOV      0x80000000      /* spec insns w/o recovery */
++
++/* Processor specific values for the Shdr sh_type field.  */
++#define SHT_IA_64_EXT         (SHT_LOPROC + 0) /* extension bits */
++#define SHT_IA_64_UNWIND      (SHT_LOPROC + 1) /* unwind bits */
++
++/* Processor specific flags for the Shdr sh_flags field.  */
++#define SHF_IA_64_SHORT               0x10000000      /* section near gp */
++#define SHF_IA_64_NORECOV     0x20000000      /* spec insns w/o recovery */
++
++/* Processor specific values for the Dyn d_tag field.  */
++#define DT_IA_64_PLT_RESERVE  (DT_LOPROC + 0)
++#define DT_IA_64_NUM          1
++
++/* IA-64 relocations.  */
++#define R_IA64_NONE           0x00    /* none */
++#define R_IA64_IMM14          0x21    /* symbol + addend, add imm14 */
++#define R_IA64_IMM22          0x22    /* symbol + addend, add imm22 */
++#define R_IA64_IMM64          0x23    /* symbol + addend, mov imm64 */
++#define R_IA64_DIR32MSB               0x24    /* symbol + addend, data4 MSB */
++#define R_IA64_DIR32LSB               0x25    /* symbol + addend, data4 LSB */
++#define R_IA64_DIR64MSB               0x26    /* symbol + addend, data8 MSB */
++#define R_IA64_DIR64LSB               0x27    /* symbol + addend, data8 LSB */
++#define R_IA64_GPREL22                0x2a    /* @gprel(sym + add), add imm22 */
++#define R_IA64_GPREL64I               0x2b    /* @gprel(sym + add), mov imm64 */
++#define R_IA64_GPREL32MSB     0x2c    /* @gprel(sym + add), data4 MSB */
++#define R_IA64_GPREL32LSB     0x2d    /* @gprel(sym + add), data4 LSB */
++#define R_IA64_GPREL64MSB     0x2e    /* @gprel(sym + add), data8 MSB */
++#define R_IA64_GPREL64LSB     0x2f    /* @gprel(sym + add), data8 LSB */
++#define R_IA64_LTOFF22                0x32    /* @ltoff(sym + add), add imm22 */
++#define R_IA64_LTOFF64I               0x33    /* @ltoff(sym + add), mov imm64 */
++#define R_IA64_PLTOFF22               0x3a    /* @pltoff(sym + add), add imm22 */
++#define R_IA64_PLTOFF64I      0x3b    /* @pltoff(sym + add), mov imm64 */
++#define R_IA64_PLTOFF64MSB    0x3e    /* @pltoff(sym + add), data8 MSB */
++#define R_IA64_PLTOFF64LSB    0x3f    /* @pltoff(sym + add), data8 LSB */
++#define R_IA64_FPTR64I                0x43    /* @fptr(sym + add), mov imm64 */
++#define R_IA64_FPTR32MSB      0x44    /* @fptr(sym + add), data4 MSB */
++#define R_IA64_FPTR32LSB      0x45    /* @fptr(sym + add), data4 LSB */
++#define R_IA64_FPTR64MSB      0x46    /* @fptr(sym + add), data8 MSB */
++#define R_IA64_FPTR64LSB      0x47    /* @fptr(sym + add), data8 LSB */
++#define R_IA64_PCREL60B               0x48    /* @pcrel(sym + add), brl */
++#define R_IA64_PCREL21B               0x49    /* @pcrel(sym + add), ptb, call */
++#define R_IA64_PCREL21M               0x4a    /* @pcrel(sym + add), chk.s */
++#define R_IA64_PCREL21F               0x4b    /* @pcrel(sym + add), fchkf */
++#define R_IA64_PCREL32MSB     0x4c    /* @pcrel(sym + add), data4 MSB */
++#define R_IA64_PCREL32LSB     0x4d    /* @pcrel(sym + add), data4 LSB */
++#define R_IA64_PCREL64MSB     0x4e    /* @pcrel(sym + add), data8 MSB */
++#define R_IA64_PCREL64LSB     0x4f    /* @pcrel(sym + add), data8 LSB */
++#define R_IA64_LTOFF_FPTR22   0x52    /* @ltoff(@fptr(s+a)), imm22 */
++#define R_IA64_LTOFF_FPTR64I  0x53    /* @ltoff(@fptr(s+a)), imm64 */
++#define R_IA64_LTOFF_FPTR32MSB        0x54    /* @ltoff(@fptr(s+a)), data4 MSB */
++#define R_IA64_LTOFF_FPTR32LSB        0x55    /* @ltoff(@fptr(s+a)), data4 LSB */
++#define R_IA64_LTOFF_FPTR64MSB        0x56    /* @ltoff(@fptr(s+a)), data8 MSB */
++#define R_IA64_LTOFF_FPTR64LSB        0x57    /* @ltoff(@fptr(s+a)), data8 LSB */
++#define R_IA64_SEGREL32MSB    0x5c    /* @segrel(sym + add), data4 MSB */
++#define R_IA64_SEGREL32LSB    0x5d    /* @segrel(sym + add), data4 LSB */
++#define R_IA64_SEGREL64MSB    0x5e    /* @segrel(sym + add), data8 MSB */
++#define R_IA64_SEGREL64LSB    0x5f    /* @segrel(sym + add), data8 LSB */
++#define R_IA64_SECREL32MSB    0x64    /* @secrel(sym + add), data4 MSB */
++#define R_IA64_SECREL32LSB    0x65    /* @secrel(sym + add), data4 LSB */
++#define R_IA64_SECREL64MSB    0x66    /* @secrel(sym + add), data8 MSB */
++#define R_IA64_SECREL64LSB    0x67    /* @secrel(sym + add), data8 LSB */
++#define R_IA64_REL32MSB               0x6c    /* data 4 + REL */
++#define R_IA64_REL32LSB               0x6d    /* data 4 + REL */
++#define R_IA64_REL64MSB               0x6e    /* data 8 + REL */
++#define R_IA64_REL64LSB               0x6f    /* data 8 + REL */
++#define R_IA64_LTV32MSB               0x74    /* symbol + addend, data4 MSB */
++#define R_IA64_LTV32LSB               0x75    /* symbol + addend, data4 LSB */
++#define R_IA64_LTV64MSB               0x76    /* symbol + addend, data8 MSB */
++#define R_IA64_LTV64LSB               0x77    /* symbol + addend, data8 LSB */
++#define R_IA64_PCREL21BI      0x79    /* @pcrel(sym + add), 21bit inst */
++#define R_IA64_PCREL22                0x7a    /* @pcrel(sym + add), 22bit inst */
++#define R_IA64_PCREL64I               0x7b    /* @pcrel(sym + add), 64bit inst */
++#define R_IA64_IPLTMSB                0x80    /* dynamic reloc, imported PLT, MSB */
++#define R_IA64_IPLTLSB                0x81    /* dynamic reloc, imported PLT, LSB */
++#define R_IA64_COPY           0x84    /* copy relocation */
++#define R_IA64_SUB            0x85    /* Addend and symbol difference */
++#define R_IA64_LTOFF22X               0x86    /* LTOFF22, relaxable.  */
++#define R_IA64_LDXMOV         0x87    /* Use of LTOFF22X.  */
++#define R_IA64_TPREL14                0x91    /* @tprel(sym + add), imm14 */
++#define R_IA64_TPREL22                0x92    /* @tprel(sym + add), imm22 */
++#define R_IA64_TPREL64I               0x93    /* @tprel(sym + add), imm64 */
++#define R_IA64_TPREL64MSB     0x96    /* @tprel(sym + add), data8 MSB */
++#define R_IA64_TPREL64LSB     0x97    /* @tprel(sym + add), data8 LSB */
++#define R_IA64_LTOFF_TPREL22  0x9a    /* @ltoff(@tprel(s+a)), imm2 */
++#define R_IA64_DTPMOD64MSB    0xa6    /* @dtpmod(sym + add), data8 MSB */
++#define R_IA64_DTPMOD64LSB    0xa7    /* @dtpmod(sym + add), data8 LSB */
++#define R_IA64_LTOFF_DTPMOD22 0xaa    /* @ltoff(@dtpmod(sym + add)), imm22 */
++#define R_IA64_DTPREL14               0xb1    /* @dtprel(sym + add), imm14 */
++#define R_IA64_DTPREL22               0xb2    /* @dtprel(sym + add), imm22 */
++#define R_IA64_DTPREL64I      0xb3    /* @dtprel(sym + add), imm64 */
++#define R_IA64_DTPREL32MSB    0xb4    /* @dtprel(sym + add), data4 MSB */
++#define R_IA64_DTPREL32LSB    0xb5    /* @dtprel(sym + add), data4 LSB */
++#define R_IA64_DTPREL64MSB    0xb6    /* @dtprel(sym + add), data8 MSB */
++#define R_IA64_DTPREL64LSB    0xb7    /* @dtprel(sym + add), data8 LSB */
++#define R_IA64_LTOFF_DTPREL22 0xba    /* @ltoff(@dtprel(s+a)), imm22 */
++
++/* SH specific declarations */
++
++/* Processor specific flags for the ELF header e_flags field.  */
++#define EF_SH_MACH_MASK               0x1f
++#define EF_SH_UNKNOWN         0x0
++#define EF_SH1                        0x1
++#define EF_SH2                        0x2
++#define EF_SH3                        0x3
++#define EF_SH_DSP             0x4
++#define EF_SH3_DSP            0x5
++#define EF_SH4AL_DSP          0x6
++#define EF_SH3E                       0x8
++#define EF_SH4                        0x9
++#define EF_SH2E                       0xb
++#define EF_SH4A                       0xc
++#define EF_SH2A                       0xd
++#define EF_SH4_NOFPU          0x10
++#define EF_SH4A_NOFPU         0x11
++#define EF_SH4_NOMMU_NOFPU    0x12
++#define EF_SH2A_NOFPU         0x13
++#define EF_SH3_NOMMU          0x14
++#define EF_SH2A_SH4_NOFPU     0x15
++#define EF_SH2A_SH3_NOFPU     0x16
++#define EF_SH2A_SH4           0x17
++#define EF_SH2A_SH3E          0x18
++
++/* SH relocs.  */
++#define       R_SH_NONE               0
++#define       R_SH_DIR32              1
++#define       R_SH_REL32              2
++#define       R_SH_DIR8WPN            3
++#define       R_SH_IND12W             4
++#define       R_SH_DIR8WPL            5
++#define       R_SH_DIR8WPZ            6
++#define       R_SH_DIR8BP             7
++#define       R_SH_DIR8W              8
++#define       R_SH_DIR8L              9
++#define       R_SH_SWITCH16           25
++#define       R_SH_SWITCH32           26
++#define       R_SH_USES               27
++#define       R_SH_COUNT              28
++#define       R_SH_ALIGN              29
++#define       R_SH_CODE               30
++#define       R_SH_DATA               31
++#define       R_SH_LABEL              32
++#define       R_SH_SWITCH8            33
++#define       R_SH_GNU_VTINHERIT      34
++#define       R_SH_GNU_VTENTRY        35
++#define       R_SH_TLS_GD_32          144
++#define       R_SH_TLS_LD_32          145
++#define       R_SH_TLS_LDO_32         146
++#define       R_SH_TLS_IE_32          147
++#define       R_SH_TLS_LE_32          148
++#define       R_SH_TLS_DTPMOD32       149
++#define       R_SH_TLS_DTPOFF32       150
++#define       R_SH_TLS_TPOFF32        151
++#define       R_SH_GOT32              160
++#define       R_SH_PLT32              161
++#define       R_SH_COPY               162
++#define       R_SH_GLOB_DAT           163
++#define       R_SH_JMP_SLOT           164
++#define       R_SH_RELATIVE           165
++#define       R_SH_GOTOFF             166
++#define       R_SH_GOTPC              167
++/* Keep this the last entry.  */
++#define       R_SH_NUM                256
++
++/* S/390 specific definitions.  */
++
++/* Valid values for the e_flags field.  */
++
++#define EF_S390_HIGH_GPRS    0x00000001  /* High GPRs kernel facility needed.  */
++
++/* Additional s390 relocs */
++
++#define R_390_NONE            0       /* No reloc.  */
++#define R_390_8                       1       /* Direct 8 bit.  */
++#define R_390_12              2       /* Direct 12 bit.  */
++#define R_390_16              3       /* Direct 16 bit.  */
++#define R_390_32              4       /* Direct 32 bit.  */
++#define R_390_PC32            5       /* PC relative 32 bit.  */
++#define R_390_GOT12           6       /* 12 bit GOT offset.  */
++#define R_390_GOT32           7       /* 32 bit GOT offset.  */
++#define R_390_PLT32           8       /* 32 bit PC relative PLT address.  */
++#define R_390_COPY            9       /* Copy symbol at runtime.  */
++#define R_390_GLOB_DAT                10      /* Create GOT entry.  */
++#define R_390_JMP_SLOT                11      /* Create PLT entry.  */
++#define R_390_RELATIVE                12      /* Adjust by program base.  */
++#define R_390_GOTOFF32                13      /* 32 bit offset to GOT.         */
++#define R_390_GOTPC           14      /* 32 bit PC relative offset to GOT.  */
++#define R_390_GOT16           15      /* 16 bit GOT offset.  */
++#define R_390_PC16            16      /* PC relative 16 bit.  */
++#define R_390_PC16DBL         17      /* PC relative 16 bit shifted by 1.  */
++#define R_390_PLT16DBL                18      /* 16 bit PC rel. PLT shifted by 1.  */
++#define R_390_PC32DBL         19      /* PC relative 32 bit shifted by 1.  */
++#define R_390_PLT32DBL                20      /* 32 bit PC rel. PLT shifted by 1.  */
++#define R_390_GOTPCDBL                21      /* 32 bit PC rel. GOT shifted by 1.  */
++#define R_390_64              22      /* Direct 64 bit.  */
++#define R_390_PC64            23      /* PC relative 64 bit.  */
++#define R_390_GOT64           24      /* 64 bit GOT offset.  */
++#define R_390_PLT64           25      /* 64 bit PC relative PLT address.  */
++#define R_390_GOTENT          26      /* 32 bit PC rel. to GOT entry >> 1. */
++#define R_390_GOTOFF16                27      /* 16 bit offset to GOT. */
++#define R_390_GOTOFF64                28      /* 64 bit offset to GOT. */
++#define R_390_GOTPLT12                29      /* 12 bit offset to jump slot.  */
++#define R_390_GOTPLT16                30      /* 16 bit offset to jump slot.  */
++#define R_390_GOTPLT32                31      /* 32 bit offset to jump slot.  */
++#define R_390_GOTPLT64                32      /* 64 bit offset to jump slot.  */
++#define R_390_GOTPLTENT               33      /* 32 bit rel. offset to jump slot.  */
++#define R_390_PLTOFF16                34      /* 16 bit offset from GOT to PLT. */
++#define R_390_PLTOFF32                35      /* 32 bit offset from GOT to PLT. */
++#define R_390_PLTOFF64                36      /* 16 bit offset from GOT to PLT. */
++#define R_390_TLS_LOAD                37      /* Tag for load insn in TLS code.  */
++#define R_390_TLS_GDCALL      38      /* Tag for function call in general
++                                         dynamic TLS code. */
++#define R_390_TLS_LDCALL      39      /* Tag for function call in local
++                                         dynamic TLS code. */
++#define R_390_TLS_GD32                40      /* Direct 32 bit for general dynamic
++                                         thread local data.  */
++#define R_390_TLS_GD64                41      /* Direct 64 bit for general dynamic
++                                        thread local data.  */
++#define R_390_TLS_GOTIE12     42      /* 12 bit GOT offset for static TLS
++                                         block offset.  */
++#define R_390_TLS_GOTIE32     43      /* 32 bit GOT offset for static TLS
++                                         block offset.  */
++#define R_390_TLS_GOTIE64     44      /* 64 bit GOT offset for static TLS
++                                         block offset. */
++#define R_390_TLS_LDM32               45      /* Direct 32 bit for local dynamic
++                                         thread local data in LE code.  */
++#define R_390_TLS_LDM64               46      /* Direct 64 bit for local dynamic
++                                         thread local data in LE code.  */
++#define R_390_TLS_IE32                47      /* 32 bit address of GOT entry for
++                                         negated static TLS block offset.  */
++#define R_390_TLS_IE64                48      /* 64 bit address of GOT entry for
++                                         negated static TLS block offset.  */
++#define R_390_TLS_IEENT               49      /* 32 bit rel. offset to GOT entry for
++                                         negated static TLS block offset.  */
++#define R_390_TLS_LE32                50      /* 32 bit negated offset relative to
++                                         static TLS block.  */
++#define R_390_TLS_LE64                51      /* 64 bit negated offset relative to
++                                         static TLS block.  */
++#define R_390_TLS_LDO32               52      /* 32 bit offset relative to TLS
++                                         block.  */
++#define R_390_TLS_LDO64               53      /* 64 bit offset relative to TLS
++                                         block.  */
++#define R_390_TLS_DTPMOD      54      /* ID of module containing symbol.  */
++#define R_390_TLS_DTPOFF      55      /* Offset in TLS block.  */
++#define R_390_TLS_TPOFF               56      /* Negated offset in static TLS
++                                         block.  */
++#define R_390_20              57      /* Direct 20 bit.  */
++#define R_390_GOT20           58      /* 20 bit GOT offset.  */
++#define R_390_GOTPLT20                59      /* 20 bit offset to jump slot.  */
++#define R_390_TLS_GOTIE20     60      /* 20 bit GOT offset for static TLS
++                                         block offset.  */
++#define R_390_IRELATIVE         61      /* STT_GNU_IFUNC relocation.  */
++/* Keep this the last entry.  */
++#define R_390_NUM             62
++
++
++/* CRIS relocations.  */
++#define R_CRIS_NONE           0
++#define R_CRIS_8              1
++#define R_CRIS_16             2
++#define R_CRIS_32             3
++#define R_CRIS_8_PCREL                4
++#define R_CRIS_16_PCREL               5
++#define R_CRIS_32_PCREL               6
++#define R_CRIS_GNU_VTINHERIT  7
++#define R_CRIS_GNU_VTENTRY    8
++#define R_CRIS_COPY           9
++#define R_CRIS_GLOB_DAT               10
++#define R_CRIS_JUMP_SLOT      11
++#define R_CRIS_RELATIVE               12
++#define R_CRIS_16_GOT         13
++#define R_CRIS_32_GOT         14
++#define R_CRIS_16_GOTPLT      15
++#define R_CRIS_32_GOTPLT      16
++#define R_CRIS_32_GOTREL      17
++#define R_CRIS_32_PLT_GOTREL  18
++#define R_CRIS_32_PLT_PCREL   19
++
++#define R_CRIS_NUM            20
++
++
++/* AMD x86-64 relocations.  */
++#define R_X86_64_NONE         0       /* No reloc */
++#define R_X86_64_64           1       /* Direct 64 bit  */
++#define R_X86_64_PC32         2       /* PC relative 32 bit signed */
++#define R_X86_64_GOT32                3       /* 32 bit GOT entry */
++#define R_X86_64_PLT32                4       /* 32 bit PLT address */
++#define R_X86_64_COPY         5       /* Copy symbol at runtime */
++#define R_X86_64_GLOB_DAT     6       /* Create GOT entry */
++#define R_X86_64_JUMP_SLOT    7       /* Create PLT entry */
++#define R_X86_64_RELATIVE     8       /* Adjust by program base */
++#define R_X86_64_GOTPCREL     9       /* 32 bit signed PC relative
++                                         offset to GOT */
++#define R_X86_64_32           10      /* Direct 32 bit zero extended */
++#define R_X86_64_32S          11      /* Direct 32 bit sign extended */
++#define R_X86_64_16           12      /* Direct 16 bit zero extended */
++#define R_X86_64_PC16         13      /* 16 bit sign extended pc relative */
++#define R_X86_64_8            14      /* Direct 8 bit sign extended  */
++#define R_X86_64_PC8          15      /* 8 bit sign extended pc relative */
++#define R_X86_64_DTPMOD64     16      /* ID of module containing symbol */
++#define R_X86_64_DTPOFF64     17      /* Offset in module's TLS block */
++#define R_X86_64_TPOFF64      18      /* Offset in initial TLS block */
++#define R_X86_64_TLSGD                19      /* 32 bit signed PC relative offset
++                                         to two GOT entries for GD symbol */
++#define R_X86_64_TLSLD                20      /* 32 bit signed PC relative offset
++                                         to two GOT entries for LD symbol */
++#define R_X86_64_DTPOFF32     21      /* Offset in TLS block */
++#define R_X86_64_GOTTPOFF     22      /* 32 bit signed PC relative offset
++                                         to GOT entry for IE symbol */
++#define R_X86_64_TPOFF32      23      /* Offset in initial TLS block */
++#define R_X86_64_PC64         24      /* PC relative 64 bit */
++#define R_X86_64_GOTOFF64     25      /* 64 bit offset to GOT */
++#define R_X86_64_GOTPC32      26      /* 32 bit signed pc relative
++                                         offset to GOT */
++#define R_X86_64_GOT64                27      /* 64-bit GOT entry offset */
++#define R_X86_64_GOTPCREL64   28      /* 64-bit PC relative offset
++                                         to GOT entry */
++#define R_X86_64_GOTPC64      29      /* 64-bit PC relative offset to GOT */
++#define R_X86_64_GOTPLT64     30      /* like GOT64, says PLT entry needed */
++#define R_X86_64_PLTOFF64     31      /* 64-bit GOT relative offset
++                                         to PLT entry */
++#define R_X86_64_SIZE32               32      /* Size of symbol plus 32-bit addend */
++#define R_X86_64_SIZE64               33      /* Size of symbol plus 64-bit addend */
++#define R_X86_64_GOTPC32_TLSDESC 34   /* GOT offset for TLS descriptor.  */
++#define R_X86_64_TLSDESC_CALL   35    /* Marker for call through TLS
++                                         descriptor.  */
++#define R_X86_64_TLSDESC        36    /* TLS descriptor.  */
++#define R_X86_64_IRELATIVE    37      /* Adjust indirectly by program base */
++#define R_X86_64_RELATIVE64   38      /* 64-bit adjust by program base */
++
++#define R_X86_64_NUM          39
++
++
++/* AM33 relocations.  */
++#define R_MN10300_NONE                0       /* No reloc.  */
++#define R_MN10300_32          1       /* Direct 32 bit.  */
++#define R_MN10300_16          2       /* Direct 16 bit.  */
++#define R_MN10300_8           3       /* Direct 8 bit.  */
++#define R_MN10300_PCREL32     4       /* PC-relative 32-bit.  */
++#define R_MN10300_PCREL16     5       /* PC-relative 16-bit signed.  */
++#define R_MN10300_PCREL8      6       /* PC-relative 8-bit signed.  */
++#define R_MN10300_GNU_VTINHERIT       7       /* Ancient C++ vtable garbage... */
++#define R_MN10300_GNU_VTENTRY 8       /* ... collection annotation.  */
++#define R_MN10300_24          9       /* Direct 24 bit.  */
++#define R_MN10300_GOTPC32     10      /* 32-bit PCrel offset to GOT.  */
++#define R_MN10300_GOTPC16     11      /* 16-bit PCrel offset to GOT.  */
++#define R_MN10300_GOTOFF32    12      /* 32-bit offset from GOT.  */
++#define R_MN10300_GOTOFF24    13      /* 24-bit offset from GOT.  */
++#define R_MN10300_GOTOFF16    14      /* 16-bit offset from GOT.  */
++#define R_MN10300_PLT32               15      /* 32-bit PCrel to PLT entry.  */
++#define R_MN10300_PLT16               16      /* 16-bit PCrel to PLT entry.  */
++#define R_MN10300_GOT32               17      /* 32-bit offset to GOT entry.  */
++#define R_MN10300_GOT24               18      /* 24-bit offset to GOT entry.  */
++#define R_MN10300_GOT16               19      /* 16-bit offset to GOT entry.  */
++#define R_MN10300_COPY                20      /* Copy symbol at runtime.  */
++#define R_MN10300_GLOB_DAT    21      /* Create GOT entry.  */
++#define R_MN10300_JMP_SLOT    22      /* Create PLT entry.  */
++#define R_MN10300_RELATIVE    23      /* Adjust by program base.  */
++
++#define R_MN10300_NUM         24
++
++
++/* M32R relocs.  */
++#define R_M32R_NONE           0       /* No reloc. */
++#define R_M32R_16             1       /* Direct 16 bit. */
++#define R_M32R_32             2       /* Direct 32 bit. */
++#define R_M32R_24             3       /* Direct 24 bit. */
++#define R_M32R_10_PCREL               4       /* PC relative 10 bit shifted. */
++#define R_M32R_18_PCREL               5       /* PC relative 18 bit shifted. */
++#define R_M32R_26_PCREL               6       /* PC relative 26 bit shifted. */
++#define R_M32R_HI16_ULO               7       /* High 16 bit with unsigned low. */
++#define R_M32R_HI16_SLO               8       /* High 16 bit with signed low. */
++#define R_M32R_LO16           9       /* Low 16 bit. */
++#define R_M32R_SDA16          10      /* 16 bit offset in SDA. */
++#define R_M32R_GNU_VTINHERIT  11
++#define R_M32R_GNU_VTENTRY    12
++/* M32R relocs use SHT_RELA.  */
++#define R_M32R_16_RELA                33      /* Direct 16 bit. */
++#define R_M32R_32_RELA                34      /* Direct 32 bit. */
++#define R_M32R_24_RELA                35      /* Direct 24 bit. */
++#define R_M32R_10_PCREL_RELA  36      /* PC relative 10 bit shifted. */
++#define R_M32R_18_PCREL_RELA  37      /* PC relative 18 bit shifted. */
++#define R_M32R_26_PCREL_RELA  38      /* PC relative 26 bit shifted. */
++#define R_M32R_HI16_ULO_RELA  39      /* High 16 bit with unsigned low */
++#define R_M32R_HI16_SLO_RELA  40      /* High 16 bit with signed low */
++#define R_M32R_LO16_RELA      41      /* Low 16 bit */
++#define R_M32R_SDA16_RELA     42      /* 16 bit offset in SDA */
++#define R_M32R_RELA_GNU_VTINHERIT     43
++#define R_M32R_RELA_GNU_VTENTRY       44
++#define R_M32R_REL32          45      /* PC relative 32 bit.  */
++
++#define R_M32R_GOT24          48      /* 24 bit GOT entry */
++#define R_M32R_26_PLTREL      49      /* 26 bit PC relative to PLT shifted */
++#define R_M32R_COPY           50      /* Copy symbol at runtime */
++#define R_M32R_GLOB_DAT               51      /* Create GOT entry */
++#define R_M32R_JMP_SLOT               52      /* Create PLT entry */
++#define R_M32R_RELATIVE               53      /* Adjust by program base */
++#define R_M32R_GOTOFF         54      /* 24 bit offset to GOT */
++#define R_M32R_GOTPC24                55      /* 24 bit PC relative offset to GOT */
++#define R_M32R_GOT16_HI_ULO   56      /* High 16 bit GOT entry with unsigned
++                                         low */
++#define R_M32R_GOT16_HI_SLO   57      /* High 16 bit GOT entry with signed
++                                         low */
++#define R_M32R_GOT16_LO               58      /* Low 16 bit GOT entry */
++#define R_M32R_GOTPC_HI_ULO   59      /* High 16 bit PC relative offset to
++                                         GOT with unsigned low */
++#define R_M32R_GOTPC_HI_SLO   60      /* High 16 bit PC relative offset to
++                                         GOT with signed low */
++#define R_M32R_GOTPC_LO               61      /* Low 16 bit PC relative offset to
++                                         GOT */
++#define R_M32R_GOTOFF_HI_ULO  62      /* High 16 bit offset to GOT
++                                         with unsigned low */
++#define R_M32R_GOTOFF_HI_SLO  63      /* High 16 bit offset to GOT
++                                         with signed low */
++#define R_M32R_GOTOFF_LO      64      /* Low 16 bit offset to GOT */
++#define R_M32R_NUM            256     /* Keep this the last entry. */
++
++
++/* TILEPro relocations.  */
++#define R_TILEPRO_NONE                0       /* No reloc */
++#define R_TILEPRO_32          1       /* Direct 32 bit */
++#define R_TILEPRO_16          2       /* Direct 16 bit */
++#define R_TILEPRO_8           3       /* Direct 8 bit */
++#define R_TILEPRO_32_PCREL    4       /* PC relative 32 bit */
++#define R_TILEPRO_16_PCREL    5       /* PC relative 16 bit */
++#define R_TILEPRO_8_PCREL     6       /* PC relative 8 bit */
++#define R_TILEPRO_LO16                7       /* Low 16 bit */
++#define R_TILEPRO_HI16                8       /* High 16 bit */
++#define R_TILEPRO_HA16                9       /* High 16 bit, adjusted */
++#define R_TILEPRO_COPY                10      /* Copy relocation */
++#define R_TILEPRO_GLOB_DAT    11      /* Create GOT entry */
++#define R_TILEPRO_JMP_SLOT    12      /* Create PLT entry */
++#define R_TILEPRO_RELATIVE    13      /* Adjust by program base */
++#define R_TILEPRO_BROFF_X1    14      /* X1 pipe branch offset */
++#define R_TILEPRO_JOFFLONG_X1 15      /* X1 pipe jump offset */
++#define R_TILEPRO_JOFFLONG_X1_PLT 16  /* X1 pipe jump offset to PLT */
++#define R_TILEPRO_IMM8_X0     17      /* X0 pipe 8-bit */
++#define R_TILEPRO_IMM8_Y0     18      /* Y0 pipe 8-bit */
++#define R_TILEPRO_IMM8_X1     19      /* X1 pipe 8-bit */
++#define R_TILEPRO_IMM8_Y1     20      /* Y1 pipe 8-bit */
++#define R_TILEPRO_MT_IMM15_X1 21      /* X1 pipe mtspr */
++#define R_TILEPRO_MF_IMM15_X1 22      /* X1 pipe mfspr */
++#define R_TILEPRO_IMM16_X0    23      /* X0 pipe 16-bit */
++#define R_TILEPRO_IMM16_X1    24      /* X1 pipe 16-bit */
++#define R_TILEPRO_IMM16_X0_LO 25      /* X0 pipe low 16-bit */
++#define R_TILEPRO_IMM16_X1_LO 26      /* X1 pipe low 16-bit */
++#define R_TILEPRO_IMM16_X0_HI 27      /* X0 pipe high 16-bit */
++#define R_TILEPRO_IMM16_X1_HI 28      /* X1 pipe high 16-bit */
++#define R_TILEPRO_IMM16_X0_HA 29      /* X0 pipe high 16-bit, adjusted */
++#define R_TILEPRO_IMM16_X1_HA 30      /* X1 pipe high 16-bit, adjusted */
++#define R_TILEPRO_IMM16_X0_PCREL 31   /* X0 pipe PC relative 16 bit */
++#define R_TILEPRO_IMM16_X1_PCREL 32   /* X1 pipe PC relative 16 bit */
++#define R_TILEPRO_IMM16_X0_LO_PCREL 33        /* X0 pipe PC relative low 16 bit */
++#define R_TILEPRO_IMM16_X1_LO_PCREL 34        /* X1 pipe PC relative low 16 bit */
++#define R_TILEPRO_IMM16_X0_HI_PCREL 35        /* X0 pipe PC relative high 16 bit */
++#define R_TILEPRO_IMM16_X1_HI_PCREL 36        /* X1 pipe PC relative high 16 bit */
++#define R_TILEPRO_IMM16_X0_HA_PCREL 37        /* X0 pipe PC relative ha() 16 bit */
++#define R_TILEPRO_IMM16_X1_HA_PCREL 38        /* X1 pipe PC relative ha() 16 bit */
++#define R_TILEPRO_IMM16_X0_GOT        39      /* X0 pipe 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X1_GOT        40      /* X1 pipe 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X0_GOT_LO 41  /* X0 pipe low 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X1_GOT_LO 42  /* X1 pipe low 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X0_GOT_HI 43  /* X0 pipe high 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X1_GOT_HI 44  /* X1 pipe high 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X0_GOT_HA 45  /* X0 pipe ha() 16-bit GOT offset */
++#define R_TILEPRO_IMM16_X1_GOT_HA 46  /* X1 pipe ha() 16-bit GOT offset */
++#define R_TILEPRO_MMSTART_X0  47      /* X0 pipe mm "start" */
++#define R_TILEPRO_MMEND_X0    48      /* X0 pipe mm "end" */
++#define R_TILEPRO_MMSTART_X1  49      /* X1 pipe mm "start" */
++#define R_TILEPRO_MMEND_X1    50      /* X1 pipe mm "end" */
++#define R_TILEPRO_SHAMT_X0    51      /* X0 pipe shift amount */
++#define R_TILEPRO_SHAMT_X1    52      /* X1 pipe shift amount */
++#define R_TILEPRO_SHAMT_Y0    53      /* Y0 pipe shift amount */
++#define R_TILEPRO_SHAMT_Y1    54      /* Y1 pipe shift amount */
++#define R_TILEPRO_DEST_IMM8_X1        55      /* X1 pipe destination 8-bit */
++/* Relocs 56-59 are currently not defined.  */
++#define R_TILEPRO_TLS_GD_CALL 60      /* "jal" for TLS GD */
++#define R_TILEPRO_IMM8_X0_TLS_GD_ADD 61       /* X0 pipe "addi" for TLS GD */
++#define R_TILEPRO_IMM8_X1_TLS_GD_ADD 62       /* X1 pipe "addi" for TLS GD */
++#define R_TILEPRO_IMM8_Y0_TLS_GD_ADD 63       /* Y0 pipe "addi" for TLS GD */
++#define R_TILEPRO_IMM8_Y1_TLS_GD_ADD 64       /* Y1 pipe "addi" for TLS GD */
++#define R_TILEPRO_TLS_IE_LOAD 65      /* "lw_tls" for TLS IE */
++#define R_TILEPRO_IMM16_X0_TLS_GD 66  /* X0 pipe 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X1_TLS_GD 67  /* X1 pipe 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X0_TLS_GD_LO 68       /* X0 pipe low 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X1_TLS_GD_LO 69       /* X1 pipe low 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X0_TLS_GD_HI 70       /* X0 pipe high 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X1_TLS_GD_HI 71       /* X1 pipe high 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X0_TLS_GD_HA 72       /* X0 pipe ha() 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X1_TLS_GD_HA 73       /* X1 pipe ha() 16-bit TLS GD offset */
++#define R_TILEPRO_IMM16_X0_TLS_IE 74  /* X0 pipe 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X1_TLS_IE 75  /* X1 pipe 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X0_TLS_IE_LO 76       /* X0 pipe low 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X1_TLS_IE_LO 77       /* X1 pipe low 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X0_TLS_IE_HI 78       /* X0 pipe high 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X1_TLS_IE_HI 79       /* X1 pipe high 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X0_TLS_IE_HA 80       /* X0 pipe ha() 16-bit TLS IE offset */
++#define R_TILEPRO_IMM16_X1_TLS_IE_HA 81       /* X1 pipe ha() 16-bit TLS IE offset */
++#define R_TILEPRO_TLS_DTPMOD32        82      /* ID of module containing symbol */
++#define R_TILEPRO_TLS_DTPOFF32        83      /* Offset in TLS block */
++#define R_TILEPRO_TLS_TPOFF32 84      /* Offset in static TLS block */
++#define R_TILEPRO_IMM16_X0_TLS_LE 85  /* X0 pipe 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X1_TLS_LE 86  /* X1 pipe 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X0_TLS_LE_LO 87       /* X0 pipe low 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X1_TLS_LE_LO 88       /* X1 pipe low 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X0_TLS_LE_HI 89       /* X0 pipe high 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X1_TLS_LE_HI 90       /* X1 pipe high 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X0_TLS_LE_HA 91       /* X0 pipe ha() 16-bit TLS LE offset */
++#define R_TILEPRO_IMM16_X1_TLS_LE_HA 92       /* X1 pipe ha() 16-bit TLS LE offset */
++
++#define R_TILEPRO_GNU_VTINHERIT       128     /* GNU C++ vtable hierarchy */
++#define R_TILEPRO_GNU_VTENTRY 129     /* GNU C++ vtable member usage */
++
++#define R_TILEPRO_NUM         130
++
++
++/* TILE-Gx relocations.  */
++#define R_TILEGX_NONE         0       /* No reloc */
++#define R_TILEGX_64           1       /* Direct 64 bit */
++#define R_TILEGX_32           2       /* Direct 32 bit */
++#define R_TILEGX_16           3       /* Direct 16 bit */
++#define R_TILEGX_8            4       /* Direct 8 bit */
++#define R_TILEGX_64_PCREL     5       /* PC relative 64 bit */
++#define R_TILEGX_32_PCREL     6       /* PC relative 32 bit */
++#define R_TILEGX_16_PCREL     7       /* PC relative 16 bit */
++#define R_TILEGX_8_PCREL      8       /* PC relative 8 bit */
++#define R_TILEGX_HW0          9       /* hword 0 16-bit */
++#define R_TILEGX_HW1          10      /* hword 1 16-bit */
++#define R_TILEGX_HW2          11      /* hword 2 16-bit */
++#define R_TILEGX_HW3          12      /* hword 3 16-bit */
++#define R_TILEGX_HW0_LAST     13      /* last hword 0 16-bit */
++#define R_TILEGX_HW1_LAST     14      /* last hword 1 16-bit */
++#define R_TILEGX_HW2_LAST     15      /* last hword 2 16-bit */
++#define R_TILEGX_COPY         16      /* Copy relocation */
++#define R_TILEGX_GLOB_DAT     17      /* Create GOT entry */
++#define R_TILEGX_JMP_SLOT     18      /* Create PLT entry */
++#define R_TILEGX_RELATIVE     19      /* Adjust by program base */
++#define R_TILEGX_BROFF_X1     20      /* X1 pipe branch offset */
++#define R_TILEGX_JUMPOFF_X1   21      /* X1 pipe jump offset */
++#define R_TILEGX_JUMPOFF_X1_PLT       22      /* X1 pipe jump offset to PLT */
++#define R_TILEGX_IMM8_X0      23      /* X0 pipe 8-bit */
++#define R_TILEGX_IMM8_Y0      24      /* Y0 pipe 8-bit */
++#define R_TILEGX_IMM8_X1      25      /* X1 pipe 8-bit */
++#define R_TILEGX_IMM8_Y1      26      /* Y1 pipe 8-bit */
++#define R_TILEGX_DEST_IMM8_X1 27      /* X1 pipe destination 8-bit */
++#define R_TILEGX_MT_IMM14_X1  28      /* X1 pipe mtspr */
++#define R_TILEGX_MF_IMM14_X1  29      /* X1 pipe mfspr */
++#define R_TILEGX_MMSTART_X0   30      /* X0 pipe mm "start" */
++#define R_TILEGX_MMEND_X0     31      /* X0 pipe mm "end" */
++#define R_TILEGX_SHAMT_X0     32      /* X0 pipe shift amount */
++#define R_TILEGX_SHAMT_X1     33      /* X1 pipe shift amount */
++#define R_TILEGX_SHAMT_Y0     34      /* Y0 pipe shift amount */
++#define R_TILEGX_SHAMT_Y1     35      /* Y1 pipe shift amount */
++#define R_TILEGX_IMM16_X0_HW0 36      /* X0 pipe hword 0 */
++#define R_TILEGX_IMM16_X1_HW0 37      /* X1 pipe hword 0 */
++#define R_TILEGX_IMM16_X0_HW1 38      /* X0 pipe hword 1 */
++#define R_TILEGX_IMM16_X1_HW1 39      /* X1 pipe hword 1 */
++#define R_TILEGX_IMM16_X0_HW2 40      /* X0 pipe hword 2 */
++#define R_TILEGX_IMM16_X1_HW2 41      /* X1 pipe hword 2 */
++#define R_TILEGX_IMM16_X0_HW3 42      /* X0 pipe hword 3 */
++#define R_TILEGX_IMM16_X1_HW3 43      /* X1 pipe hword 3 */
++#define R_TILEGX_IMM16_X0_HW0_LAST 44 /* X0 pipe last hword 0 */
++#define R_TILEGX_IMM16_X1_HW0_LAST 45 /* X1 pipe last hword 0 */
++#define R_TILEGX_IMM16_X0_HW1_LAST 46 /* X0 pipe last hword 1 */
++#define R_TILEGX_IMM16_X1_HW1_LAST 47 /* X1 pipe last hword 1 */
++#define R_TILEGX_IMM16_X0_HW2_LAST 48 /* X0 pipe last hword 2 */
++#define R_TILEGX_IMM16_X1_HW2_LAST 49 /* X1 pipe last hword 2 */
++#define R_TILEGX_IMM16_X0_HW0_PCREL 50        /* X0 pipe PC relative hword 0 */
++#define R_TILEGX_IMM16_X1_HW0_PCREL 51        /* X1 pipe PC relative hword 0 */
++#define R_TILEGX_IMM16_X0_HW1_PCREL 52        /* X0 pipe PC relative hword 1 */
++#define R_TILEGX_IMM16_X1_HW1_PCREL 53        /* X1 pipe PC relative hword 1 */
++#define R_TILEGX_IMM16_X0_HW2_PCREL 54        /* X0 pipe PC relative hword 2 */
++#define R_TILEGX_IMM16_X1_HW2_PCREL 55        /* X1 pipe PC relative hword 2 */
++#define R_TILEGX_IMM16_X0_HW3_PCREL 56        /* X0 pipe PC relative hword 3 */
++#define R_TILEGX_IMM16_X1_HW3_PCREL 57        /* X1 pipe PC relative hword 3 */
++#define R_TILEGX_IMM16_X0_HW0_LAST_PCREL 58 /* X0 pipe PC-rel last hword 0 */
++#define R_TILEGX_IMM16_X1_HW0_LAST_PCREL 59 /* X1 pipe PC-rel last hword 0 */
++#define R_TILEGX_IMM16_X0_HW1_LAST_PCREL 60 /* X0 pipe PC-rel last hword 1 */
++#define R_TILEGX_IMM16_X1_HW1_LAST_PCREL 61 /* X1 pipe PC-rel last hword 1 */
++#define R_TILEGX_IMM16_X0_HW2_LAST_PCREL 62 /* X0 pipe PC-rel last hword 2 */
++#define R_TILEGX_IMM16_X1_HW2_LAST_PCREL 63 /* X1 pipe PC-rel last hword 2 */
++#define R_TILEGX_IMM16_X0_HW0_GOT 64  /* X0 pipe hword 0 GOT offset */
++#define R_TILEGX_IMM16_X1_HW0_GOT 65  /* X1 pipe hword 0 GOT offset */
++/* Relocs 66-71 are currently not defined.  */
++#define R_TILEGX_IMM16_X0_HW0_LAST_GOT 72 /* X0 pipe last hword 0 GOT offset */
++#define R_TILEGX_IMM16_X1_HW0_LAST_GOT 73 /* X1 pipe last hword 0 GOT offset */
++#define R_TILEGX_IMM16_X0_HW1_LAST_GOT 74 /* X0 pipe last hword 1 GOT offset */
++#define R_TILEGX_IMM16_X1_HW1_LAST_GOT 75 /* X1 pipe last hword 1 GOT offset */
++/* Relocs 76-77 are currently not defined.  */
++#define R_TILEGX_IMM16_X0_HW0_TLS_GD 78       /* X0 pipe hword 0 TLS GD offset */
++#define R_TILEGX_IMM16_X1_HW0_TLS_GD 79       /* X1 pipe hword 0 TLS GD offset */
++#define R_TILEGX_IMM16_X0_HW0_TLS_LE 80       /* X0 pipe hword 0 TLS LE offset */
++#define R_TILEGX_IMM16_X1_HW0_TLS_LE 81       /* X1 pipe hword 0 TLS LE offset */
++#define R_TILEGX_IMM16_X0_HW0_LAST_TLS_LE 82 /* X0 pipe last hword 0 LE off */
++#define R_TILEGX_IMM16_X1_HW0_LAST_TLS_LE 83 /* X1 pipe last hword 0 LE off */
++#define R_TILEGX_IMM16_X0_HW1_LAST_TLS_LE 84 /* X0 pipe last hword 1 LE off */
++#define R_TILEGX_IMM16_X1_HW1_LAST_TLS_LE 85 /* X1 pipe last hword 1 LE off */
++#define R_TILEGX_IMM16_X0_HW0_LAST_TLS_GD 86 /* X0 pipe last hword 0 GD off */
++#define R_TILEGX_IMM16_X1_HW0_LAST_TLS_GD 87 /* X1 pipe last hword 0 GD off */
++#define R_TILEGX_IMM16_X0_HW1_LAST_TLS_GD 88 /* X0 pipe last hword 1 GD off */
++#define R_TILEGX_IMM16_X1_HW1_LAST_TLS_GD 89 /* X1 pipe last hword 1 GD off */
++/* Relocs 90-91 are currently not defined.  */
++#define R_TILEGX_IMM16_X0_HW0_TLS_IE 92       /* X0 pipe hword 0 TLS IE offset */
++#define R_TILEGX_IMM16_X1_HW0_TLS_IE 93       /* X1 pipe hword 0 TLS IE offset */
++/* Relocs 94-99 are currently not defined.  */
++#define R_TILEGX_IMM16_X0_HW0_LAST_TLS_IE 100 /* X0 pipe last hword 0 IE off */
++#define R_TILEGX_IMM16_X1_HW0_LAST_TLS_IE 101 /* X1 pipe last hword 0 IE off */
++#define R_TILEGX_IMM16_X0_HW1_LAST_TLS_IE 102 /* X0 pipe last hword 1 IE off */
++#define R_TILEGX_IMM16_X1_HW1_LAST_TLS_IE 103 /* X1 pipe last hword 1 IE off */
++/* Relocs 104-105 are currently not defined.  */
++#define R_TILEGX_TLS_DTPMOD64 106     /* 64-bit ID of symbol's module */
++#define R_TILEGX_TLS_DTPOFF64 107     /* 64-bit offset in TLS block */
++#define R_TILEGX_TLS_TPOFF64  108     /* 64-bit offset in static TLS block */
++#define R_TILEGX_TLS_DTPMOD32 109     /* 32-bit ID of symbol's module */
++#define R_TILEGX_TLS_DTPOFF32 110     /* 32-bit offset in TLS block */
++#define R_TILEGX_TLS_TPOFF32  111     /* 32-bit offset in static TLS block */
++#define R_TILEGX_TLS_GD_CALL  112     /* "jal" for TLS GD */
++#define R_TILEGX_IMM8_X0_TLS_GD_ADD 113       /* X0 pipe "addi" for TLS GD */
++#define R_TILEGX_IMM8_X1_TLS_GD_ADD 114       /* X1 pipe "addi" for TLS GD */
++#define R_TILEGX_IMM8_Y0_TLS_GD_ADD 115       /* Y0 pipe "addi" for TLS GD */
++#define R_TILEGX_IMM8_Y1_TLS_GD_ADD 116       /* Y1 pipe "addi" for TLS GD */
++#define R_TILEGX_TLS_IE_LOAD  117     /* "ld_tls" for TLS IE */
++#define R_TILEGX_IMM8_X0_TLS_ADD 118  /* X0 pipe "addi" for TLS GD/IE */
++#define R_TILEGX_IMM8_X1_TLS_ADD 119  /* X1 pipe "addi" for TLS GD/IE */
++#define R_TILEGX_IMM8_Y0_TLS_ADD 120  /* Y0 pipe "addi" for TLS GD/IE */
++#define R_TILEGX_IMM8_Y1_TLS_ADD 121  /* Y1 pipe "addi" for TLS GD/IE */
++
++#define R_TILEGX_GNU_VTINHERIT        128     /* GNU C++ vtable hierarchy */
++#define R_TILEGX_GNU_VTENTRY  129     /* GNU C++ vtable member usage */
++
++#define R_TILEGX_NUM          130
++
++#endif        /* elf.h */
diff --git a/trunk/target/linux/generic/patches-3.18/212-byteshift_portability.patch b/trunk/target/linux/generic/patches-3.18/212-byteshift_portability.patch
new file mode 100644 (file)
index 0000000..0f23ba9
--- /dev/null
@@ -0,0 +1,51 @@
+--- a/tools/include/tools/be_byteshift.h
++++ b/tools/include/tools/be_byteshift.h
+@@ -1,6 +1,10 @@
+ #ifndef _TOOLS_BE_BYTESHIFT_H
+ #define _TOOLS_BE_BYTESHIFT_H
++#ifndef __linux__
++#include "linux_types.h"
++#endif
++
+ #include <stdint.h>
+ static inline uint16_t __get_unaligned_be16(const uint8_t *p)
+--- a/tools/include/tools/le_byteshift.h
++++ b/tools/include/tools/le_byteshift.h
+@@ -1,6 +1,10 @@
+ #ifndef _TOOLS_LE_BYTESHIFT_H
+ #define _TOOLS_LE_BYTESHIFT_H
++#ifndef __linux__
++#include "linux_types.h"
++#endif
++
+ #include <stdint.h>
+ static inline uint16_t __get_unaligned_le16(const uint8_t *p)
+--- /dev/null
++++ b/tools/include/tools/linux_types.h
+@@ -0,0 +1,22 @@
++#ifndef __LINUX_TYPES_H
++#define __LINUX_TYPES_H
++
++#include <stdint.h>
++
++typedef uint8_t __u8;
++typedef uint8_t __be8;
++typedef uint8_t __le8;
++
++typedef uint16_t __u16;
++typedef uint16_t __be16;
++typedef uint16_t __le16;
++
++typedef uint32_t __u32;
++typedef uint32_t __be32;
++typedef uint32_t __le32;
++
++typedef uint64_t __u64;
++typedef uint64_t __be64;
++typedef uint64_t __le64;
++
++#endif
diff --git a/trunk/target/linux/generic/patches-3.18/213-x86_vdso_portability.patch b/trunk/target/linux/generic/patches-3.18/213-x86_vdso_portability.patch
new file mode 100644 (file)
index 0000000..937ab90
--- /dev/null
@@ -0,0 +1,13 @@
+--- a/arch/x86/vdso/vdso2c.c
++++ b/arch/x86/vdso/vdso2c.c
+@@ -63,8 +63,8 @@
+ #include <tools/le_byteshift.h>
+-#include <linux/elf.h>
+-#include <linux/types.h>
++#include <elf.h>
++#include <stdbool.h>
+ const char *outfilename;
diff --git a/trunk/target/linux/generic/patches-3.18/214-spidev_h_portability.patch b/trunk/target/linux/generic/patches-3.18/214-spidev_h_portability.patch
new file mode 100644 (file)
index 0000000..dbee090
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/include/uapi/linux/spi/spidev.h
++++ b/include/uapi/linux/spi/spidev.h
+@@ -111,7 +111,7 @@ struct spi_ioc_transfer {
+ /* not all platforms use <asm-generic/ioctl.h> or _IOC_TYPECHECK() ... */
+ #define SPI_MSGSIZE(N) \
+-      ((((N)*(sizeof (struct spi_ioc_transfer))) < (1 << _IOC_SIZEBITS)) \
++      ((((N)*(sizeof (struct spi_ioc_transfer))) < (1 << 13)) \
+               ? ((N)*(sizeof (struct spi_ioc_transfer))) : 0)
+ #define SPI_IOC_MESSAGE(N) _IOW(SPI_IOC_MAGIC, 0, char[SPI_MSGSIZE(N)])
diff --git a/trunk/target/linux/generic/patches-3.18/220-gc_sections.patch b/trunk/target/linux/generic/patches-3.18/220-gc_sections.patch
new file mode 100644 (file)
index 0000000..775e11c
--- /dev/null
@@ -0,0 +1,531 @@
+From: Felix Fietkau <nbd@openwrt.org>
+
+use -ffunction-sections, -fdata-sections and --gc-sections
+
+In combination with kernel symbol export stripping this significantly reduces
+the kernel image size. Used on both ARM and MIPS architectures.
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+Signed-off-by: Jonas Gorski <jogo@openwrt.org>
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+
+--- a/arch/mips/Makefile
++++ b/arch/mips/Makefile
+@@ -89,10 +89,14 @@ all-$(CONFIG_SYS_SUPPORTS_ZBOOT)+= vmlin
+ #
+ cflags-y                      += -G 0 -mno-abicalls -fno-pic -pipe
+ cflags-y                      += -msoft-float
+-LDFLAGS_vmlinux                       += -G 0 -static -n -nostdlib
++LDFLAGS_vmlinux                       += -G 0 -static -n -nostdlib --gc-sections
+ KBUILD_AFLAGS_MODULE          += -mlong-calls
+ KBUILD_CFLAGS_MODULE          += -mlong-calls
++ifndef CONFIG_FUNCTION_TRACER
++KBUILD_CFLAGS_KERNEL          += -ffunction-sections -fdata-sections
++endif
++
+ #
+ # pass -msoft-float to GAS if it supports it.  However on newer binutils
+ # (specifically newer than 2.24.51.20140728) we then also need to explicitly
+--- a/arch/mips/kernel/vmlinux.lds.S
++++ b/arch/mips/kernel/vmlinux.lds.S
+@@ -67,7 +67,7 @@ SECTIONS
+       /* Exception table for data bus errors */
+       __dbe_table : {
+               __start___dbe_table = .;
+-              *(__dbe_table)
++              KEEP(*(__dbe_table))
+               __stop___dbe_table = .;
+       }
+@@ -112,7 +112,7 @@ SECTIONS
+       . = ALIGN(4);
+       .mips.machines.init : AT(ADDR(.mips.machines.init) - LOAD_OFFSET) {
+               __mips_machines_start = .;
+-              *(.mips.machines.init)
++              KEEP(*(.mips.machines.init))
+               __mips_machines_end = .;
+       }
+--- a/include/asm-generic/vmlinux.lds.h
++++ b/include/asm-generic/vmlinux.lds.h
+@@ -89,7 +89,7 @@
+ #ifdef CONFIG_FTRACE_MCOUNT_RECORD
+ #define MCOUNT_REC()  . = ALIGN(8);                           \
+                       VMLINUX_SYMBOL(__start_mcount_loc) = .; \
+-                      *(__mcount_loc)                         \
++                      KEEP(*(__mcount_loc))                   \
+                       VMLINUX_SYMBOL(__stop_mcount_loc) = .;
+ #else
+ #define MCOUNT_REC()
+@@ -97,7 +97,7 @@
+ #ifdef CONFIG_TRACE_BRANCH_PROFILING
+ #define LIKELY_PROFILE()      VMLINUX_SYMBOL(__start_annotated_branch_profile) = .; \
+-                              *(_ftrace_annotated_branch)                           \
++                              KEEP(*(_ftrace_annotated_branch))                     \
+                               VMLINUX_SYMBOL(__stop_annotated_branch_profile) = .;
+ #else
+ #define LIKELY_PROFILE()
+@@ -105,7 +105,7 @@
+ #ifdef CONFIG_PROFILE_ALL_BRANCHES
+ #define BRANCH_PROFILE()      VMLINUX_SYMBOL(__start_branch_profile) = .;   \
+-                              *(_ftrace_branch)                             \
++                              KEEP(*(_ftrace_branch))                       \
+                               VMLINUX_SYMBOL(__stop_branch_profile) = .;
+ #else
+ #define BRANCH_PROFILE()
+@@ -114,7 +114,7 @@
+ #ifdef CONFIG_KPROBES
+ #define KPROBE_BLACKLIST()    . = ALIGN(8);                                 \
+                               VMLINUX_SYMBOL(__start_kprobe_blacklist) = .; \
+-                              *(_kprobe_blacklist)                          \
++                              KEEP(*(_kprobe_blacklist))                    \
+                               VMLINUX_SYMBOL(__stop_kprobe_blacklist) = .;
+ #else
+ #define KPROBE_BLACKLIST()
+@@ -123,7 +123,7 @@
+ #ifdef CONFIG_EVENT_TRACING
+ #define FTRACE_EVENTS()       . = ALIGN(8);                                   \
+                       VMLINUX_SYMBOL(__start_ftrace_events) = .;      \
+-                      *(_ftrace_events)                               \
++                      KEEP(*(_ftrace_events))                         \
+                       VMLINUX_SYMBOL(__stop_ftrace_events) = .;
+ #else
+ #define FTRACE_EVENTS()
+@@ -131,7 +131,7 @@
+ #ifdef CONFIG_TRACING
+ #define TRACE_PRINTKS() VMLINUX_SYMBOL(__start___trace_bprintk_fmt) = .;      \
+-                       *(__trace_printk_fmt) /* Trace_printk fmt' pointer */ \
++                       KEEP(*(__trace_printk_fmt)) /* Trace_printk fmt' pointer */ \
+                        VMLINUX_SYMBOL(__stop___trace_bprintk_fmt) = .;
+ #define TRACEPOINT_STR() VMLINUX_SYMBOL(__start___tracepoint_str) = .;        \
+                        *(__tracepoint_str) /* Trace_printk fmt' pointer */ \
+@@ -144,7 +144,7 @@
+ #ifdef CONFIG_FTRACE_SYSCALLS
+ #define TRACE_SYSCALLS() . = ALIGN(8);                                        \
+                        VMLINUX_SYMBOL(__start_syscalls_metadata) = .; \
+-                       *(__syscalls_metadata)                         \
++                       KEEP(*(__syscalls_metadata))                   \
+                        VMLINUX_SYMBOL(__stop_syscalls_metadata) = .;
+ #else
+ #define TRACE_SYSCALLS()
+@@ -158,8 +158,8 @@
+ #define _OF_TABLE_1(name)                                             \
+       . = ALIGN(8);                                                   \
+       VMLINUX_SYMBOL(__##name##_of_table) = .;                        \
+-      *(__##name##_of_table)                                          \
+-      *(__##name##_of_table_end)
++      KEEP(*(__##name##_of_table))                                    \
++      KEEP(*(__##name##_of_table_end))
+ #define CLKSRC_OF_TABLES()    OF_TABLE(CONFIG_CLKSRC_OF, clksrc)
+ #define IRQCHIP_OF_MATCH_TABLE() OF_TABLE(CONFIG_IRQCHIP, irqchip)
+@@ -171,7 +171,7 @@
+ #define KERNEL_DTB()                                                  \
+       STRUCT_ALIGN();                                                 \
+       VMLINUX_SYMBOL(__dtb_start) = .;                                \
+-      *(.dtb.init.rodata)                                             \
++      KEEP(*(.dtb.init.rodata))                                       \
+       VMLINUX_SYMBOL(__dtb_end) = .;
+ /* .data section */
+@@ -187,16 +187,17 @@
+       /* implement dynamic printk debug */                            \
+       . = ALIGN(8);                                                   \
+       VMLINUX_SYMBOL(__start___jump_table) = .;                       \
+-      *(__jump_table)                                                 \
++      KEEP(*(__jump_table))                                           \
+       VMLINUX_SYMBOL(__stop___jump_table) = .;                        \
+       . = ALIGN(8);                                                   \
+       VMLINUX_SYMBOL(__start___verbose) = .;                          \
+-      *(__verbose)                                                    \
++      KEEP(*(__verbose))                                              \
+       VMLINUX_SYMBOL(__stop___verbose) = .;                           \
+       LIKELY_PROFILE()                                                \
+       BRANCH_PROFILE()                                                \
+       TRACE_PRINTKS()                                                 \
+-      TRACEPOINT_STR()
++      TRACEPOINT_STR()                                                \
++      *(.data.[a-zA-Z_]*)
+ /*
+  * Data section helpers
+@@ -250,35 +251,35 @@
+       /* PCI quirks */                                                \
+       .pci_fixup        : AT(ADDR(.pci_fixup) - LOAD_OFFSET) {        \
+               VMLINUX_SYMBOL(__start_pci_fixups_early) = .;           \
+-              *(.pci_fixup_early)                                     \
++              KEEP(*(.pci_fixup_early))                               \
+               VMLINUX_SYMBOL(__end_pci_fixups_early) = .;             \
+               VMLINUX_SYMBOL(__start_pci_fixups_header) = .;          \
+-              *(.pci_fixup_header)                                    \
++              KEEP(*(.pci_fixup_header))                              \
+               VMLINUX_SYMBOL(__end_pci_fixups_header) = .;            \
+               VMLINUX_SYMBOL(__start_pci_fixups_final) = .;           \
+-              *(.pci_fixup_final)                                     \
++              KEEP(*(.pci_fixup_final))                               \
+               VMLINUX_SYMBOL(__end_pci_fixups_final) = .;             \
+               VMLINUX_SYMBOL(__start_pci_fixups_enable) = .;          \
+-              *(.pci_fixup_enable)                                    \
++              KEEP(*(.pci_fixup_enable))                              \
+               VMLINUX_SYMBOL(__end_pci_fixups_enable) = .;            \
+               VMLINUX_SYMBOL(__start_pci_fixups_resume) = .;          \
+-              *(.pci_fixup_resume)                                    \
++              KEEP(*(.pci_fixup_resume))                              \
+               VMLINUX_SYMBOL(__end_pci_fixups_resume) = .;            \
+               VMLINUX_SYMBOL(__start_pci_fixups_resume_early) = .;    \
+-              *(.pci_fixup_resume_early)                              \
++              KEEP(*(.pci_fixup_resume_early))                        \
+               VMLINUX_SYMBOL(__end_pci_fixups_resume_early) = .;      \
+               VMLINUX_SYMBOL(__start_pci_fixups_suspend) = .;         \
+-              *(.pci_fixup_suspend)                                   \
++              KEEP(*(.pci_fixup_suspend))                             \
+               VMLINUX_SYMBOL(__end_pci_fixups_suspend) = .;           \
+               VMLINUX_SYMBOL(__start_pci_fixups_suspend_late) = .;    \
+-              *(.pci_fixup_suspend_late)                              \
++              KEEP(*(.pci_fixup_suspend_late))                        \
+               VMLINUX_SYMBOL(__end_pci_fixups_suspend_late) = .;      \
+       }                                                               \
+                                                                       \
+       /* Built-in firmware blobs */                                   \
+       .builtin_fw        : AT(ADDR(.builtin_fw) - LOAD_OFFSET) {      \
+               VMLINUX_SYMBOL(__start_builtin_fw) = .;                 \
+-              *(.builtin_fw)                                          \
++              KEEP(*(.builtin_fw))                                    \
+               VMLINUX_SYMBOL(__end_builtin_fw) = .;                   \
+       }                                                               \
+                                                                       \
+@@ -287,49 +288,49 @@
+       /* Kernel symbol table: Normal symbols */                       \
+       __ksymtab         : AT(ADDR(__ksymtab) - LOAD_OFFSET) {         \
+               VMLINUX_SYMBOL(__start___ksymtab) = .;                  \
+-              *(SORT(___ksymtab+*))                                   \
++              KEEP(*(SORT(___ksymtab+*)))                             \
+               VMLINUX_SYMBOL(__stop___ksymtab) = .;                   \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: GPL-only symbols */                     \
+       __ksymtab_gpl     : AT(ADDR(__ksymtab_gpl) - LOAD_OFFSET) {     \
+               VMLINUX_SYMBOL(__start___ksymtab_gpl) = .;              \
+-              *(SORT(___ksymtab_gpl+*))                               \
++              KEEP(*(SORT(___ksymtab_gpl+*)))                         \
+               VMLINUX_SYMBOL(__stop___ksymtab_gpl) = .;               \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: Normal unused symbols */                \
+       __ksymtab_unused  : AT(ADDR(__ksymtab_unused) - LOAD_OFFSET) {  \
+               VMLINUX_SYMBOL(__start___ksymtab_unused) = .;           \
+-              *(SORT(___ksymtab_unused+*))                            \
++              KEEP(*(SORT(___ksymtab_unused+*)))                      \
+               VMLINUX_SYMBOL(__stop___ksymtab_unused) = .;            \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: GPL-only unused symbols */              \
+       __ksymtab_unused_gpl : AT(ADDR(__ksymtab_unused_gpl) - LOAD_OFFSET) { \
+               VMLINUX_SYMBOL(__start___ksymtab_unused_gpl) = .;       \
+-              *(SORT(___ksymtab_unused_gpl+*))                        \
++              KEEP(*(SORT(___ksymtab_unused_gpl+*)))                  \
+               VMLINUX_SYMBOL(__stop___ksymtab_unused_gpl) = .;        \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: GPL-future-only symbols */              \
+       __ksymtab_gpl_future : AT(ADDR(__ksymtab_gpl_future) - LOAD_OFFSET) { \
+               VMLINUX_SYMBOL(__start___ksymtab_gpl_future) = .;       \
+-              *(SORT(___ksymtab_gpl_future+*))                        \
++              KEEP(*(SORT(___ksymtab_gpl_future+*)))                  \
+               VMLINUX_SYMBOL(__stop___ksymtab_gpl_future) = .;        \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: Normal symbols */                       \
+       __kcrctab         : AT(ADDR(__kcrctab) - LOAD_OFFSET) {         \
+               VMLINUX_SYMBOL(__start___kcrctab) = .;                  \
+-              *(SORT(___kcrctab+*))                                   \
++              KEEP(*(SORT(___kcrctab+*)))                             \
+               VMLINUX_SYMBOL(__stop___kcrctab) = .;                   \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: GPL-only symbols */                     \
+       __kcrctab_gpl     : AT(ADDR(__kcrctab_gpl) - LOAD_OFFSET) {     \
+               VMLINUX_SYMBOL(__start___kcrctab_gpl) = .;              \
+-              *(SORT(___kcrctab_gpl+*))                               \
++              KEEP(*(SORT(___kcrctab_gpl+*)))                         \
+               VMLINUX_SYMBOL(__stop___kcrctab_gpl) = .;               \
+       }                                                               \
+                                                                       \
+@@ -343,14 +344,14 @@
+       /* Kernel symbol table: GPL-only unused symbols */              \
+       __kcrctab_unused_gpl : AT(ADDR(__kcrctab_unused_gpl) - LOAD_OFFSET) { \
+               VMLINUX_SYMBOL(__start___kcrctab_unused_gpl) = .;       \
+-              *(SORT(___kcrctab_unused_gpl+*))                        \
++              KEEP(*(SORT(___kcrctab_unused_gpl+*)))                  \
+               VMLINUX_SYMBOL(__stop___kcrctab_unused_gpl) = .;        \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: GPL-future-only symbols */              \
+       __kcrctab_gpl_future : AT(ADDR(__kcrctab_gpl_future) - LOAD_OFFSET) { \
+               VMLINUX_SYMBOL(__start___kcrctab_gpl_future) = .;       \
+-              *(SORT(___kcrctab_gpl_future+*))                        \
++              KEEP(*(SORT(___kcrctab_gpl_future+*)))                  \
+               VMLINUX_SYMBOL(__stop___kcrctab_gpl_future) = .;        \
+       }                                                               \
+                                                                       \
+@@ -369,14 +370,14 @@
+       /* Built-in module parameters. */                               \
+       __param : AT(ADDR(__param) - LOAD_OFFSET) {                     \
+               VMLINUX_SYMBOL(__start___param) = .;                    \
+-              *(__param)                                              \
++              KEEP(*(__param))                                        \
+               VMLINUX_SYMBOL(__stop___param) = .;                     \
+       }                                                               \
+                                                                       \
+       /* Built-in module versions. */                                 \
+       __modver : AT(ADDR(__modver) - LOAD_OFFSET) {                   \
+               VMLINUX_SYMBOL(__start___modver) = .;                   \
+-              *(__modver)                                             \
++              KEEP(*(__modver))                                       \
+               VMLINUX_SYMBOL(__stop___modver) = .;                    \
+               . = ALIGN((align));                                     \
+               VMLINUX_SYMBOL(__end_rodata) = .;                       \
+@@ -432,7 +433,7 @@
+ #define ENTRY_TEXT                                                    \
+               ALIGN_FUNCTION();                                       \
+               VMLINUX_SYMBOL(__entry_text_start) = .;                 \
+-              *(.entry.text)                                          \
++              KEEP(*(.entry.text))                                    \
+               VMLINUX_SYMBOL(__entry_text_end) = .;
+ #ifdef CONFIG_FUNCTION_GRAPH_TRACER
+@@ -460,7 +461,7 @@
+       . = ALIGN(align);                                               \
+       __ex_table : AT(ADDR(__ex_table) - LOAD_OFFSET) {               \
+               VMLINUX_SYMBOL(__start___ex_table) = .;                 \
+-              *(__ex_table)                                           \
++              KEEP(*(__ex_table))                                             \
+               VMLINUX_SYMBOL(__stop___ex_table) = .;                  \
+       }
+@@ -476,8 +477,8 @@
+ #ifdef CONFIG_CONSTRUCTORS
+ #define KERNEL_CTORS()        . = ALIGN(8);                      \
+                       VMLINUX_SYMBOL(__ctors_start) = .; \
+-                      *(.ctors)                          \
+-                      *(.init_array)                     \
++                      KEEP(*(.ctors))                    \
++                      KEEP(*(.init_array))               \
+                       VMLINUX_SYMBOL(__ctors_end) = .;
+ #else
+ #define KERNEL_CTORS()
+@@ -525,7 +526,7 @@
+ #define SBSS(sbss_align)                                              \
+       . = ALIGN(sbss_align);                                          \
+       .sbss : AT(ADDR(.sbss) - LOAD_OFFSET) {                         \
+-              *(.sbss)                                                \
++              *(.sbss .sbss.*)                                        \
+               *(.scommon)                                             \
+       }
+@@ -543,7 +544,7 @@
+               BSS_FIRST_SECTIONS                                      \
+               *(.bss..page_aligned)                                   \
+               *(.dynbss)                                              \
+-              *(.bss)                                                 \
++              *(.bss .bss.*)                                          \
+               *(COMMON)                                               \
+       }
+@@ -592,7 +593,7 @@
+       . = ALIGN(8);                                                   \
+       __bug_table : AT(ADDR(__bug_table) - LOAD_OFFSET) {             \
+               VMLINUX_SYMBOL(__start___bug_table) = .;                \
+-              *(__bug_table)                                          \
++              KEEP(*(__bug_table))                                    \
+               VMLINUX_SYMBOL(__stop___bug_table) = .;                 \
+       }
+ #else
+@@ -604,7 +605,7 @@
+       . = ALIGN(4);                                                   \
+       .tracedata : AT(ADDR(.tracedata) - LOAD_OFFSET) {               \
+               VMLINUX_SYMBOL(__tracedata_start) = .;                  \
+-              *(.tracedata)                                           \
++              KEEP(*(.tracedata))                                     \
+               VMLINUX_SYMBOL(__tracedata_end) = .;                    \
+       }
+ #else
+@@ -621,17 +622,17 @@
+ #define INIT_SETUP(initsetup_align)                                   \
+               . = ALIGN(initsetup_align);                             \
+               VMLINUX_SYMBOL(__setup_start) = .;                      \
+-              *(.init.setup)                                          \
++              KEEP(*(.init.setup))                                    \
+               VMLINUX_SYMBOL(__setup_end) = .;
+ #define INIT_CALLS_LEVEL(level)                                               \
+               VMLINUX_SYMBOL(__initcall##level##_start) = .;          \
+-              *(.initcall##level##.init)                              \
+-              *(.initcall##level##s.init)                             \
++              KEEP(*(.initcall##level##.init))                        \
++              KEEP(*(.initcall##level##s.init))                       \
+ #define INIT_CALLS                                                    \
+               VMLINUX_SYMBOL(__initcall_start) = .;                   \
+-              *(.initcallearly.init)                                  \
++              KEEP(*(.initcallearly.init))                            \
+               INIT_CALLS_LEVEL(0)                                     \
+               INIT_CALLS_LEVEL(1)                                     \
+               INIT_CALLS_LEVEL(2)                                     \
+@@ -645,21 +646,21 @@
+ #define CON_INITCALL                                                  \
+               VMLINUX_SYMBOL(__con_initcall_start) = .;               \
+-              *(.con_initcall.init)                                   \
++              KEEP(*(.con_initcall.init))                             \
+               VMLINUX_SYMBOL(__con_initcall_end) = .;
+ #define SECURITY_INITCALL                                             \
+               VMLINUX_SYMBOL(__security_initcall_start) = .;          \
+-              *(.security_initcall.init)                              \
++              KEEP(*(.security_initcall.init))                        \
+               VMLINUX_SYMBOL(__security_initcall_end) = .;
+ #ifdef CONFIG_BLK_DEV_INITRD
+ #define INIT_RAM_FS                                                   \
+       . = ALIGN(4);                                                   \
+       VMLINUX_SYMBOL(__initramfs_start) = .;                          \
+-      *(.init.ramfs)                                                  \
++      KEEP(*(.init.ramfs))                                            \
+       . = ALIGN(8);                                                   \
+-      *(.init.ramfs.info)
++      KEEP(*(.init.ramfs.info))
+ #else
+ #define INIT_RAM_FS
+ #endif
+--- a/arch/arm/Makefile
++++ b/arch/arm/Makefile
+@@ -18,11 +18,16 @@ ifeq ($(CONFIG_CPU_ENDIAN_BE8),y)
+ LDFLAGS_vmlinux       += --be8
+ LDFLAGS_MODULE        += --be8
+ endif
++LDFLAGS_vmlinux += --gc-sections
+ OBJCOPYFLAGS  :=-O binary -R .comment -S
+ GZFLAGS               :=-9
+ #KBUILD_CFLAGS        +=-pipe
++ifndef CONFIG_FUNCTION_TRACER
++KBUILD_CFLAGS_KERNEL += -ffunction-sections -fdata-sections
++endif
++
+ # Never generate .eh_frame
+ KBUILD_CFLAGS += $(call cc-option,-fno-dwarf2-cfi-asm)
+--- a/arch/arm/kernel/vmlinux.lds.S
++++ b/arch/arm/kernel/vmlinux.lds.S
+@@ -12,13 +12,13 @@
+ #define PROC_INFO                                                     \
+       . = ALIGN(4);                                                   \
+       VMLINUX_SYMBOL(__proc_info_begin) = .;                          \
+-      *(.proc.info.init)                                              \
++      KEEP(*(.proc.info.init))                                        \
+       VMLINUX_SYMBOL(__proc_info_end) = .;
+ #define IDMAP_TEXT                                                    \
+       ALIGN_FUNCTION();                                               \
+       VMLINUX_SYMBOL(__idmap_text_start) = .;                         \
+-      *(.idmap.text)                                                  \
++      KEEP(*(.idmap.text))                                            \
+       VMLINUX_SYMBOL(__idmap_text_end) = .;                           \
+       . = ALIGN(32);                                                  \
+       VMLINUX_SYMBOL(__hyp_idmap_text_start) = .;                     \
+@@ -93,7 +93,7 @@ SECTIONS
+       .text : {                       /* Real text segment            */
+               _stext = .;             /* Text and read-only data      */
+                       __exception_text_start = .;
+-                      *(.exception.text)
++                      KEEP(*(.exception.text))
+                       __exception_text_end = .;
+                       IRQENTRY_TEXT
+                       TEXT_TEXT
+@@ -118,7 +118,7 @@ SECTIONS
+       __ex_table : AT(ADDR(__ex_table) - LOAD_OFFSET) {
+               __start___ex_table = .;
+ #ifdef CONFIG_MMU
+-              *(__ex_table)
++              KEEP(*(__ex_table))
+ #endif
+               __stop___ex_table = .;
+       }
+@@ -130,12 +130,12 @@ SECTIONS
+       . = ALIGN(8);
+       .ARM.unwind_idx : {
+               __start_unwind_idx = .;
+-              *(.ARM.exidx*)
++              KEEP(*(.ARM.exidx*))
+               __stop_unwind_idx = .;
+       }
+       .ARM.unwind_tab : {
+               __start_unwind_tab = .;
+-              *(.ARM.extab*)
++              KEEP(*(.ARM.extab*))
+               __stop_unwind_tab = .;
+       }
+ #endif
+@@ -154,14 +154,14 @@ SECTIONS
+        */
+       __vectors_start = .;
+       .vectors 0 : AT(__vectors_start) {
+-              *(.vectors)
++              KEEP(*(.vectors))
+       }
+       . = __vectors_start + SIZEOF(.vectors);
+       __vectors_end = .;
+       __stubs_start = .;
+       .stubs 0x1000 : AT(__stubs_start) {
+-              *(.stubs)
++              KEEP(*(.stubs))
+       }
+       . = __stubs_start + SIZEOF(.stubs);
+       __stubs_end = .;
+@@ -175,24 +175,24 @@ SECTIONS
+       }
+       .init.arch.info : {
+               __arch_info_begin = .;
+-              *(.arch.info.init)
++              KEEP(*(.arch.info.init))
+               __arch_info_end = .;
+       }
+       .init.tagtable : {
+               __tagtable_begin = .;
+-              *(.taglist.init)
++              KEEP(*(.taglist.init))
+               __tagtable_end = .;
+       }
+ #ifdef CONFIG_SMP_ON_UP
+       .init.smpalt : {
+               __smpalt_begin = .;
+-              *(.alt.smp.init)
++              KEEP(*(.alt.smp.init))
+               __smpalt_end = .;
+       }
+ #endif
+       .init.pv_table : {
+               __pv_table_begin = .;
+-              *(.pv_table)
++              KEEP(*(.pv_table))
+               __pv_table_end = .;
+       }
+       .init.data : {
+--- a/arch/arm/boot/compressed/Makefile
++++ b/arch/arm/boot/compressed/Makefile
+@@ -122,6 +122,7 @@ ifeq ($(CONFIG_FUNCTION_TRACER),y)
+ ORIG_CFLAGS := $(KBUILD_CFLAGS)
+ KBUILD_CFLAGS = $(subst -pg, , $(ORIG_CFLAGS))
+ endif
++KBUILD_CFLAGS_KERNEL := $(patsubst -f%-sections,,$(KBUILD_CFLAGS_KERNEL))
+ ccflags-y := -fpic -mno-single-pic-base -fno-builtin -I$(obj)
+ asflags-y := -DZIMAGE
diff --git a/trunk/target/linux/generic/patches-3.18/221-module_exports.patch b/trunk/target/linux/generic/patches-3.18/221-module_exports.patch
new file mode 100644 (file)
index 0000000..f2cad7a
--- /dev/null
@@ -0,0 +1,88 @@
+--- a/include/asm-generic/vmlinux.lds.h
++++ b/include/asm-generic/vmlinux.lds.h
+@@ -54,6 +54,16 @@
+ #define LOAD_OFFSET 0
+ #endif
++#ifndef SYMTAB_KEEP
++#define SYMTAB_KEEP KEEP(*(SORT(___ksymtab+*)))
++#define SYMTAB_KEEP_GPL KEEP(*(SORT(___ksymtab_gpl+*)))
++#endif
++
++#ifndef SYMTAB_DISCARD
++#define SYMTAB_DISCARD
++#define SYMTAB_DISCARD_GPL
++#endif
++
+ #include <linux/export.h>
+ /* Align . to a 8 byte boundary equals to maximum function alignment. */
+@@ -288,14 +298,14 @@
+       /* Kernel symbol table: Normal symbols */                       \
+       __ksymtab         : AT(ADDR(__ksymtab) - LOAD_OFFSET) {         \
+               VMLINUX_SYMBOL(__start___ksymtab) = .;                  \
+-              KEEP(*(SORT(___ksymtab+*)))                             \
++              SYMTAB_KEEP                                             \
+               VMLINUX_SYMBOL(__stop___ksymtab) = .;                   \
+       }                                                               \
+                                                                       \
+       /* Kernel symbol table: GPL-only symbols */                     \
+       __ksymtab_gpl     : AT(ADDR(__ksymtab_gpl) - LOAD_OFFSET) {     \
+               VMLINUX_SYMBOL(__start___ksymtab_gpl) = .;              \
+-              KEEP(*(SORT(___ksymtab_gpl+*)))                         \
++              SYMTAB_KEEP_GPL                                         \
+               VMLINUX_SYMBOL(__stop___ksymtab_gpl) = .;               \
+       }                                                               \
+                                                                       \
+@@ -357,7 +367,7 @@
+                                                                       \
+       /* Kernel symbol table: strings */                              \
+         __ksymtab_strings : AT(ADDR(__ksymtab_strings) - LOAD_OFFSET) {       \
+-              *(__ksymtab_strings)                                    \
++              *(__ksymtab_strings+*)                                  \
+       }                                                               \
+                                                                       \
+       /* __*init sections */                                          \
+@@ -679,6 +689,8 @@
+       EXIT_TEXT                                                       \
+       EXIT_DATA                                                       \
+       EXIT_CALL                                                       \
++      SYMTAB_DISCARD                                                  \
++      SYMTAB_DISCARD_GPL                                              \
+       *(.discard)                                                     \
+       *(.discard.*)                                                   \
+       }
+--- a/scripts/Makefile.build
++++ b/scripts/Makefile.build
+@@ -298,7 +298,7 @@ targets += $(extra-y) $(MAKECMDGOALS) $(
+ # Linker scripts preprocessor (.lds.S -> .lds)
+ # ---------------------------------------------------------------------------
+ quiet_cmd_cpp_lds_S = LDS     $@
+-      cmd_cpp_lds_S = $(CPP) $(cpp_flags) -P -C -U$(ARCH) \
++      cmd_cpp_lds_S = $(CPP) $(EXTRA_LDSFLAGS) $(cpp_flags) -P -C -U$(ARCH) \
+                            -D__ASSEMBLY__ -DLINKER_SCRIPT -o $@ $<
+ $(obj)/%.lds: $(src)/%.lds.S FORCE
+--- a/include/linux/export.h
++++ b/include/linux/export.h
+@@ -52,12 +52,19 @@ extern struct module __this_module;
+ #define __CRC_SYMBOL(sym, sec)
+ #endif
++#ifdef MODULE
++#define __EXPORT_SUFFIX(sym)
++#else
++#define __EXPORT_SUFFIX(sym) "+" #sym
++#endif
++
+ /* For every exported symbol, place a struct in the __ksymtab section */
+ #define __EXPORT_SYMBOL(sym, sec)                             \
+       extern typeof(sym) sym;                                 \
+       __CRC_SYMBOL(sym, sec)                                  \
+       static const char __kstrtab_##sym[]                     \
+-      __attribute__((section("__ksymtab_strings"), aligned(1))) \
++      __attribute__((section("__ksymtab_strings"              \
++        __EXPORT_SUFFIX(sym)), aligned(1)))                   \
+       = VMLINUX_SYMBOL_STR(sym);                              \
+       extern const struct kernel_symbol __ksymtab_##sym;      \
+       __visible const struct kernel_symbol __ksymtab_##sym    \
diff --git a/trunk/target/linux/generic/patches-3.18/230-openwrt_lzma_options.patch b/trunk/target/linux/generic/patches-3.18/230-openwrt_lzma_options.patch
new file mode 100644 (file)
index 0000000..73978f7
--- /dev/null
@@ -0,0 +1,58 @@
+--- a/scripts/Makefile.lib
++++ b/scripts/Makefile.lib
+@@ -325,7 +325,7 @@ cmd_bzip2 = (cat $(filter-out FORCE,$^)
+ quiet_cmd_lzma = LZMA    $@
+ cmd_lzma = (cat $(filter-out FORCE,$^) | \
+-      lzma -9 && $(call size_append, $(filter-out FORCE,$^))) > $@ || \
++      lzma e -d20 -lc1 -lp2 -pb2 -eos -si -so && $(call size_append, $(filter-out FORCE,$^))) > $@ || \
+       (rm -f $@ ; false)
+ quiet_cmd_lzo = LZO     $@
+--- a/scripts/gen_initramfs_list.sh
++++ b/scripts/gen_initramfs_list.sh
+@@ -226,7 +226,7 @@ cpio_list=
+ output="/dev/stdout"
+ output_file=""
+ is_cpio_compressed=
+-compr="gzip -n -9 -f"
++compr="gzip -n -9 -f -"
+ arg="$1"
+ case "$arg" in
+@@ -242,13 +242,13 @@ case "$arg" in
+               output=${cpio_list}
+               echo "$output_file" | grep -q "\.gz$" \
+                 && [ -x "`which gzip 2> /dev/null`" ] \
+-                && compr="gzip -n -9 -f"
++                && compr="gzip -n -9 -f -"
+               echo "$output_file" | grep -q "\.bz2$" \
+                 && [ -x "`which bzip2 2> /dev/null`" ] \
+-                && compr="bzip2 -9 -f"
++                && compr="bzip2 -9 -f -"
+               echo "$output_file" | grep -q "\.lzma$" \
+                 && [ -x "`which lzma 2> /dev/null`" ] \
+-                && compr="lzma -9 -f"
++                && compr="lzma e -d20 -lc1 -lp2 -pb2 -eos -si -so"
+               echo "$output_file" | grep -q "\.xz$" \
+                 && [ -x "`which xz 2> /dev/null`" ] \
+                 && compr="xz --check=crc32 --lzma2=dict=1MiB"
+@@ -315,7 +315,7 @@ if [ ! -z ${output_file} ]; then
+       if [ "${is_cpio_compressed}" = "compressed" ]; then
+               cat ${cpio_tfile} > ${output_file}
+       else
+-              (cat ${cpio_tfile} | ${compr}  - > ${output_file}) \
++              (cat ${cpio_tfile} | ${compr} > ${output_file}) \
+               || (rm -f ${output_file} ; false)
+       fi
+       [ -z ${cpio_file} ] && rm ${cpio_tfile}
+--- a/lib/decompress.c
++++ b/lib/decompress.c
+@@ -48,6 +48,7 @@ static const struct compress_format comp
+       { {037, 0236}, "gzip", gunzip },
+       { {0x42, 0x5a}, "bzip2", bunzip2 },
+       { {0x5d, 0x00}, "lzma", unlzma },
++      { {0x6d, 0x00}, "lzma-librecmc", unlzma },
+       { {0xfd, 0x37}, "xz", unxz },
+       { {0x89, 0x4c}, "lzo", unlzo },
+       { {0x02, 0x21}, "lz4", unlz4 },
diff --git a/trunk/target/linux/generic/patches-3.18/250-netfilter_depends.patch b/trunk/target/linux/generic/patches-3.18/250-netfilter_depends.patch
new file mode 100644 (file)
index 0000000..47be4a0
--- /dev/null
@@ -0,0 +1,18 @@
+--- a/net/netfilter/Kconfig
++++ b/net/netfilter/Kconfig
+@@ -210,7 +210,6 @@ config NF_CONNTRACK_FTP
+ config NF_CONNTRACK_H323
+       tristate "H.323 protocol support"
+-      depends on (IPV6 || IPV6=n)
+       depends on NETFILTER_ADVANCED
+       help
+         H.323 is a VoIP signalling protocol from ITU-T. As one of the most
+@@ -907,7 +906,6 @@ config NETFILTER_XT_TARGET_SECMARK
+ config NETFILTER_XT_TARGET_TCPMSS
+       tristate '"TCPMSS" target support'
+-      depends on (IPV6 || IPV6=n)
+       default m if NETFILTER_ADVANCED=n
+       ---help---
+         This option adds a `TCPMSS' target, which allows you to alter the
diff --git a/trunk/target/linux/generic/patches-3.18/251-sound_kconfig.patch b/trunk/target/linux/generic/patches-3.18/251-sound_kconfig.patch
new file mode 100644 (file)
index 0000000..c2ebace
--- /dev/null
@@ -0,0 +1,18 @@
+--- a/sound/core/Kconfig
++++ b/sound/core/Kconfig
+@@ -10,13 +10,13 @@ config SND_DMAENGINE_PCM
+       tristate
+ config SND_HWDEP
+-      tristate
++      tristate "Sound hardware support"
+ config SND_RAWMIDI
+       tristate
+ config SND_COMPRESS_OFFLOAD
+-      tristate
++      tristate "Compression offloading support"
+ # To be effective this also requires INPUT - users should say:
+ #    select SND_JACK if INPUT=y || INPUT=SND
diff --git a/trunk/target/linux/generic/patches-3.18/252-mv_cesa_depends.patch b/trunk/target/linux/generic/patches-3.18/252-mv_cesa_depends.patch
new file mode 100644 (file)
index 0000000..fee28db
--- /dev/null
@@ -0,0 +1,10 @@
+--- a/drivers/crypto/Kconfig
++++ b/drivers/crypto/Kconfig
+@@ -164,6 +164,7 @@ config CRYPTO_DEV_MV_CESA
+       depends on PLAT_ORION
+       select CRYPTO_ALGAPI
+       select CRYPTO_AES
++      select CRYPTO_HASH2
+       select CRYPTO_BLKCIPHER2
+       select CRYPTO_HASH
+       help
diff --git a/trunk/target/linux/generic/patches-3.18/253-ssb_b43_default_on.patch b/trunk/target/linux/generic/patches-3.18/253-ssb_b43_default_on.patch
new file mode 100644 (file)
index 0000000..29d2a41
--- /dev/null
@@ -0,0 +1,29 @@
+--- a/drivers/ssb/Kconfig
++++ b/drivers/ssb/Kconfig
+@@ -29,6 +29,7 @@ config SSB_SPROM
+ config SSB_BLOCKIO
+       bool
+       depends on SSB
++      default y
+ config SSB_PCIHOST_POSSIBLE
+       bool
+@@ -49,7 +50,7 @@ config SSB_PCIHOST
+ config SSB_B43_PCI_BRIDGE
+       bool
+       depends on SSB_PCIHOST
+-      default n
++      default y
+ config SSB_PCMCIAHOST_POSSIBLE
+       bool
+--- a/drivers/bcma/Kconfig
++++ b/drivers/bcma/Kconfig
+@@ -17,6 +17,7 @@ config BCMA
+ config BCMA_BLOCKIO
+       bool
+       depends on BCMA
++      default y
+ config BCMA_HOST_PCI_POSSIBLE
+       bool
diff --git a/trunk/target/linux/generic/patches-3.18/254-textsearch_kconfig_hacks.patch b/trunk/target/linux/generic/patches-3.18/254-textsearch_kconfig_hacks.patch
new file mode 100644 (file)
index 0000000..3c3b1e1
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/lib/Kconfig
++++ b/lib/Kconfig
+@@ -320,16 +320,16 @@ config BCH_CONST_T
+ # Textsearch support is select'ed if needed
+ #
+ config TEXTSEARCH
+-      boolean
++      boolean "Textsearch support"
+ config TEXTSEARCH_KMP
+-      tristate
++      tristate "Textsearch KMP"
+ config TEXTSEARCH_BM
+-      tristate
++      tristate "Textsearch BM"
+ config TEXTSEARCH_FSM
+-      tristate
++      tristate "Textsearch FSM"
+ config BTREE
+       boolean
diff --git a/trunk/target/linux/generic/patches-3.18/255-lib80211_kconfig_hacks.patch b/trunk/target/linux/generic/patches-3.18/255-lib80211_kconfig_hacks.patch
new file mode 100644 (file)
index 0000000..d875235
--- /dev/null
@@ -0,0 +1,31 @@
+--- a/net/wireless/Kconfig
++++ b/net/wireless/Kconfig
+@@ -183,7 +183,7 @@ config CFG80211_WEXT
+         extensions with cfg80211-based drivers.
+ config LIB80211
+-      tristate
++      tristate "LIB80211"
+       default n
+       help
+         This options enables a library of common routines used
+@@ -192,13 +192,16 @@ config LIB80211
+         Drivers should select this themselves if needed.
+ config LIB80211_CRYPT_WEP
+-      tristate
++      tristate "LIB80211_CRYPT_WEP"
++      select LIB80211
+ config LIB80211_CRYPT_CCMP
+-      tristate
++      tristate "LIB80211_CRYPT_CCMP"
++      select LIB80211
+ config LIB80211_CRYPT_TKIP
+-      tristate
++      tristate "LIB80211_CRYPT_TKIP"
++      select LIB80211
+ config LIB80211_DEBUG
+       bool "lib80211 debugging messages"
diff --git a/trunk/target/linux/generic/patches-3.18/256-crypto_add_kconfig_prompts.patch b/trunk/target/linux/generic/patches-3.18/256-crypto_add_kconfig_prompts.patch
new file mode 100644 (file)
index 0000000..f9f6c0e
--- /dev/null
@@ -0,0 +1,47 @@
+--- a/crypto/Kconfig
++++ b/crypto/Kconfig
+@@ -32,7 +32,7 @@ config CRYPTO_FIPS
+         this is.
+ config CRYPTO_ALGAPI
+-      tristate
++      tristate "ALGAPI"
+       select CRYPTO_ALGAPI2
+       help
+         This option provides the API for cryptographic algorithms.
+@@ -41,7 +41,7 @@ config CRYPTO_ALGAPI2
+       tristate
+ config CRYPTO_AEAD
+-      tristate
++      tristate "AEAD"
+       select CRYPTO_AEAD2
+       select CRYPTO_ALGAPI
+@@ -50,7 +50,7 @@ config CRYPTO_AEAD2
+       select CRYPTO_ALGAPI2
+ config CRYPTO_BLKCIPHER
+-      tristate
++      tristate "BLKCIPHER"
+       select CRYPTO_BLKCIPHER2
+       select CRYPTO_ALGAPI
+@@ -61,7 +61,7 @@ config CRYPTO_BLKCIPHER2
+       select CRYPTO_WORKQUEUE
+ config CRYPTO_HASH
+-      tristate
++      tristate "HASH"
+       select CRYPTO_HASH2
+       select CRYPTO_ALGAPI
+@@ -70,7 +70,7 @@ config CRYPTO_HASH2
+       select CRYPTO_ALGAPI2
+ config CRYPTO_RNG
+-      tristate
++      tristate "RNG"
+       select CRYPTO_RNG2
+       select CRYPTO_ALGAPI
diff --git a/trunk/target/linux/generic/patches-3.18/257-wireless_ext_kconfig_hack.patch b/trunk/target/linux/generic/patches-3.18/257-wireless_ext_kconfig_hack.patch
new file mode 100644 (file)
index 0000000..daac589
--- /dev/null
@@ -0,0 +1,22 @@
+--- a/net/wireless/Kconfig
++++ b/net/wireless/Kconfig
+@@ -1,5 +1,5 @@
+ config WIRELESS_EXT
+-      bool
++      bool "Wireless extensions"
+ config WEXT_CORE
+       def_bool y
+@@ -11,10 +11,10 @@ config WEXT_PROC
+       depends on WEXT_CORE
+ config WEXT_SPY
+-      bool
++      bool "WEXT_SPY"
+ config WEXT_PRIV
+-      bool
++      bool "WEXT_PRIV"
+ config CFG80211
+       tristate "cfg80211 - wireless configuration API"
diff --git a/trunk/target/linux/generic/patches-3.18/258-netfilter_netlink_kconfig_hack.patch b/trunk/target/linux/generic/patches-3.18/258-netfilter_netlink_kconfig_hack.patch
new file mode 100644 (file)
index 0000000..9d827c2
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/net/netfilter/Kconfig
++++ b/net/netfilter/Kconfig
+@@ -2,7 +2,7 @@ menu "Core Netfilter Configuration"
+       depends on NET && INET && NETFILTER
+ config NETFILTER_NETLINK
+-      tristate
++      tristate "Netfilter NFNETLINK interface"
+ config NETFILTER_NETLINK_ACCT
+ tristate "Netfilter NFACCT over NFNETLINK interface"
diff --git a/trunk/target/linux/generic/patches-3.18/259-regmap_dynamic.patch b/trunk/target/linux/generic/patches-3.18/259-regmap_dynamic.patch
new file mode 100644 (file)
index 0000000..cf67a7d
--- /dev/null
@@ -0,0 +1,79 @@
+--- a/drivers/base/regmap/Kconfig
++++ b/drivers/base/regmap/Kconfig
+@@ -3,26 +3,31 @@
+ # subsystems should select the appropriate symbols.
+ config REGMAP
+-      default y if (REGMAP_I2C || REGMAP_SPI || REGMAP_SPMI || REGMAP_MMIO || REGMAP_IRQ)
+       select LZO_COMPRESS
+       select LZO_DECOMPRESS
+       select IRQ_DOMAIN if REGMAP_IRQ
+-      bool
++      tristate "Regmap"
+ config REGMAP_I2C
+-      tristate
++      tristate "Regmap I2C"
++      select REGMAP
+       depends on I2C
+ config REGMAP_SPI
+-      tristate
++      tristate "Regmap SPI"
++      select REGMAP
++      depends on SPI_MASTER
+       depends on SPI
+ config REGMAP_SPMI
++      select REGMAP
+       tristate
+       depends on SPMI
+ config REGMAP_MMIO
++      select REGMAP
+       tristate
+ config REGMAP_IRQ
++      select REGMAP
+       bool
+--- a/include/linux/regmap.h
++++ b/include/linux/regmap.h
+@@ -49,7 +49,7 @@ struct reg_default {
+       unsigned int def;
+ };
+-#ifdef CONFIG_REGMAP
++#if IS_ENABLED(CONFIG_REGMAP)
+ enum regmap_endian {
+       /* Unspecified -> 0 -> Backwards compatible default */
+--- a/drivers/base/regmap/Makefile
++++ b/drivers/base/regmap/Makefile
+@@ -1,6 +1,8 @@
+-obj-$(CONFIG_REGMAP) += regmap.o regcache.o
+-obj-$(CONFIG_REGMAP) += regcache-rbtree.o regcache-lzo.o regcache-flat.o
+-obj-$(CONFIG_DEBUG_FS) += regmap-debugfs.o
++regmap-core-objs = regmap.o regcache.o regcache-rbtree.o regcache-lzo.o regcache-flat.o
++ifdef CONFIG_DEBUG_FS
++regmap-core-objs += regmap-debugfs.o
++endif
++obj-$(CONFIG_REGMAP) += regmap-core.o
+ obj-$(CONFIG_REGMAP_I2C) += regmap-i2c.o
+ obj-$(CONFIG_REGMAP_SPI) += regmap-spi.o
+ obj-$(CONFIG_REGMAP_SPMI) += regmap-spmi.o
+--- a/drivers/base/regmap/regmap.c
++++ b/drivers/base/regmap/regmap.c
+@@ -13,6 +13,7 @@
+ #include <linux/device.h>
+ #include <linux/slab.h>
+ #include <linux/export.h>
++#include <linux/module.h>
+ #include <linux/mutex.h>
+ #include <linux/err.h>
+ #include <linux/of.h>
+@@ -2635,3 +2636,5 @@ static int __init regmap_initcall(void)
+       return 0;
+ }
+ postcore_initcall(regmap_initcall);
++
++MODULE_LICENSE("GPL");
diff --git a/trunk/target/linux/generic/patches-3.18/260-crypto_test_dependencies.patch b/trunk/target/linux/generic/patches-3.18/260-crypto_test_dependencies.patch
new file mode 100644 (file)
index 0000000..8a96fd9
--- /dev/null
@@ -0,0 +1,37 @@
+--- a/crypto/Kconfig
++++ b/crypto/Kconfig
+@@ -96,10 +96,10 @@ config CRYPTO_MANAGER
+ config CRYPTO_MANAGER2
+       def_tristate CRYPTO_MANAGER || (CRYPTO_MANAGER!=n && CRYPTO_ALGAPI=y)
+-      select CRYPTO_AEAD2
+-      select CRYPTO_HASH2
+-      select CRYPTO_BLKCIPHER2
+-      select CRYPTO_PCOMP2
++      select CRYPTO_AEAD2 if !CRYPTO_MANAGER_DISABLE_TESTS
++      select CRYPTO_HASH2 if !CRYPTO_MANAGER_DISABLE_TESTS
++      select CRYPTO_BLKCIPHER2 if !CRYPTO_MANAGER_DISABLE_TESTS
++      select CRYPTO_PCOMP2 if !CRYPTO_MANAGER_DISABLE_TESTS
+ config CRYPTO_USER
+       tristate "Userspace cryptographic algorithm configuration"
+--- a/crypto/algboss.c
++++ b/crypto/algboss.c
+@@ -248,6 +248,9 @@ static int cryptomgr_schedule_test(struc
+       type = alg->cra_flags;
+       /* This piece of crap needs to disappear into per-type test hooks. */
++#ifdef CONFIG_CRYPTO_MANAGER_DISABLE_TESTS
++      type |= CRYPTO_ALG_TESTED;
++#else
+       if ((!((type ^ CRYPTO_ALG_TYPE_BLKCIPHER) &
+              CRYPTO_ALG_TYPE_BLKCIPHER_MASK) && !(type & CRYPTO_ALG_GENIV) &&
+            ((alg->cra_flags & CRYPTO_ALG_TYPE_MASK) ==
+@@ -256,6 +259,7 @@ static int cryptomgr_schedule_test(struc
+           (!((type ^ CRYPTO_ALG_TYPE_AEAD) & CRYPTO_ALG_TYPE_MASK) &&
+            alg->cra_type == &crypto_nivaead_type && alg->cra_aead.ivsize))
+               type |= CRYPTO_ALG_TESTED;
++#endif
+       param->type = type;
diff --git a/trunk/target/linux/generic/patches-3.18/262-compressor_kconfig_hack.patch b/trunk/target/linux/generic/patches-3.18/262-compressor_kconfig_hack.patch
new file mode 100644 (file)
index 0000000..51b4fc8
--- /dev/null
@@ -0,0 +1,35 @@
+--- a/lib/Kconfig
++++ b/lib/Kconfig
+@@ -205,25 +205,25 @@ config RANDOM32_SELFTEST
+ # compression support is select'ed if needed
+ #
+ config ZLIB_INFLATE
+-      tristate
++      tristate "ZLIB inflate support"
+ config ZLIB_DEFLATE
+-      tristate
++      tristate "ZLIB deflate support"
+ config LZO_COMPRESS
+-      tristate
++      tristate "LZO compress support"
+ config LZO_DECOMPRESS
+-      tristate
++      tristate "LZO decompress support"
+ config LZ4_COMPRESS
+-      tristate
++      tristate "LZ4 compress support"
+ config LZ4HC_COMPRESS
+-      tristate
++      tristate "LZ4HC compress support"
+ config LZ4_DECOMPRESS
+-      tristate
++      tristate "LZ4 decompress support"
+ source "lib/xz/Kconfig"
diff --git a/trunk/target/linux/generic/patches-3.18/270-bridge_header_fix.patch b/trunk/target/linux/generic/patches-3.18/270-bridge_header_fix.patch
new file mode 100644 (file)
index 0000000..8b25db4
--- /dev/null
@@ -0,0 +1,10 @@
+--- a/include/uapi/linux/if_bridge.h
++++ b/include/uapi/linux/if_bridge.h
+@@ -15,7 +15,6 @@
+ #include <linux/types.h>
+ #include <linux/if_ether.h>
+-#include <linux/in6.h>
+ #define SYSFS_BRIDGE_ATTR     "bridge"
+ #define SYSFS_BRIDGE_FDB      "brforward"
diff --git a/trunk/target/linux/generic/patches-3.18/300-mips_expose_boot_raw.patch b/trunk/target/linux/generic/patches-3.18/300-mips_expose_boot_raw.patch
new file mode 100644 (file)
index 0000000..69d61f2
--- /dev/null
@@ -0,0 +1,39 @@
+From: Mark Miller <mark@mirell.org>
+
+This exposes the CONFIG_BOOT_RAW symbol in Kconfig. This is needed on
+certain Broadcom chipsets running CFE in order to load the kernel.
+
+Signed-off-by: Mark Miller <mark@mirell.org>
+Acked-by: Rob Landley <rob@landley.net>
+---
+--- a/arch/mips/Kconfig
++++ b/arch/mips/Kconfig
+@@ -892,9 +892,6 @@ config FW_ARC
+ config ARCH_MAY_HAVE_PC_FDC
+       bool
+-config BOOT_RAW
+-      bool
+-
+ config CEVT_BCM1480
+       bool
+@@ -2503,6 +2500,18 @@ config USE_OF
+ config BUILTIN_DTB
+       bool
++config BOOT_RAW
++      bool "Enable the kernel to be executed from the load address"
++      default n
++      help
++       Allow the kernel to be executed from the load address for
++       bootloaders which cannot read the ELF format. This places
++       a jump to start_kernel at the load address.
++
++       If unsure, say N.
++
++
++
+ endmenu
+ config LOCKDEP_SUPPORT
diff --git a/trunk/target/linux/generic/patches-3.18/301-mips_image_cmdline_hack.patch b/trunk/target/linux/generic/patches-3.18/301-mips_image_cmdline_hack.patch
new file mode 100644 (file)
index 0000000..2282749
--- /dev/null
@@ -0,0 +1,28 @@
+--- a/arch/mips/Kconfig
++++ b/arch/mips/Kconfig
+@@ -988,6 +988,10 @@ config SYNC_R4K
+ config MIPS_MACHINE
+       def_bool n
++config IMAGE_CMDLINE_HACK
++      bool "libreCMC specific image command line hack"
++      default n
++
+ config NO_IOPORT_MAP
+       def_bool n
+--- a/arch/mips/kernel/head.S
++++ b/arch/mips/kernel/head.S
+@@ -80,6 +80,12 @@ FEXPORT(__kernel_entry)
+       j       kernel_entry
+ #endif
++#ifdef CONFIG_IMAGE_CMDLINE_HACK
++      .ascii  "CMDLINE:"
++EXPORT(__image_cmdline)
++      .fill   0x400
++#endif /* CONFIG_IMAGE_CMDLINE_HACK */
++
+       __REF
+ NESTED(kernel_entry, 16, sp)                  # kernel entry point
diff --git a/trunk/target/linux/generic/patches-3.18/302-mips_no_branch_likely.patch b/trunk/target/linux/generic/patches-3.18/302-mips_no_branch_likely.patch
new file mode 100644 (file)
index 0000000..44c6b04
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/arch/mips/Makefile
++++ b/arch/mips/Makefile
+@@ -87,7 +87,7 @@ all-$(CONFIG_SYS_SUPPORTS_ZBOOT)+= vmlin
+ # machines may also.  Since BFD is incredibly buggy with respect to
+ # crossformat linking we rely on the elf2ecoff tool for format conversion.
+ #
+-cflags-y                      += -G 0 -mno-abicalls -fno-pic -pipe
++cflags-y                      += -G 0 -mno-abicalls -fno-pic -pipe -mno-branch-likely
+ cflags-y                      += -msoft-float
+ LDFLAGS_vmlinux                       += -G 0 -static -n -nostdlib --gc-sections
+ KBUILD_AFLAGS_MODULE          += -mlong-calls
diff --git a/trunk/target/linux/generic/patches-3.18/304-mips_disable_fpu.patch b/trunk/target/linux/generic/patches-3.18/304-mips_disable_fpu.patch
new file mode 100644 (file)
index 0000000..ae742dc
--- /dev/null
@@ -0,0 +1,105 @@
+From:   Manuel Lauss <manuel.lauss@gmail.com>\r
+Subject: [RFC PATCH v4 2/2] MIPS: make FPU emulator optional\r
+Date:   Mon,  7 Apr 2014 12:57:04 +0200\r
+Message-Id: <1396868224-252888-2-git-send-email-manuel.lauss@gmail.com>\r
+\r
+This small patch makes the MIPS FPU emulator optional. The kernel\r
+kills float-users on systems without a hardware FPU by sending a SIGILL.\r
+\r
+Disabling the emulator shrinks vmlinux by about 54kBytes (32bit,\r
+optimizing for size).\r
+\r
+Signed-off-by: Manuel Lauss <manuel.lauss@gmail.com>\r
+---\r
+v4: rediffed because of patch 1/2, should now work with micromips as well\r
+v3: updated patch description with size savings.\r
+v2: incorporated changes suggested by Jonas Gorski\r
+    force the fpu emulator on for micromips: relocating the parts\r
+    of the mmips code in the emulator to other areas would be a\r
+    much larger change; I went the cheap route instead with this.\r
+\r
+ arch/mips/Kbuild                     |  2 +-\r
+ arch/mips/Kconfig                    | 14 ++++++++++++++\r
+ arch/mips/include/asm/fpu.h          |  5 +++--\r
+ arch/mips/include/asm/fpu_emulator.h | 15 +++++++++++++++\r
+ 4 files changed, 33 insertions(+), 3 deletions(-)\r
+\r
+--- a/arch/mips/Kconfig
++++ b/arch/mips/Kconfig
+@@ -2495,6 +2495,20 @@ config MIPS_O32_FP64_SUPPORT
+         If unsure, say N.
++config MIPS_FPU_EMULATOR
++      bool "MIPS FPU Emulator"
++      default y
++      help
++        This option lets you disable the built-in MIPS FPU (Coprocessor 1)
++        emulator, which handles floating-point instructions on processors
++        without a hardware FPU.  It is generally a good idea to keep the
++        emulator built-in, unless you are perfectly sure you have a
++        complete soft-float environment.  With the emulator disabled, all
++        users of float operations will be killed with an illegal instr-
++        uction exception.
++
++        Say Y, please.
++
+ config USE_OF
+       bool
+       select OF
+--- a/arch/mips/Makefile
++++ b/arch/mips/Makefile
+@@ -275,7 +275,7 @@ OBJCOPYFLAGS               += --remove-section=.regin
+ head-y := arch/mips/kernel/head.o
+ libs-y                        += arch/mips/lib/
+-libs-y                        += arch/mips/math-emu/
++libs-$(CONFIG_MIPS_FPU_EMULATOR)      += arch/mips/math-emu/
+ # See arch/mips/Kbuild for content of core part of the kernel
+ core-y += arch/mips/
+--- a/arch/mips/include/asm/fpu.h
++++ b/arch/mips/include/asm/fpu.h
+@@ -168,8 +168,10 @@ static inline int init_fpu(void)
+               ret = __own_fpu();
+               if (!ret)
+                       _init_fpu();
+-      } else
++      } else if (IS_ENABLED(CONFIG_MIPS_FPU_EMULATOR))
+               fpu_emulator_init_fpu();
++      else
++              ret = SIGILL;
+       return ret;
+ }
+--- a/arch/mips/include/asm/fpu_emulator.h
++++ b/arch/mips/include/asm/fpu_emulator.h
+@@ -30,6 +30,7 @@
+ #include <asm/local.h>
+ #include <asm/processor.h>
++#ifdef CONFIG_MIPS_FPU_EMULATOR
+ #ifdef CONFIG_DEBUG_FS
+ struct mips_fpu_emulator_stats {
+@@ -65,6 +66,20 @@ extern int do_dsemulret(struct pt_regs *
+ extern int fpu_emulator_cop1Handler(struct pt_regs *xcp,
+                                   struct mips_fpu_struct *ctx, int has_fpu,
+                                   void *__user *fault_addr);
++#else /* no CONFIG_MIPS_FPU_EMULATOR */
++static inline int do_dsemulret(struct pt_regs *xcp)
++{
++      return 0;       /* 0 means error, should never get here anyway */
++}
++
++static inline int fpu_emulator_cop1Handler(struct pt_regs *xcp,
++                              struct mips_fpu_struct *ctx, int has_fpu,
++                              void *__user *fault_addr)
++{
++      return SIGILL;  /* we don't speak MIPS FPU */
++}
++#endif        /* CONFIG_MIPS_FPU_EMULATOR */
++
+ int process_fpemu_return(int sig, void __user *fault_addr);
+ int mm_isBranchInstr(struct pt_regs *regs, struct mm_decoded_insn dec_insn,
+                    unsigned long *contpc);
diff --git a/trunk/target/linux/generic/patches-3.18/305-mips_module_reloc.patch b/trunk/target/linux/generic/patches-3.18/305-mips_module_reloc.patch
new file mode 100644 (file)
index 0000000..41cf806
--- /dev/null
@@ -0,0 +1,352 @@
+--- a/arch/mips/Makefile
++++ b/arch/mips/Makefile
+@@ -90,8 +90,13 @@ all-$(CONFIG_SYS_SUPPORTS_ZBOOT)+= vmlin
+ cflags-y                      += -G 0 -mno-abicalls -fno-pic -pipe -mno-branch-likely
+ cflags-y                      += -msoft-float
+ LDFLAGS_vmlinux                       += -G 0 -static -n -nostdlib --gc-sections
++ifdef CONFIG_64BIT
+ KBUILD_AFLAGS_MODULE          += -mlong-calls
+ KBUILD_CFLAGS_MODULE          += -mlong-calls
++else
++KBUILD_AFLAGS_MODULE          += -mno-long-calls
++KBUILD_CFLAGS_MODULE          += -mno-long-calls
++endif
+ ifndef CONFIG_FUNCTION_TRACER
+ KBUILD_CFLAGS_KERNEL          += -ffunction-sections -fdata-sections
+--- a/arch/mips/include/asm/module.h
++++ b/arch/mips/include/asm/module.h
+@@ -11,6 +11,11 @@ struct mod_arch_specific {
+       const struct exception_table_entry *dbe_start;
+       const struct exception_table_entry *dbe_end;
+       struct mips_hi16 *r_mips_hi16_list;
++
++      void *phys_plt_tbl;
++      void *virt_plt_tbl;
++      unsigned int phys_plt_offset;
++      unsigned int virt_plt_offset;
+ };
+ typedef uint8_t Elf64_Byte;           /* Type for a 8-bit quantity.  */
+--- a/arch/mips/kernel/module.c
++++ b/arch/mips/kernel/module.c
+@@ -43,14 +43,222 @@ struct mips_hi16 {
+ static LIST_HEAD(dbe_list);
+ static DEFINE_SPINLOCK(dbe_lock);
+-#ifdef MODULE_START
++/*
++ * Get the potential max trampolines size required of the init and
++ * non-init sections. Only used if we cannot find enough contiguous
++ * physically mapped memory to put the module into.
++ */
++static unsigned int
++get_plt_size(const Elf_Ehdr *hdr, const Elf_Shdr *sechdrs,
++             const char *secstrings, unsigned int symindex, bool is_init)
++{
++      unsigned long ret = 0;
++      unsigned int i, j;
++      Elf_Sym *syms;
++
++      /* Everything marked ALLOC (this includes the exported symbols) */
++      for (i = 1; i < hdr->e_shnum; ++i) {
++              unsigned int info = sechdrs[i].sh_info;
++
++              if (sechdrs[i].sh_type != SHT_REL
++                  && sechdrs[i].sh_type != SHT_RELA)
++                      continue;
++
++              /* Not a valid relocation section? */
++              if (info >= hdr->e_shnum)
++                      continue;
++
++              /* Don't bother with non-allocated sections */
++              if (!(sechdrs[info].sh_flags & SHF_ALLOC))
++                      continue;
++
++              /* If it's called *.init*, and we're not init, we're
++                   not interested */
++              if ((strstr(secstrings + sechdrs[i].sh_name, ".init") != 0)
++                  != is_init)
++                      continue;
++
++              syms = (Elf_Sym *) sechdrs[symindex].sh_addr;
++              if (sechdrs[i].sh_type == SHT_REL) {
++                      Elf_Mips_Rel *rel = (void *) sechdrs[i].sh_addr;
++                      unsigned int size = sechdrs[i].sh_size / sizeof(*rel);
++
++                      for (j = 0; j < size; ++j) {
++                              Elf_Sym *sym;
++
++                              if (ELF_MIPS_R_TYPE(rel[j]) != R_MIPS_26)
++                                      continue;
++
++                              sym = syms + ELF_MIPS_R_SYM(rel[j]);
++                              if (!is_init && sym->st_shndx != SHN_UNDEF)
++                                      continue;
++
++                              ret += 4 * sizeof(int);
++                      }
++              } else {
++                      Elf_Mips_Rela *rela = (void *) sechdrs[i].sh_addr;
++                      unsigned int size = sechdrs[i].sh_size / sizeof(*rela);
++
++                      for (j = 0; j < size; ++j) {
++                              Elf_Sym *sym;
++
++                              if (ELF_MIPS_R_TYPE(rela[j]) != R_MIPS_26)
++                                      continue;
++
++                              sym = syms + ELF_MIPS_R_SYM(rela[j]);
++                              if (!is_init && sym->st_shndx != SHN_UNDEF)
++                                      continue;
++
++                              ret += 4 * sizeof(int);
++                      }
++              }
++      }
++
++      return ret;
++}
++
++#ifndef MODULE_START
++static void *alloc_phys(unsigned long size)
++{
++      unsigned order;
++      struct page *page;
++      struct page *p;
++
++      size = PAGE_ALIGN(size);
++      order = get_order(size);
++
++      page = alloc_pages(GFP_KERNEL | __GFP_NORETRY | __GFP_NOWARN |
++                      __GFP_THISNODE, order);
++      if (!page)
++              return NULL;
++
++      split_page(page, order);
++
++      for (p = page + (size >> PAGE_SHIFT); p < page + (1 << order); ++p)
++              __free_page(p);
++
++      return page_address(page);
++}
++#endif
++
++static void free_phys(void *ptr, unsigned long size)
++{
++      struct page *page;
++      struct page *end;
++
++      page = virt_to_page(ptr);
++      end = page + (PAGE_ALIGN(size) >> PAGE_SHIFT);
++
++      for (; page < end; ++page)
++              __free_page(page);
++}
++
++
+ void *module_alloc(unsigned long size)
+ {
++#ifdef MODULE_START
+       return __vmalloc_node_range(size, 1, MODULE_START, MODULE_END,
+                               GFP_KERNEL, PAGE_KERNEL, NUMA_NO_NODE,
+                               __builtin_return_address(0));
++#else
++      void *ptr;
++
++      if (size == 0)
++              return NULL;
++
++      ptr = alloc_phys(size);
++
++      /* If we failed to allocate physically contiguous memory,
++       * fall back to regular vmalloc. The module loader code will
++       * create jump tables to handle long jumps */
++      if (!ptr)
++              return vmalloc(size);
++
++      return ptr;
++#endif
+ }
++
++static inline bool is_phys_addr(void *ptr)
++{
++#ifdef CONFIG_64BIT
++      return (KSEGX((unsigned long)ptr) == CKSEG0);
++#else
++      return (KSEGX(ptr) == KSEG0);
+ #endif
++}
++
++/* Free memory returned from module_alloc */
++void module_free(struct module *mod, void *module_region)
++{
++      if (is_phys_addr(module_region)) {
++              if (mod->module_init == module_region)
++                      free_phys(module_region, mod->init_size);
++              else if (mod->module_core == module_region)
++                      free_phys(module_region, mod->core_size);
++              else
++                      BUG();
++      } else {
++              vfree(module_region);
++      }
++}
++
++static void *__module_alloc(int size, bool phys)
++{
++      void *ptr;
++
++      if (phys)
++              ptr = kmalloc(size, GFP_KERNEL);
++      else
++              ptr = vmalloc(size);
++      return ptr;
++}
++
++static void __module_free(void *ptr)
++{
++      if (is_phys_addr(ptr))
++              kfree(ptr);
++      else
++              vfree(ptr);
++}
++
++int module_frob_arch_sections(Elf_Ehdr *hdr, Elf_Shdr *sechdrs,
++                            char *secstrings, struct module *mod)
++{
++      unsigned int symindex = 0;
++      unsigned int core_size, init_size;
++      int i;
++
++      mod->arch.phys_plt_offset = 0;
++      mod->arch.virt_plt_offset = 0;
++      mod->arch.phys_plt_tbl = NULL;
++      mod->arch.virt_plt_tbl = NULL;
++
++      if (IS_ENABLED(CONFIG_64BIT))
++              return 0;
++
++      for (i = 1; i < hdr->e_shnum; i++)
++              if (sechdrs[i].sh_type == SHT_SYMTAB)
++                      symindex = i;
++
++      core_size = get_plt_size(hdr, sechdrs, secstrings, symindex, false);
++      init_size = get_plt_size(hdr, sechdrs, secstrings, symindex, true);
++
++      if ((core_size + init_size) == 0)
++              return 0;
++
++      mod->arch.phys_plt_tbl = __module_alloc(core_size + init_size, 1);
++      if (!mod->arch.phys_plt_tbl)
++              return -ENOMEM;
++
++      mod->arch.virt_plt_tbl = __module_alloc(core_size + init_size, 0);
++      if (!mod->arch.virt_plt_tbl) {
++              __module_free(mod->arch.phys_plt_tbl);
++              mod->arch.phys_plt_tbl = NULL;
++              return -ENOMEM;
++      }
++
++      return 0;
++}
+ int apply_r_mips_none(struct module *me, u32 *location, Elf_Addr v)
+ {
+@@ -64,8 +272,39 @@ static int apply_r_mips_32_rel(struct mo
+       return 0;
+ }
++static Elf_Addr add_plt_entry_to(unsigned *plt_offset,
++                               void *start, Elf_Addr v)
++{
++      unsigned *tramp = start + *plt_offset;
++      *plt_offset += 4 * sizeof(int);
++
++      /* adjust carry for addiu */
++      if (v & 0x00008000)
++              v += 0x10000;
++
++      tramp[0] = 0x3c190000 | (v >> 16);      /* lui t9, hi16 */
++      tramp[1] = 0x27390000 | (v & 0xffff);   /* addiu t9, t9, lo16 */
++      tramp[2] = 0x03200008;                  /* jr t9 */
++      tramp[3] = 0x00000000;                  /* nop */
++
++      return (Elf_Addr) tramp;
++}
++
++static Elf_Addr add_plt_entry(struct module *me, void *location, Elf_Addr v)
++{
++      if (is_phys_addr(location))
++              return add_plt_entry_to(&me->arch.phys_plt_offset,
++                              me->arch.phys_plt_tbl, v);
++      else
++              return add_plt_entry_to(&me->arch.virt_plt_offset,
++                              me->arch.virt_plt_tbl, v);
++
++}
++
+ static int apply_r_mips_26_rel(struct module *me, u32 *location, Elf_Addr v)
+ {
++      u32 ofs = *location & 0x03ffffff;
++
+       if (v % 4) {
+               pr_err("module %s: dangerous R_MIPS_26 REL relocation\n",
+                      me->name);
+@@ -73,14 +312,17 @@ static int apply_r_mips_26_rel(struct mo
+       }
+       if ((v & 0xf0000000) != (((unsigned long)location + 4) & 0xf0000000)) {
+-              printk(KERN_ERR
+-                     "module %s: relocation overflow\n",
+-                     me->name);
+-              return -ENOEXEC;
++              v = add_plt_entry(me, location, v + (ofs << 2));
++              if (!v) {
++                      printk(KERN_ERR
++                              "module %s: relocation overflow\n", me->name);
++                      return -ENOEXEC;
++              }
++              ofs = 0;
+       }
+       *location = (*location & ~0x03ffffff) |
+-                  ((*location + (v >> 2)) & 0x03ffffff);
++                  ((ofs + (v >> 2)) & 0x03ffffff);
+       return 0;
+ }
+@@ -287,11 +529,32 @@ int module_finalize(const Elf_Ehdr *hdr,
+               list_add(&me->arch.dbe_list, &dbe_list);
+               spin_unlock_irq(&dbe_lock);
+       }
++
++      /* Get rid of the fixup trampoline if we're running the module
++       * from physically mapped address space */
++      if (me->arch.phys_plt_offset == 0) {
++              __module_free(me->arch.phys_plt_tbl);
++              me->arch.phys_plt_tbl = NULL;
++      }
++      if (me->arch.virt_plt_offset == 0) {
++              __module_free(me->arch.virt_plt_tbl);
++              me->arch.virt_plt_tbl = NULL;
++      }
++
+       return 0;
+ }
+ void module_arch_cleanup(struct module *mod)
+ {
++      if (mod->arch.phys_plt_tbl) {
++              __module_free(mod->arch.phys_plt_tbl);
++              mod->arch.phys_plt_tbl = NULL;
++      }
++      if (mod->arch.virt_plt_tbl) {
++              __module_free(mod->arch.virt_plt_tbl);
++              mod->arch.virt_plt_tbl = NULL;
++      }
++
+       spin_lock_irq(&dbe_lock);
+       list_del(&mod->arch.dbe_list);
+       spin_unlock_irq(&dbe_lock);
diff --git a/trunk/target/linux/generic/patches-3.18/306-mips_mem_functions_performance.patch b/trunk/target/linux/generic/patches-3.18/306-mips_mem_functions_performance.patch
new file mode 100644 (file)
index 0000000..9818677
--- /dev/null
@@ -0,0 +1,83 @@
+--- a/arch/mips/include/asm/string.h
++++ b/arch/mips/include/asm/string.h
+@@ -133,11 +133,44 @@ strncmp(__const__ char *__cs, __const__
+ #define __HAVE_ARCH_MEMSET
+ extern void *memset(void *__s, int __c, size_t __count);
++#define memset(__s, __c, len)                                 \
++({                                                            \
++      size_t __len = (len);                                   \
++      void *__ret;                                            \
++      if (__builtin_constant_p(len) && __len >= 64)           \
++              __ret = memset((__s), (__c), __len);            \
++      else                                                    \
++              __ret = __builtin_memset((__s), (__c), __len);  \
++      __ret;                                                  \
++})
+ #define __HAVE_ARCH_MEMCPY
+ extern void *memcpy(void *__to, __const__ void *__from, size_t __n);
++#define memcpy(dst, src, len)                                 \
++({                                                            \
++      size_t __len = (len);                                   \
++      void *__ret;                                            \
++      if (__builtin_constant_p(len) && __len >= 64)           \
++              __ret = memcpy((dst), (src), __len);            \
++      else                                                    \
++              __ret = __builtin_memcpy((dst), (src), __len);  \
++      __ret;                                                  \
++})
+ #define __HAVE_ARCH_MEMMOVE
+ extern void *memmove(void *__dest, __const__ void *__src, size_t __n);
++#define memmove(dst, src, len)                                        \
++({                                                            \
++      size_t __len = (len);                                   \
++      void *__ret;                                            \
++      if (__builtin_constant_p(len) && __len >= 64)           \
++              __ret = memmove((dst), (src), __len);           \
++      else                                                    \
++              __ret = __builtin_memmove((dst), (src), __len); \
++      __ret;                                                  \
++})
++
++#define __HAVE_ARCH_MEMCMP
++#define memcmp(src1, src2, len) __builtin_memcmp((src1), (src2), (len))
+ #endif /* _ASM_STRING_H */
+--- a/arch/mips/lib/Makefile
++++ b/arch/mips/lib/Makefile
+@@ -4,7 +4,7 @@
+ lib-y += bitops.o csum_partial.o delay.o memcpy.o memset.o \
+          mips-atomic.o strlen_user.o strncpy_user.o \
+-         strnlen_user.o uncached.o
++         strnlen_user.o uncached.o memcmp.o
+ obj-y                 += iomap.o
+ obj-$(CONFIG_PCI)     += iomap-pci.o
+--- /dev/null
++++ b/arch/mips/lib/memcmp.c
+@@ -0,0 +1,22 @@
++/*
++ *  copied from linux/lib/string.c
++ *
++ *  Copyright (C) 1991, 1992  Linus Torvalds
++ */
++
++#include <linux/module.h>
++#include <linux/string.h>
++
++#undef memcmp
++int memcmp(const void *cs, const void *ct, size_t count)
++{
++      const unsigned char *su1, *su2;
++      int res = 0;
++
++      for (su1 = cs, su2 = ct; 0 < count; ++su1, ++su2, count--)
++              if ((res = *su1 - *su2) != 0)
++                      break;
++      return res;
++}
++EXPORT_SYMBOL(memcmp);
++
diff --git a/trunk/target/linux/generic/patches-3.18/309-mips_fuse_workaround.patch b/trunk/target/linux/generic/patches-3.18/309-mips_fuse_workaround.patch
new file mode 100644 (file)
index 0000000..934b119
--- /dev/null
@@ -0,0 +1,32 @@
+--- a/arch/mips/mm/cache.c
++++ b/arch/mips/mm/cache.c
+@@ -38,6 +38,7 @@ void (*__flush_cache_vunmap)(void);
+ void (*__flush_kernel_vmap_range)(unsigned long vaddr, int size);
+ EXPORT_SYMBOL_GPL(__flush_kernel_vmap_range);
++EXPORT_SYMBOL(__flush_cache_all);
+ void (*__invalidate_kernel_vmap_range)(unsigned long vaddr, int size);
+ /* MIPS specific cache operations */
+--- a/fs/fuse/dev.c
++++ b/fs/fuse/dev.c
+@@ -20,6 +20,9 @@
+ #include <linux/swap.h>
+ #include <linux/splice.h>
+ #include <linux/aio.h>
++#ifdef CONFIG_MIPS
++#include <asm/cacheflush.h>
++#endif
+ MODULE_ALIAS_MISCDEV(FUSE_MINOR);
+ MODULE_ALIAS("devname:fuse");
+@@ -749,6 +752,9 @@ static int fuse_copy_fill(struct fuse_co
+ static int fuse_copy_do(struct fuse_copy_state *cs, void **val, unsigned *size)
+ {
+       unsigned ncpy = min(*size, cs->len);
++#ifdef CONFIG_MIPS
++      __flush_cache_all();
++#endif
+       if (val) {
+               void *pgaddr = kmap_atomic(cs->pg);
+               void *buf = pgaddr + cs->offset;
diff --git a/trunk/target/linux/generic/patches-3.18/310-arm_module_unresolved_weak_sym.patch b/trunk/target/linux/generic/patches-3.18/310-arm_module_unresolved_weak_sym.patch
new file mode 100644 (file)
index 0000000..9210c1d
--- /dev/null
@@ -0,0 +1,13 @@
+--- a/arch/arm/kernel/module.c
++++ b/arch/arm/kernel/module.c
+@@ -83,6 +83,10 @@ apply_relocate(Elf32_Shdr *sechdrs, cons
+                       return -ENOEXEC;
+               }
++              if ((IS_ERR_VALUE(sym->st_value) || !sym->st_value) &&
++                  ELF_ST_BIND(sym->st_info) == STB_WEAK)
++                      continue;
++
+               loc = dstsec->sh_addr + rel->r_offset;
+               switch (ELF32_R_TYPE(rel->r_info)) {
diff --git a/trunk/target/linux/generic/patches-3.18/320-ppc4xx_optimization.patch b/trunk/target/linux/generic/patches-3.18/320-ppc4xx_optimization.patch
new file mode 100644 (file)
index 0000000..8673de4
--- /dev/null
@@ -0,0 +1,31 @@
+Upstream doesn't optimize the kernel and bootwrappers for ppc44x because
+they still want to support gcc 3.3 -- well, we don't.
+
+--- a/arch/powerpc/Makefile
++++ b/arch/powerpc/Makefile
+@@ -203,7 +203,8 @@ ifeq ($(CONFIG_FUNCTION_TRACER),y)
+ KBUILD_CFLAGS         += -mno-sched-epilog
+ endif
+-cpu-as-$(CONFIG_4xx)          += -Wa,-m405
++cpu-as-$(CONFIG_40x)          += -Wa,-m405
++cpu-as-$(CONFIG_44x)          += -Wa,-m440
+ cpu-as-$(CONFIG_ALTIVEC)      += -Wa,-maltivec
+ cpu-as-$(CONFIG_E200)         += -Wa,-me200
+--- a/arch/powerpc/boot/Makefile
++++ b/arch/powerpc/boot/Makefile
+@@ -45,10 +45,10 @@ BOOTCFLAGS += -I$(obj) -I$(srctree)/$(ob
+ DTC_FLAGS     ?= -p 1024
+ $(obj)/4xx.o: BOOTCFLAGS += -mcpu=405
+-$(obj)/ebony.o: BOOTCFLAGS += -mcpu=405
++$(obj)/ebony.o: BOOTCFLAGS += -mcpu=440
+ $(obj)/cuboot-hotfoot.o: BOOTCFLAGS += -mcpu=405
+-$(obj)/cuboot-taishan.o: BOOTCFLAGS += -mcpu=405
+-$(obj)/cuboot-katmai.o: BOOTCFLAGS += -mcpu=405
++$(obj)/cuboot-taishan.o: BOOTCFLAGS += -mcpu=440
++$(obj)/cuboot-katmai.o: BOOTCFLAGS += -mcpu=440
+ $(obj)/cuboot-acadia.o: BOOTCFLAGS += -mcpu=405
+ $(obj)/treeboot-walnut.o: BOOTCFLAGS += -mcpu=405
+ $(obj)/treeboot-iss4xx.o: BOOTCFLAGS += -mcpu=405
diff --git a/trunk/target/linux/generic/patches-3.18/321-powerpc_crtsavres_prereq.patch b/trunk/target/linux/generic/patches-3.18/321-powerpc_crtsavres_prereq.patch
new file mode 100644 (file)
index 0000000..ab6ea7b
--- /dev/null
@@ -0,0 +1,10 @@
+--- a/arch/powerpc/Makefile
++++ b/arch/powerpc/Makefile
+@@ -165,7 +165,6 @@ CPP                = $(CC) -E $(KBUILD_CFLAGS)
+ CHECKFLAGS    += -m$(CONFIG_WORD_SIZE) -D__powerpc__ -D__powerpc$(CONFIG_WORD_SIZE)__
+-KBUILD_LDFLAGS_MODULE += arch/powerpc/lib/crtsavres.o
+ ifeq ($(CONFIG_476FPE_ERR46),y)
+       KBUILD_LDFLAGS_MODULE += --ppc476-workaround \
diff --git a/trunk/target/linux/generic/patches-3.18/330-MIPS-kexec-Accept-command-line-parameters-from-users.patch b/trunk/target/linux/generic/patches-3.18/330-MIPS-kexec-Accept-command-line-parameters-from-users.patch
new file mode 100644 (file)
index 0000000..a69d197
--- /dev/null
@@ -0,0 +1,298 @@
+From d8582dcf1ed66eee88a11e4760f42c0d6c8822be Mon Sep 17 00:00:00 2001
+From: Yousong Zhou <yszhou4tech@gmail.com>
+Date: Sat, 31 Jan 2015 22:26:03 +0800
+Subject: [PATCH 331/331] MIPS: kexec: Accept command line parameters from
+ userspace.
+
+Signed-off-by: Yousong Zhou <yszhou4tech@gmail.com>
+---
+ arch/mips/kernel/machine_kexec.c   |  153 +++++++++++++++++++++++++++++++-----
+ arch/mips/kernel/machine_kexec.h   |   20 +++++
+ arch/mips/kernel/relocate_kernel.S |   21 +++--
+ 3 files changed, 167 insertions(+), 27 deletions(-)
+ create mode 100644 arch/mips/kernel/machine_kexec.h
+
+--- a/arch/mips/kernel/machine_kexec.c
++++ b/arch/mips/kernel/machine_kexec.c
+@@ -10,45 +10,145 @@
+ #include <linux/mm.h>
+ #include <linux/delay.h>
++#include <asm/bootinfo.h>
+ #include <asm/cacheflush.h>
+ #include <asm/page.h>
+-
+-extern const unsigned char relocate_new_kernel[];
+-extern const size_t relocate_new_kernel_size;
+-
+-extern unsigned long kexec_start_address;
+-extern unsigned long kexec_indirection_page;
++#include <asm/uaccess.h>
++#include "machine_kexec.h"
+ int (*_machine_kexec_prepare)(struct kimage *) = NULL;
+ void (*_machine_kexec_shutdown)(void) = NULL;
+ void (*_machine_crash_shutdown)(struct pt_regs *regs) = NULL;
++
+ #ifdef CONFIG_SMP
+ void (*relocated_kexec_smp_wait) (void *);
+ atomic_t kexec_ready_to_reboot = ATOMIC_INIT(0);
+ #endif
+-int
+-machine_kexec_prepare(struct kimage *kimage)
++static void machine_kexec_print_args(void)
+ {
++      unsigned long argc = (int)kexec_args[0];
++      int i;
++
++      pr_info("kexec_args[0] (argc): %lu\n", argc);
++      pr_info("kexec_args[1] (argv): %p\n", (void *)kexec_args[1]);
++      pr_info("kexec_args[2] (env ): %p\n", (void *)kexec_args[2]);
++      pr_info("kexec_args[3] (desc): %p\n", (void *)kexec_args[3]);
++
++      for (i = 0; i < argc; i++) {
++              pr_info("kexec_argv[%d] = %p, %s\n",
++                              i, kexec_argv[i], kexec_argv[i]);
++      }
++}
++
++static void machine_kexec_init_argv(struct kimage *image)
++{
++      void __user *buf = NULL;
++      size_t bufsz;
++      size_t size;
++      int i;
++
++      bufsz = 0;
++      for (i = 0; i < image->nr_segments; i++) {
++              struct kexec_segment *seg;
++
++              seg = &image->segment[i];
++              if (seg->bufsz < 6)
++                      continue;
++
++              if (strncmp((char *) seg->buf, "kexec ", 6))
++                      continue;
++
++              buf = seg->buf;
++              bufsz = seg->bufsz;
++              break;
++      }
++
++      if (!buf)
++              return;
++
++      size = KEXEC_COMMAND_LINE_SIZE;
++      size = min(size, bufsz);
++      if (size < bufsz)
++              pr_warn("kexec command line truncated to %zd bytes\n", size);
++
++      /* Copy to kernel space */
++      copy_from_user(kexec_argv_buf, buf, size);
++      kexec_argv_buf[size - 1] = 0;
++}
++
++static void machine_kexec_parse_argv(struct kimage *image)
++{
++      char *reboot_code_buffer;
++      int reloc_delta;
++      char *ptr;
++      int argc;
++      int i;
++
++      ptr = kexec_argv_buf;
++      argc = 0;
++
++      /*
++       * convert command line string to array of parameters
++       * (as bootloader does).
++       */
++      while (ptr && *ptr && (KEXEC_MAX_ARGC > argc)) {
++              if (*ptr == ' ') {
++                      *ptr++ = '\0';
++                      continue;
++              }
++
++              kexec_argv[argc++] = ptr;
++              ptr = strchr(ptr, ' ');
++      }
++
++      if (!argc)
++              return;
++
++      kexec_args[0] = argc;
++      kexec_args[1] = (unsigned long)kexec_argv;
++      kexec_args[2] = 0;
++      kexec_args[3] = 0;
++
++      reboot_code_buffer = page_address(image->control_code_page);
++      reloc_delta = reboot_code_buffer - (char *)kexec_relocate_new_kernel;
++
++      kexec_args[1] += reloc_delta;
++      for (i = 0; i < argc; i++)
++              kexec_argv[i] += reloc_delta;
++}
++
++int machine_kexec_prepare(struct kimage *kimage)
++{
++      /*
++       * Whenever arguments passed from kexec-tools, Init the arguments as
++       * the original ones to try avoiding booting failure.
++       */
++
++      kexec_args[0] = fw_arg0;
++      kexec_args[1] = fw_arg1;
++      kexec_args[2] = fw_arg2;
++      kexec_args[3] = fw_arg3;
++
++      machine_kexec_init_argv(kimage);
++      machine_kexec_parse_argv(kimage);
++
+       if (_machine_kexec_prepare)
+               return _machine_kexec_prepare(kimage);
+       return 0;
+ }
+-void
+-machine_kexec_cleanup(struct kimage *kimage)
++void machine_kexec_cleanup(struct kimage *kimage)
+ {
+ }
+-void
+-machine_shutdown(void)
++void machine_shutdown(void)
+ {
+       if (_machine_kexec_shutdown)
+               _machine_kexec_shutdown();
+ }
+-void
+-machine_crash_shutdown(struct pt_regs *regs)
++void machine_crash_shutdown(struct pt_regs *regs)
+ {
+       if (_machine_crash_shutdown)
+               _machine_crash_shutdown(regs);
+@@ -66,10 +166,12 @@ machine_kexec(struct kimage *image)
+       unsigned long *ptr;
+       reboot_code_buffer =
+-        (unsigned long)page_address(image->control_code_page);
++              (unsigned long)page_address(image->control_code_page);
++      pr_info("reboot_code_buffer = %p\n", (void *)reboot_code_buffer);
+       kexec_start_address =
+               (unsigned long) phys_to_virt(image->start);
++      pr_info("kexec_start_address = %p\n", (void *)kexec_start_address);
+       if (image->type == KEXEC_TYPE_DEFAULT) {
+               kexec_indirection_page =
+@@ -77,9 +179,19 @@ machine_kexec(struct kimage *image)
+       } else {
+               kexec_indirection_page = (unsigned long)&image->head;
+       }
++      pr_info("kexec_indirection_page = %p\n", (void *)kexec_indirection_page);
+-      memcpy((void*)reboot_code_buffer, relocate_new_kernel,
+-             relocate_new_kernel_size);
++      pr_info("Where is memcpy: %p\n", memcpy);
++      pr_info("kexec_relocate_new_kernel = %p, kexec_relocate_new_kernel_end = %p\n",
++              (void *)kexec_relocate_new_kernel, &kexec_relocate_new_kernel_end);
++      pr_info("Copy %lu bytes from %p to %p\n", KEXEC_RELOCATE_NEW_KERNEL_SIZE,
++              (void *)kexec_relocate_new_kernel, (void *)reboot_code_buffer);
++      memcpy((void*)reboot_code_buffer, kexec_relocate_new_kernel,
++             KEXEC_RELOCATE_NEW_KERNEL_SIZE);
++
++      pr_info("Before _print_args().\n");
++      machine_kexec_print_args();
++      pr_info("Before eval loop.\n");
+       /*
+        * The generic kexec code builds a page list with physical
+@@ -98,15 +210,16 @@ machine_kexec(struct kimage *image)
+       /*
+        * we do not want to be bothered.
+        */
++      pr_info("Before irq_disable.\n");
+       local_irq_disable();
+-      printk("Will call new kernel at %08lx\n", image->start);
+-      printk("Bye ...\n");
++      pr_info("Will call new kernel at %08lx\n", image->start);
++      pr_info("Bye ...\n");
+       __flush_cache_all();
+ #ifdef CONFIG_SMP
+       /* All secondary cpus now may jump to kexec_wait cycle */
+       relocated_kexec_smp_wait = reboot_code_buffer +
+-              (void *)(kexec_smp_wait - relocate_new_kernel);
++              (void *)(kexec_smp_wait - kexec_relocate_new_kernel);
+       smp_wmb();
+       atomic_set(&kexec_ready_to_reboot, 1);
+ #endif
+--- /dev/null
++++ b/arch/mips/kernel/machine_kexec.h
+@@ -0,0 +1,20 @@
++#ifndef _MACHINE_KEXEC_H
++#define _MACHINE_KEXEC_H
++
++#ifndef __ASSEMBLY__
++extern const unsigned char kexec_relocate_new_kernel[];
++extern unsigned long kexec_relocate_new_kernel_end;
++extern unsigned long kexec_start_address;
++extern unsigned long kexec_indirection_page;
++
++extern char kexec_argv_buf[];
++extern char *kexec_argv[];
++
++#define KEXEC_RELOCATE_NEW_KERNEL_SIZE        ((unsigned long)&kexec_relocate_new_kernel_end - (unsigned long)kexec_relocate_new_kernel)
++#endif /* !__ASSEMBLY__ */
++
++#define KEXEC_COMMAND_LINE_SIZE               256
++#define KEXEC_ARGV_SIZE                       (KEXEC_COMMAND_LINE_SIZE / 16)
++#define KEXEC_MAX_ARGC                        (KEXEC_ARGV_SIZE / sizeof(long))
++
++#endif
+--- a/arch/mips/kernel/relocate_kernel.S
++++ b/arch/mips/kernel/relocate_kernel.S
+@@ -12,8 +12,9 @@
+ #include <asm/mipsregs.h>
+ #include <asm/stackframe.h>
+ #include <asm/addrspace.h>
++#include "machine_kexec.h"
+-LEAF(relocate_new_kernel)
++LEAF(kexec_relocate_new_kernel)
+       PTR_L a0,       arg0
+       PTR_L a1,       arg1
+       PTR_L a2,       arg2
+@@ -98,7 +99,7 @@ done:
+ #endif
+       /* jump to kexec_start_address */
+       j               s1
+-      END(relocate_new_kernel)
++      END(kexec_relocate_new_kernel)
+ #ifdef CONFIG_SMP
+ /*
+@@ -184,9 +185,15 @@ kexec_indirection_page:
+       PTR             0
+       .size           kexec_indirection_page, PTRSIZE
+-relocate_new_kernel_end:
++kexec_argv_buf:
++      EXPORT(kexec_argv_buf)
++      .skip           KEXEC_COMMAND_LINE_SIZE
++      .size           kexec_argv_buf, KEXEC_COMMAND_LINE_SIZE
++
++kexec_argv:
++      EXPORT(kexec_argv)
++      .skip           KEXEC_ARGV_SIZE
++      .size           kexec_argv, KEXEC_ARGV_SIZE
+-relocate_new_kernel_size:
+-      EXPORT(relocate_new_kernel_size)
+-      PTR             relocate_new_kernel_end - relocate_new_kernel
+-      .size           relocate_new_kernel_size, PTRSIZE
++kexec_relocate_new_kernel_end:
++      EXPORT(kexec_relocate_new_kernel_end)
diff --git a/trunk/target/linux/generic/patches-3.18/400-mtd-add-rootfs-split-support.patch b/trunk/target/linux/generic/patches-3.18/400-mtd-add-rootfs-split-support.patch
new file mode 100644 (file)
index 0000000..15fd071
--- /dev/null
@@ -0,0 +1,171 @@
+--- a/drivers/mtd/Kconfig
++++ b/drivers/mtd/Kconfig
+@@ -12,6 +12,23 @@ menuconfig MTD
+ if MTD
++menu "libreCMC specific MTD options"
++
++config MTD_ROOTFS_ROOT_DEV
++      bool "Automatically set 'rootfs' partition to be root filesystem"
++      default y
++
++config MTD_SPLIT_FIRMWARE
++      bool "Automatically split firmware partition for kernel+rootfs"
++      default y
++
++config MTD_SPLIT_FIRMWARE_NAME
++      string "Firmware partition name"
++      depends on MTD_SPLIT_FIRMWARE
++      default "firmware"
++
++endmenu
++
+ config MTD_TESTS
+       tristate "MTD tests support (DANGEROUS)"
+       depends on m
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -29,9 +29,11 @@
+ #include <linux/kmod.h>
+ #include <linux/mtd/mtd.h>
+ #include <linux/mtd/partitions.h>
++#include <linux/magic.h>
+ #include <linux/err.h>
+ #include "mtdcore.h"
++#include "mtdsplit/mtdsplit.h"
+ /* Our partition linked list */
+ static LIST_HEAD(mtd_partitions);
+@@ -45,13 +47,14 @@ struct mtd_part {
+       struct list_head list;
+ };
++static void mtd_partition_split(struct mtd_info *master, struct mtd_part *part);
++
+ /*
+  * Given a pointer to the MTD object in the mtd_part structure, we can retrieve
+  * the pointer to that structure with this macro.
+  */
+ #define PART(x)  ((struct mtd_part *)(x))
+-
+ /*
+  * MTD methods which simply translate the effective address and pass through
+  * to the _real_ device.
+@@ -547,8 +550,10 @@ out_register:
+       return slave;
+ }
+-int mtd_add_partition(struct mtd_info *master, const char *name,
+-                    long long offset, long long length)
++
++static int
++__mtd_add_partition(struct mtd_info *master, const char *name,
++                  long long offset, long long length, bool dup_check)
+ {
+       struct mtd_partition part;
+       struct mtd_part *p, *new;
+@@ -580,21 +585,24 @@ int mtd_add_partition(struct mtd_info *m
+       end = offset + length;
+       mutex_lock(&mtd_partitions_mutex);
+-      list_for_each_entry(p, &mtd_partitions, list)
+-              if (p->master == master) {
+-                      if ((start >= p->offset) &&
+-                          (start < (p->offset + p->mtd.size)))
+-                              goto err_inv;
+-
+-                      if ((end >= p->offset) &&
+-                          (end < (p->offset + p->mtd.size)))
+-                              goto err_inv;
+-              }
++      if (dup_check) {
++              list_for_each_entry(p, &mtd_partitions, list)
++                      if (p->master == master) {
++                              if ((start >= p->offset) &&
++                                  (start < (p->offset + p->mtd.size)))
++                                      goto err_inv;
++
++                              if ((end >= p->offset) &&
++                                  (end < (p->offset + p->mtd.size)))
++                                      goto err_inv;
++                      }
++      }
+       list_add(&new->list, &mtd_partitions);
+       mutex_unlock(&mtd_partitions_mutex);
+       add_mtd_device(&new->mtd);
++      mtd_partition_split(master, new);
+       return ret;
+ err_inv:
+@@ -604,6 +612,12 @@ err_inv:
+ }
+ EXPORT_SYMBOL_GPL(mtd_add_partition);
++int mtd_add_partition(struct mtd_info *master, const char *name,
++                    long long offset, long long length)
++{
++      return __mtd_add_partition(master, name, offset, length, true);
++}
++
+ int mtd_del_partition(struct mtd_info *master, int partno)
+ {
+       struct mtd_part *slave, *next;
+@@ -627,6 +641,35 @@ int mtd_del_partition(struct mtd_info *m
+ }
+ EXPORT_SYMBOL_GPL(mtd_del_partition);
++#ifdef CONFIG_MTD_SPLIT_FIRMWARE_NAME
++#define SPLIT_FIRMWARE_NAME   CONFIG_MTD_SPLIT_FIRMWARE_NAME
++#else
++#define SPLIT_FIRMWARE_NAME   "unused"
++#endif
++
++static void split_firmware(struct mtd_info *master, struct mtd_part *part)
++{
++}
++
++void __weak arch_split_mtd_part(struct mtd_info *master, const char *name,
++                                int offset, int size)
++{
++}
++
++static void mtd_partition_split(struct mtd_info *master, struct mtd_part *part)
++{
++      static int rootfs_found = 0;
++
++      if (rootfs_found)
++              return;
++
++      if (!strcmp(part->mtd.name, SPLIT_FIRMWARE_NAME) &&
++          config_enabled(CONFIG_MTD_SPLIT_FIRMWARE))
++              split_firmware(master, part);
++
++      arch_split_mtd_part(master, part->mtd.name, part->offset,
++                          part->mtd.size);
++}
+ /*
+  * This function, given a master MTD object and a partition table, creates
+  * and registers slave MTD objects which are bound to the master according to
+@@ -656,6 +699,7 @@ int add_mtd_partitions(struct mtd_info *
+               mutex_unlock(&mtd_partitions_mutex);
+               add_mtd_device(&slave->mtd);
++              mtd_partition_split(master, slave);
+               cur_offset = slave->offset + slave->mtd.size;
+       }
+--- a/include/linux/mtd/partitions.h
++++ b/include/linux/mtd/partitions.h
+@@ -84,5 +84,7 @@ int mtd_add_partition(struct mtd_info *m
+                     long long offset, long long length);
+ int mtd_del_partition(struct mtd_info *master, int partno);
+ uint64_t mtd_get_device_size(const struct mtd_info *mtd);
++extern void __weak arch_split_mtd_part(struct mtd_info *master,
++                                     const char *name, int offset, int size);
+ #endif
diff --git a/trunk/target/linux/generic/patches-3.18/401-mtd-add-support-for-different-partition-parser-types.patch b/trunk/target/linux/generic/patches-3.18/401-mtd-add-support-for-different-partition-parser-types.patch
new file mode 100644 (file)
index 0000000..2ddcbff
--- /dev/null
@@ -0,0 +1,113 @@
+From 02cff0ccaa6d364f5c1eeea83f47ac80ccc967d4 Mon Sep 17 00:00:00 2001
+From: Gabor Juhos <juhosg@openwrt.org>
+Date: Tue, 3 Sep 2013 18:11:50 +0200
+Subject: [PATCH] mtd: add support for different partition parser types
+
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+ drivers/mtd/mtdpart.c          |   56 ++++++++++++++++++++++++++++++++++++++++
+ include/linux/mtd/partitions.h |   11 ++++++++
+ 2 files changed, 67 insertions(+)
+
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -729,6 +729,30 @@ static struct mtd_part_parser *get_parti
+ #define put_partition_parser(p) do { module_put((p)->owner); } while (0)
++static struct mtd_part_parser *
++get_partition_parser_by_type(enum mtd_parser_type type,
++                           struct mtd_part_parser *start)
++{
++      struct mtd_part_parser *p, *ret = NULL;
++
++      spin_lock(&part_parser_lock);
++
++      p = list_prepare_entry(start, &part_parsers, list);
++      if (start)
++              put_partition_parser(start);
++
++      list_for_each_entry_continue(p, &part_parsers, list) {
++              if (p->type == type && try_module_get(p->owner)) {
++                      ret = p;
++                      break;
++              }
++      }
++
++      spin_unlock(&part_parser_lock);
++
++      return ret;
++}
++
+ void register_mtd_parser(struct mtd_part_parser *p)
+ {
+       spin_lock(&part_parser_lock);
+@@ -802,6 +826,38 @@ int parse_mtd_partitions(struct mtd_info
+       return ret;
+ }
++int parse_mtd_partitions_by_type(struct mtd_info *master,
++                               enum mtd_parser_type type,
++                               struct mtd_partition **pparts,
++                               struct mtd_part_parser_data *data)
++{
++      struct mtd_part_parser *prev = NULL;
++      int ret = 0;
++
++      while (1) {
++              struct mtd_part_parser *parser;
++
++              parser = get_partition_parser_by_type(type, prev);
++              if (!parser)
++                      break;
++
++              ret = (*parser->parse_fn)(master, pparts, data);
++
++              if (ret > 0) {
++                      put_partition_parser(parser);
++                      printk(KERN_NOTICE
++                             "%d %s partitions found on MTD device %s\n",
++                             ret, parser->name, master->name);
++                      break;
++              }
++
++              prev = parser;
++      }
++
++      return ret;
++}
++EXPORT_SYMBOL_GPL(parse_mtd_partitions_by_type);
++
+ int mtd_is_partition(const struct mtd_info *mtd)
+ {
+       struct mtd_part *part;
+--- a/include/linux/mtd/partitions.h
++++ b/include/linux/mtd/partitions.h
+@@ -68,12 +68,17 @@ struct mtd_part_parser_data {
+  * Functions dealing with the various ways of partitioning the space
+  */
++enum mtd_parser_type {
++      MTD_PARSER_TYPE_DEVICE = 0,
++};
++
+ struct mtd_part_parser {
+       struct list_head list;
+       struct module *owner;
+       const char *name;
+       int (*parse_fn)(struct mtd_info *, struct mtd_partition **,
+                       struct mtd_part_parser_data *);
++      enum mtd_parser_type type;
+ };
+ extern void register_mtd_parser(struct mtd_part_parser *parser);
+@@ -87,4 +92,9 @@ uint64_t mtd_get_device_size(const struc
+ extern void __weak arch_split_mtd_part(struct mtd_info *master,
+                                      const char *name, int offset, int size);
++int parse_mtd_partitions_by_type(struct mtd_info *master,
++                               enum mtd_parser_type type,
++                               struct mtd_partition **pparts,
++                               struct mtd_part_parser_data *data);
++
+ #endif
diff --git a/trunk/target/linux/generic/patches-3.18/402-mtd-use-typed-mtd-parsers-for-rootfs-and-firmware-split.patch b/trunk/target/linux/generic/patches-3.18/402-mtd-use-typed-mtd-parsers-for-rootfs-and-firmware-split.patch
new file mode 100644 (file)
index 0000000..4d99422
--- /dev/null
@@ -0,0 +1,72 @@
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -641,6 +641,37 @@ int mtd_del_partition(struct mtd_info *m
+ }
+ EXPORT_SYMBOL_GPL(mtd_del_partition);
++static int
++run_parsers_by_type(struct mtd_part *slave, enum mtd_parser_type type)
++{
++      struct mtd_partition *parts;
++      int nr_parts;
++      int i;
++
++      nr_parts = parse_mtd_partitions_by_type(&slave->mtd, type, &parts,
++                                              NULL);
++      if (nr_parts <= 0)
++              return nr_parts;
++
++      if (WARN_ON(!parts))
++              return 0;
++
++      for (i = 0; i < nr_parts; i++) {
++              /* adjust partition offsets */
++              parts[i].offset += slave->offset;
++
++              __mtd_add_partition(slave->master,
++                                  parts[i].name,
++                                  parts[i].offset,
++                                  parts[i].size,
++                                  false);
++      }
++
++      kfree(parts);
++
++      return nr_parts;
++}
++
+ #ifdef CONFIG_MTD_SPLIT_FIRMWARE_NAME
+ #define SPLIT_FIRMWARE_NAME   CONFIG_MTD_SPLIT_FIRMWARE_NAME
+ #else
+@@ -649,6 +680,7 @@ EXPORT_SYMBOL_GPL(mtd_del_partition);
+ static void split_firmware(struct mtd_info *master, struct mtd_part *part)
+ {
++      run_parsers_by_type(part, MTD_PARSER_TYPE_FIRMWARE);
+ }
+ void __weak arch_split_mtd_part(struct mtd_info *master, const char *name,
+@@ -663,6 +695,12 @@ static void mtd_partition_split(struct m
+       if (rootfs_found)
+               return;
++      if (!strcmp(part->mtd.name, "rootfs")) {
++              run_parsers_by_type(part, MTD_PARSER_TYPE_ROOTFS);
++
++              rootfs_found = 1;
++      }
++
+       if (!strcmp(part->mtd.name, SPLIT_FIRMWARE_NAME) &&
+           config_enabled(CONFIG_MTD_SPLIT_FIRMWARE))
+               split_firmware(master, part);
+--- a/include/linux/mtd/partitions.h
++++ b/include/linux/mtd/partitions.h
+@@ -70,6 +70,8 @@ struct mtd_part_parser_data {
+ enum mtd_parser_type {
+       MTD_PARSER_TYPE_DEVICE = 0,
++      MTD_PARSER_TYPE_ROOTFS,
++      MTD_PARSER_TYPE_FIRMWARE,
+ };
+ struct mtd_part_parser {
diff --git a/trunk/target/linux/generic/patches-3.18/403-mtd-hook-mtdsplit-to-Kbuild.patch b/trunk/target/linux/generic/patches-3.18/403-mtd-hook-mtdsplit-to-Kbuild.patch
new file mode 100644 (file)
index 0000000..0cf1c38
--- /dev/null
@@ -0,0 +1,22 @@
+--- a/drivers/mtd/Kconfig
++++ b/drivers/mtd/Kconfig
+@@ -27,6 +27,8 @@ config MTD_SPLIT_FIRMWARE_NAME
+       depends on MTD_SPLIT_FIRMWARE
+       default "firmware"
++source "drivers/mtd/mtdsplit/Kconfig"
++
+ endmenu
+ config MTD_TESTS
+--- a/drivers/mtd/Makefile
++++ b/drivers/mtd/Makefile
+@@ -6,6 +6,8 @@
+ obj-$(CONFIG_MTD)             += mtd.o
+ mtd-y                         := mtdcore.o mtdsuper.o mtdconcat.o mtdpart.o mtdchar.o
++obj-$(CONFIG_MTD_SPLIT)               += mtdsplit/
++
+ obj-$(CONFIG_MTD_OF_PARTS)    += ofpart.o
+ obj-$(CONFIG_MTD_REDBOOT_PARTS) += redboot.o
+ obj-$(CONFIG_MTD_CMDLINE_PARTS) += cmdlinepart.o
diff --git a/trunk/target/linux/generic/patches-3.18/404-mtd-add-more-helper-functions.patch b/trunk/target/linux/generic/patches-3.18/404-mtd-add-more-helper-functions.patch
new file mode 100644 (file)
index 0000000..d7c3801
--- /dev/null
@@ -0,0 +1,101 @@
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -445,14 +445,12 @@ static struct mtd_part *allocate_partiti
+       if (slave->offset == MTDPART_OFS_APPEND)
+               slave->offset = cur_offset;
+       if (slave->offset == MTDPART_OFS_NXTBLK) {
+-              slave->offset = cur_offset;
+-              if (mtd_mod_by_eb(cur_offset, master) != 0) {
+-                      /* Round up to next erasesize */
+-                      slave->offset = (mtd_div_by_eb(cur_offset, master) + 1) * master->erasesize;
++              /* Round up to next erasesize */
++              slave->offset = mtd_roundup_to_eb(cur_offset, master);
++              if (slave->offset != cur_offset)
+                       printk(KERN_NOTICE "Moving partition %d: "
+                              "0x%012llx -> 0x%012llx\n", partno,
+                              (unsigned long long)cur_offset, (unsigned long long)slave->offset);
+-              }
+       }
+       if (slave->offset == MTDPART_OFS_RETAIN) {
+               slave->offset = cur_offset;
+@@ -672,6 +670,17 @@ run_parsers_by_type(struct mtd_part *sla
+       return nr_parts;
+ }
++static inline unsigned long
++mtd_pad_erasesize(struct mtd_info *mtd, int offset, int len)
++{
++      unsigned long mask = mtd->erasesize - 1;
++
++      len += offset & mask;
++      len = (len + mask) & ~mask;
++      len -= offset & mask;
++      return len;
++}
++
+ #ifdef CONFIG_MTD_SPLIT_FIRMWARE_NAME
+ #define SPLIT_FIRMWARE_NAME   CONFIG_MTD_SPLIT_FIRMWARE_NAME
+ #else
+@@ -913,6 +922,24 @@ int mtd_is_partition(const struct mtd_in
+ }
+ EXPORT_SYMBOL_GPL(mtd_is_partition);
++struct mtd_info *mtdpart_get_master(const struct mtd_info *mtd)
++{
++      if (!mtd_is_partition(mtd))
++              return (struct mtd_info *)mtd;
++
++      return PART(mtd)->master;
++}
++EXPORT_SYMBOL_GPL(mtdpart_get_master);
++
++uint64_t mtdpart_get_offset(const struct mtd_info *mtd)
++{
++      if (!mtd_is_partition(mtd))
++              return 0;
++
++      return PART(mtd)->offset;
++}
++EXPORT_SYMBOL_GPL(mtdpart_get_offset);
++
+ /* Returns the size of the entire flash chip */
+ uint64_t mtd_get_device_size(const struct mtd_info *mtd)
+ {
+--- a/include/linux/mtd/partitions.h
++++ b/include/linux/mtd/partitions.h
+@@ -90,6 +90,8 @@ int mtd_is_partition(const struct mtd_in
+ int mtd_add_partition(struct mtd_info *master, const char *name,
+                     long long offset, long long length);
+ int mtd_del_partition(struct mtd_info *master, int partno);
++struct mtd_info *mtdpart_get_master(const struct mtd_info *mtd);
++uint64_t mtdpart_get_offset(const struct mtd_info *mtd);
+ uint64_t mtd_get_device_size(const struct mtd_info *mtd);
+ extern void __weak arch_split_mtd_part(struct mtd_info *master,
+                                      const char *name, int offset, int size);
+--- a/include/linux/mtd/mtd.h
++++ b/include/linux/mtd/mtd.h
+@@ -333,6 +333,24 @@ static inline uint32_t mtd_mod_by_eb(uin
+       return do_div(sz, mtd->erasesize);
+ }
++static inline uint64_t mtd_roundup_to_eb(uint64_t sz, struct mtd_info *mtd)
++{
++      if (mtd_mod_by_eb(sz, mtd) == 0)
++              return sz;
++
++      /* Round up to next erase block */
++      return (mtd_div_by_eb(sz, mtd) + 1) * mtd->erasesize;
++}
++
++static inline uint64_t mtd_rounddown_to_eb(uint64_t sz, struct mtd_info *mtd)
++{
++      if (mtd_mod_by_eb(sz, mtd) == 0)
++              return sz;
++
++      /* Round down to the start of the current erase block */
++      return (mtd_div_by_eb(sz, mtd)) * mtd->erasesize;
++}
++
+ static inline uint32_t mtd_div_by_ws(uint64_t sz, struct mtd_info *mtd)
+ {
+       if (mtd->writesize_shift)
diff --git a/trunk/target/linux/generic/patches-3.18/405-mtd-old-firmware-uimage-splitter.patch b/trunk/target/linux/generic/patches-3.18/405-mtd-old-firmware-uimage-splitter.patch
new file mode 100644 (file)
index 0000000..df1d726
--- /dev/null
@@ -0,0 +1,70 @@
+--- a/drivers/mtd/Kconfig
++++ b/drivers/mtd/Kconfig
+@@ -27,6 +27,11 @@ config MTD_SPLIT_FIRMWARE_NAME
+       depends on MTD_SPLIT_FIRMWARE
+       default "firmware"
++config MTD_UIMAGE_SPLIT
++      bool "Enable split support for firmware partitions containing a uImage"
++      depends on MTD_SPLIT_FIRMWARE
++      default y
++
+ source "drivers/mtd/mtdsplit/Kconfig"
+ endmenu
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -681,6 +681,37 @@ mtd_pad_erasesize(struct mtd_info *mtd,
+       return len;
+ }
++#define UBOOT_MAGIC   0x27051956
++
++static void split_uimage(struct mtd_info *master, struct mtd_part *part)
++{
++      struct {
++              __be32 magic;
++              __be32 pad[2];
++              __be32 size;
++      } hdr;
++      size_t len;
++
++      if (mtd_read(master, part->offset, sizeof(hdr), &len, (void *) &hdr))
++              return;
++
++      if (len != sizeof(hdr) || hdr.magic != cpu_to_be32(UBOOT_MAGIC))
++              return;
++
++      len = be32_to_cpu(hdr.size) + 0x40;
++      len = mtd_pad_erasesize(master, part->offset, len);
++      if (len + master->erasesize > part->mtd.size)
++              return;
++
++      if (config_enabled(CONFIG_MTD_SPLIT_UIMAGE_FW))
++              pr_err("Dedicated partitioner didn't split firmware partition, please fill a bug report!\n");
++      else
++              pr_warn("Support for built-in firmware splitter will be removed, please use CONFIG_MTD_SPLIT_UIMAGE_FW\n");
++
++      __mtd_add_partition(master, "rootfs", part->offset + len,
++                          part->mtd.size - len, false);
++}
++
+ #ifdef CONFIG_MTD_SPLIT_FIRMWARE_NAME
+ #define SPLIT_FIRMWARE_NAME   CONFIG_MTD_SPLIT_FIRMWARE_NAME
+ #else
+@@ -689,7 +720,14 @@ mtd_pad_erasesize(struct mtd_info *mtd,
+ static void split_firmware(struct mtd_info *master, struct mtd_part *part)
+ {
+-      run_parsers_by_type(part, MTD_PARSER_TYPE_FIRMWARE);
++      int ret;
++
++      ret = run_parsers_by_type(part, MTD_PARSER_TYPE_FIRMWARE);
++      if (ret > 0)
++              return;
++
++      if (config_enabled(CONFIG_MTD_UIMAGE_SPLIT))
++              split_uimage(master, part);
+ }
+ void __weak arch_split_mtd_part(struct mtd_info *master, const char *name,
diff --git a/trunk/target/linux/generic/patches-3.18/406-mtd-old-rootfs-squashfs-splitter.patch b/trunk/target/linux/generic/patches-3.18/406-mtd-old-rootfs-squashfs-splitter.patch
new file mode 100644 (file)
index 0000000..ca81958
--- /dev/null
@@ -0,0 +1,76 @@
+--- a/drivers/mtd/Kconfig
++++ b/drivers/mtd/Kconfig
+@@ -18,6 +18,11 @@ config MTD_ROOTFS_ROOT_DEV
+       bool "Automatically set 'rootfs' partition to be root filesystem"
+       default y
++config MTD_ROOTFS_SPLIT
++      bool "Automatically split 'rootfs' partition for squashfs"
++      select MTD_SPLIT
++      default y
++
+ config MTD_SPLIT_FIRMWARE
+       bool "Automatically split firmware partition for kernel+rootfs"
+       default y
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -681,6 +681,47 @@ mtd_pad_erasesize(struct mtd_info *mtd,
+       return len;
+ }
++static int split_squashfs(struct mtd_info *master, int offset, int *split_offset)
++{
++      size_t squashfs_len;
++      int len, ret;
++
++      ret = mtd_get_squashfs_len(master, offset, &squashfs_len);
++      if (ret)
++              return ret;
++
++      len = mtd_pad_erasesize(master, offset, squashfs_len);
++      *split_offset = offset + len;
++
++      return 0;
++}
++
++static void split_rootfs_data(struct mtd_info *master, struct mtd_part *part)
++{
++      unsigned int split_offset = 0;
++      unsigned int split_size;
++      int ret;
++
++      ret = split_squashfs(master, part->offset, &split_offset);
++      if (ret)
++              return;
++
++      if (split_offset <= 0)
++              return;
++
++      if (config_enabled(CONFIG_MTD_SPLIT_SQUASHFS_ROOT))
++              pr_err("Dedicated partitioner didn't create \"rootfs_data\" partition, please fill a bug report!\n");
++      else
++              pr_warn("Support for built-in \"rootfs_data\" splitter will be removed, please use CONFIG_MTD_SPLIT_SQUASHFS_ROOT\n");
++
++      split_size = part->mtd.size - (split_offset - part->offset);
++      printk(KERN_INFO "mtd: partition \"%s\" created automatically, ofs=0x%x, len=0x%x\n",
++              ROOTFS_SPLIT_NAME, split_offset, split_size);
++
++      __mtd_add_partition(master, ROOTFS_SPLIT_NAME, split_offset,
++                          split_size, false);
++}
++
+ #define UBOOT_MAGIC   0x27051956
+ static void split_uimage(struct mtd_info *master, struct mtd_part *part)
+@@ -743,7 +784,10 @@ static void mtd_partition_split(struct m
+               return;
+       if (!strcmp(part->mtd.name, "rootfs")) {
+-              run_parsers_by_type(part, MTD_PARSER_TYPE_ROOTFS);
++              int num = run_parsers_by_type(part, MTD_PARSER_TYPE_ROOTFS);
++
++              if (num <= 0 && config_enabled(CONFIG_MTD_ROOTFS_SPLIT))
++                      split_rootfs_data(master, part);
+               rootfs_found = 1;
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/410-mtd-move-forward-declaration-of-struct-mtd_info.patch b/trunk/target/linux/generic/patches-3.18/410-mtd-move-forward-declaration-of-struct-mtd_info.patch
new file mode 100644 (file)
index 0000000..78ebbf8
--- /dev/null
@@ -0,0 +1,18 @@
+--- a/include/linux/mtd/partitions.h
++++ b/include/linux/mtd/partitions.h
+@@ -35,6 +35,7 @@
+  * Note: writeable partitions require their size and offset be
+  * erasesize aligned (e.g. use MTDPART_OFS_NEXTBLK).
+  */
++struct mtd_info;
+ struct mtd_partition {
+       const char *name;               /* identifier string */
+@@ -50,7 +51,6 @@ struct mtd_partition {
+ #define MTDPART_SIZ_FULL      (0)
+-struct mtd_info;
+ struct device_node;
+ /**
diff --git a/trunk/target/linux/generic/patches-3.18/411-mtd-partial_eraseblock_write.patch b/trunk/target/linux/generic/patches-3.18/411-mtd-partial_eraseblock_write.patch
new file mode 100644 (file)
index 0000000..0bb7be0
--- /dev/null
@@ -0,0 +1,146 @@
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -35,6 +35,8 @@
+ #include "mtdcore.h"
+ #include "mtdsplit/mtdsplit.h"
++#define MTD_ERASE_PARTIAL     0x8000 /* partition only covers parts of an erase block */
++
+ /* Our partition linked list */
+ static LIST_HEAD(mtd_partitions);
+ static DEFINE_MUTEX(mtd_partitions_mutex);
+@@ -233,13 +235,61 @@ static int part_erase(struct mtd_info *m
+       struct mtd_part *part = PART(mtd);
+       int ret;
++
++      instr->partial_start = false;
++      if (mtd->flags & MTD_ERASE_PARTIAL) {
++              size_t readlen = 0;
++              u64 mtd_ofs;
++
++              instr->erase_buf = kmalloc(part->master->erasesize, GFP_ATOMIC);
++              if (!instr->erase_buf)
++                      return -ENOMEM;
++
++              mtd_ofs = part->offset + instr->addr;
++              instr->erase_buf_ofs = do_div(mtd_ofs, part->master->erasesize);
++
++              if (instr->erase_buf_ofs > 0) {
++                      instr->addr -= instr->erase_buf_ofs;
++                      ret = mtd_read(part->master,
++                              instr->addr + part->offset,
++                              part->master->erasesize,
++                              &readlen, instr->erase_buf);
++
++                      instr->len += instr->erase_buf_ofs;
++                      instr->partial_start = true;
++              } else {
++                      mtd_ofs = part->offset + part->mtd.size;
++                      instr->erase_buf_ofs = part->master->erasesize -
++                              do_div(mtd_ofs, part->master->erasesize);
++
++                      if (instr->erase_buf_ofs > 0) {
++                              instr->len += instr->erase_buf_ofs;
++                              ret = mtd_read(part->master,
++                                      part->offset + instr->addr +
++                                      instr->len - part->master->erasesize,
++                                      part->master->erasesize, &readlen,
++                                      instr->erase_buf);
++                      } else {
++                              ret = 0;
++                      }
++              }
++              if (ret < 0) {
++                      kfree(instr->erase_buf);
++                      return ret;
++              }
++
++      }
++
+       instr->addr += part->offset;
+       ret = part->master->_erase(part->master, instr);
+       if (ret) {
+               if (instr->fail_addr != MTD_FAIL_ADDR_UNKNOWN)
+                       instr->fail_addr -= part->offset;
+               instr->addr -= part->offset;
++              if (mtd->flags & MTD_ERASE_PARTIAL)
++                      kfree(instr->erase_buf);
+       }
++
+       return ret;
+ }
+@@ -247,7 +297,25 @@ void mtd_erase_callback(struct erase_inf
+ {
+       if (instr->mtd->_erase == part_erase) {
+               struct mtd_part *part = PART(instr->mtd);
++              size_t wrlen = 0;
++              if (instr->mtd->flags & MTD_ERASE_PARTIAL) {
++                      if (instr->partial_start) {
++                              part->master->_write(part->master,
++                                      instr->addr, instr->erase_buf_ofs,
++                                      &wrlen, instr->erase_buf);
++                              instr->addr += instr->erase_buf_ofs;
++                      } else {
++                              instr->len -= instr->erase_buf_ofs;
++                              part->master->_write(part->master,
++                                      instr->addr + instr->len,
++                                      instr->erase_buf_ofs, &wrlen,
++                                      instr->erase_buf +
++                                      part->master->erasesize -
++                                      instr->erase_buf_ofs);
++                      }
++                      kfree(instr->erase_buf);
++              }
+               if (instr->fail_addr != MTD_FAIL_ADDR_UNKNOWN)
+                       instr->fail_addr -= part->offset;
+               instr->addr -= part->offset;
+@@ -514,18 +582,24 @@ static struct mtd_part *allocate_partiti
+       if ((slave->mtd.flags & MTD_WRITEABLE) &&
+           mtd_mod_by_eb(slave->offset, &slave->mtd)) {
+               /* Doesn't start on a boundary of major erase size */
+-              /* FIXME: Let it be writable if it is on a boundary of
+-               * _minor_ erase size though */
+-              slave->mtd.flags &= ~MTD_WRITEABLE;
+-              printk(KERN_WARNING"mtd: partition \"%s\" doesn't start on an erase block boundary -- force read-only\n",
+-                      part->name);
++              slave->mtd.flags |= MTD_ERASE_PARTIAL;
++              if (((u32) slave->mtd.size) > master->erasesize)
++                      slave->mtd.flags &= ~MTD_WRITEABLE;
++              else
++                      slave->mtd.erasesize = slave->mtd.size;
+       }
+       if ((slave->mtd.flags & MTD_WRITEABLE) &&
+-          mtd_mod_by_eb(slave->mtd.size, &slave->mtd)) {
+-              slave->mtd.flags &= ~MTD_WRITEABLE;
+-              printk(KERN_WARNING"mtd: partition \"%s\" doesn't end on an erase block -- force read-only\n",
+-                      part->name);
++          mtd_mod_by_eb(slave->offset + slave->mtd.size, &slave->mtd)) {
++              slave->mtd.flags |= MTD_ERASE_PARTIAL;
++
++              if ((u32) slave->mtd.size > master->erasesize)
++                      slave->mtd.flags &= ~MTD_WRITEABLE;
++              else
++                      slave->mtd.erasesize = slave->mtd.size;
+       }
++      if ((slave->mtd.flags & (MTD_ERASE_PARTIAL|MTD_WRITEABLE)) == MTD_ERASE_PARTIAL)
++              printk(KERN_WARNING"mtd: partition \"%s\" must either start or end on erase block boundary or be smaller than an erase block -- forcing read-only\n",
++                              part->name);
+       slave->mtd.ecclayout = master->ecclayout;
+       slave->mtd.ecc_step_size = master->ecc_step_size;
+--- a/include/linux/mtd/mtd.h
++++ b/include/linux/mtd/mtd.h
+@@ -55,6 +55,10 @@ struct erase_info {
+       u_long priv;
+       u_char state;
+       struct erase_info *next;
++
++      u8 *erase_buf;
++      u32 erase_buf_ofs;
++      bool partial_start;
+ };
+ struct mtd_erase_region_info {
diff --git a/trunk/target/linux/generic/patches-3.18/412-mtd-partial_eraseblock_unlock.patch b/trunk/target/linux/generic/patches-3.18/412-mtd-partial_eraseblock_unlock.patch
new file mode 100644 (file)
index 0000000..ba45acc
--- /dev/null
@@ -0,0 +1,18 @@
+--- a/drivers/mtd/mtdpart.c
++++ b/drivers/mtd/mtdpart.c
+@@ -334,7 +334,14 @@ static int part_lock(struct mtd_info *mt
+ static int part_unlock(struct mtd_info *mtd, loff_t ofs, uint64_t len)
+ {
+       struct mtd_part *part = PART(mtd);
+-      return part->master->_unlock(part->master, ofs + part->offset, len);
++
++      ofs += part->offset;
++      if (mtd->flags & MTD_ERASE_PARTIAL) {
++              /* round up len to next erasesize and round down offset to prev block */
++              len = (mtd_div_by_eb(len, part->master) + 1) * part->master->erasesize;
++              ofs &= ~(part->master->erasesize - 1);
++      }
++      return part->master->_unlock(part->master, ofs, len);
+ }
+ static int part_is_locked(struct mtd_info *mtd, loff_t ofs, uint64_t len)
diff --git a/trunk/target/linux/generic/patches-3.18/420-mtd-redboot_space.patch b/trunk/target/linux/generic/patches-3.18/420-mtd-redboot_space.patch
new file mode 100644 (file)
index 0000000..f74affc
--- /dev/null
@@ -0,0 +1,30 @@
+--- a/drivers/mtd/redboot.c
++++ b/drivers/mtd/redboot.c
+@@ -265,14 +265,21 @@ static int parse_redboot_partitions(stru
+ #endif
+               names += strlen(names)+1;
+-#ifdef CONFIG_MTD_REDBOOT_PARTS_UNALLOCATED
+               if(fl->next && fl->img->flash_base + fl->img->size + master->erasesize <= fl->next->img->flash_base) {
+-                      i++;
+-                      parts[i].offset = parts[i-1].size + parts[i-1].offset;
+-                      parts[i].size = fl->next->img->flash_base - parts[i].offset;
+-                      parts[i].name = nullname;
+-              }
++                      if (!strcmp(parts[i].name, "rootfs")) {
++                              parts[i].size = fl->next->img->flash_base;
++                              parts[i].size &= ~(master->erasesize - 1);
++                              parts[i].size -= parts[i].offset;
++#ifdef CONFIG_MTD_REDBOOT_PARTS_UNALLOCATED
++                              nrparts--;
++                      } else {
++                              i++;
++                              parts[i].offset = parts[i-1].size + parts[i-1].offset;
++                              parts[i].size = fl->next->img->flash_base - parts[i].offset;
++                              parts[i].name = nullname;
+ #endif
++                      }
++              }
+               tmp_fl = fl;
+               fl = fl->next;
+               kfree(tmp_fl);
diff --git a/trunk/target/linux/generic/patches-3.18/430-mtd-add-myloader-partition-parser.patch b/trunk/target/linux/generic/patches-3.18/430-mtd-add-myloader-partition-parser.patch
new file mode 100644 (file)
index 0000000..25e0ecd
--- /dev/null
@@ -0,0 +1,35 @@
+--- a/drivers/mtd/Kconfig
++++ b/drivers/mtd/Kconfig
+@@ -184,6 +184,22 @@ config MTD_BCM47XX_PARTS
+         This provides partitions parser for devices based on BCM47xx
+         boards.
++config MTD_MYLOADER_PARTS
++      tristate "MyLoader partition parsing"
++      depends on ADM5120 || ATH25 || ATH79
++      ---help---
++        MyLoader is a bootloader which allows the user to define partitions
++        in flash devices, by putting a table in the second erase block
++        on the device, similar to a partition table. This table gives the 
++        offsets and lengths of the user defined partitions.
++
++        If you need code which can detect and parse these tables, and
++        register MTD 'partitions' corresponding to each image detected,
++        enable this option.
++
++        You will still need the parsing functions to be called by the driver
++        for your particular device. It won't happen automatically.
++
+ comment "User Modules And Translation Layers"
+ #
+--- a/drivers/mtd/Makefile
++++ b/drivers/mtd/Makefile
+@@ -15,6 +15,7 @@ obj-$(CONFIG_MTD_AFS_PARTS)  += afs.o
+ obj-$(CONFIG_MTD_AR7_PARTS)   += ar7part.o
+ obj-$(CONFIG_MTD_BCM63XX_PARTS)       += bcm63xxpart.o
+ obj-$(CONFIG_MTD_BCM47XX_PARTS)       += bcm47xxpart.o
++obj-$(CONFIG_MTD_MYLOADER_PARTS) += myloader.o
+ # 'Users' - code which presents functionality to userspace.
+ obj-$(CONFIG_MTD_BLKDEVS)     += mtd_blkdevs.o
diff --git a/trunk/target/linux/generic/patches-3.18/440-block2mtd_init.patch b/trunk/target/linux/generic/patches-3.18/440-block2mtd_init.patch
new file mode 100644 (file)
index 0000000..5ab6026
--- /dev/null
@@ -0,0 +1,107 @@
+--- a/drivers/mtd/devices/block2mtd.c
++++ b/drivers/mtd/devices/block2mtd.c
+@@ -17,6 +17,7 @@
+ #include <linux/list.h>
+ #include <linux/init.h>
+ #include <linux/mtd/mtd.h>
++#include <linux/mtd/partitions.h>
+ #include <linux/mutex.h>
+ #include <linux/mount.h>
+ #include <linux/slab.h>
+@@ -209,11 +210,12 @@ static void block2mtd_free_device(struct
+ }
+-static struct block2mtd_dev *add_device(char *devname, int erase_size)
++static struct block2mtd_dev *add_device(char *devname, int erase_size, const char *mtdname)
+ {
+       const fmode_t mode = FMODE_READ | FMODE_WRITE | FMODE_EXCL;
+       struct block_device *bdev;
+       struct block2mtd_dev *dev;
++      struct mtd_partition *part;
+       char *name;
+       if (!devname)
+@@ -257,13 +259,16 @@ static struct block2mtd_dev *add_device(
+       /* Setup the MTD structure */
+       /* make the name contain the block device in */
+-      name = kasprintf(GFP_KERNEL, "block2mtd: %s", devname);
++      if (!mtdname)
++              mtdname = devname;
++      name = kmalloc(strlen(mtdname) + 1, GFP_KERNEL);
+       if (!name)
+               goto err_destroy_mutex;
++      strcpy(name, mtdname);
+       dev->mtd.name = name;
+-      dev->mtd.size = dev->blkdev->bd_inode->i_size & PAGE_MASK;
++      dev->mtd.size = dev->blkdev->bd_inode->i_size & PAGE_MASK & ~(erase_size - 1);
+       dev->mtd.erasesize = erase_size;
+       dev->mtd.writesize = 1;
+       dev->mtd.writebufsize = PAGE_SIZE;
+@@ -276,15 +281,18 @@ static struct block2mtd_dev *add_device(
+       dev->mtd.priv = dev;
+       dev->mtd.owner = THIS_MODULE;
+-      if (mtd_device_register(&dev->mtd, NULL, 0)) {
++      part = kzalloc(sizeof(struct mtd_partition), GFP_KERNEL);
++      part->name = name;
++      part->offset = 0;
++      part->size = dev->mtd.size;
++      if (mtd_device_register(&dev->mtd, part, 1)) {
+               /* Device didn't get added, so free the entry */
+               goto err_destroy_mutex;
+       }
+       list_add(&dev->list, &blkmtd_device_list);
+       pr_info("mtd%d: [%s] erase_size = %dKiB [%d]\n",
+               dev->mtd.index,
+-              dev->mtd.name + strlen("block2mtd: "),
+-              dev->mtd.erasesize >> 10, dev->mtd.erasesize);
++              mtdname, dev->mtd.erasesize >> 10, dev->mtd.erasesize);
+       return dev;
+ err_destroy_mutex:
+@@ -353,9 +361,9 @@ static char block2mtd_paramline[80 + 12]
+ static int block2mtd_setup2(const char *val)
+ {
+-      char buf[80 + 12]; /* 80 for device, 12 for erase size */
++      char buf[80 + 12 + 80]; /* 80 for device, 12 for erase size, 80 for name */
+       char *str = buf;
+-      char *token[2];
++      char *token[3];
+       char *name;
+       size_t erase_size = PAGE_SIZE;
+       int i, ret;
+@@ -368,7 +376,7 @@ static int block2mtd_setup2(const char *
+       strcpy(str, val);
+       kill_final_newline(str);
+-      for (i = 0; i < 2; i++)
++      for (i = 0; i < 3; i++)
+               token[i] = strsep(&str, ",");
+       if (str) {
+@@ -394,8 +402,10 @@ static int block2mtd_setup2(const char *
+                       return 0;
+               }
+       }
++      if (token[2] && (strlen(token[2]) + 1 > 80))
++              pr_err("mtd device name too long\n");
+-      add_device(name, erase_size);
++      add_device(name, erase_size, token[2]);
+       return 0;
+ }
+@@ -429,7 +439,7 @@ static int block2mtd_setup(const char *v
+ module_param_call(block2mtd, block2mtd_setup, NULL, NULL, 0200);
+-MODULE_PARM_DESC(block2mtd, "Device to use. \"block2mtd=<dev>[,<erasesize>]\"");
++MODULE_PARM_DESC(block2mtd, "Device to use. \"block2mtd=<dev>[,<erasesize>[,<name>]]\"");
+ static int __init block2mtd_init(void)
+ {
diff --git a/trunk/target/linux/generic/patches-3.18/441-block2mtd_probe.patch b/trunk/target/linux/generic/patches-3.18/441-block2mtd_probe.patch
new file mode 100644 (file)
index 0000000..6836a48
--- /dev/null
@@ -0,0 +1,110 @@
+--- a/drivers/mtd/devices/block2mtd.c
++++ b/drivers/mtd/devices/block2mtd.c
+@@ -10,6 +10,7 @@
+ #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
+ #include <linux/module.h>
++#include <linux/delay.h>
+ #include <linux/fs.h>
+ #include <linux/blkdev.h>
+ #include <linux/bio.h>
+@@ -210,13 +211,16 @@ static void block2mtd_free_device(struct
+ }
+-static struct block2mtd_dev *add_device(char *devname, int erase_size, const char *mtdname)
++static struct block2mtd_dev *add_device(char *devname, int erase_size, const char *mtdname, int timeout)
+ {
+       const fmode_t mode = FMODE_READ | FMODE_WRITE | FMODE_EXCL;
+-      struct block_device *bdev;
++      struct block_device *bdev = ERR_PTR(-ENODEV);
+       struct block2mtd_dev *dev;
+       struct mtd_partition *part;
+       char *name;
++#ifndef MODULE
++      int i;
++#endif
+       if (!devname)
+               return NULL;
+@@ -227,15 +231,20 @@ static struct block2mtd_dev *add_device(
+       /* Get a handle on the device */
+       bdev = blkdev_get_by_path(devname, mode, dev);
++
+ #ifndef MODULE
+-      if (IS_ERR(bdev)) {
++      for (i = 0; IS_ERR(bdev) && i <= timeout; i++) {
++              dev_t devt;
+-              /* We might not have rootfs mounted at this point. Try
+-                 to resolve the device name by other means. */
++              if (i)
++                      msleep(1000);
++              wait_for_device_probe();
++
++              devt = name_to_dev_t(devname);
++              if (!devt)
++                      continue;
+-              dev_t devt = name_to_dev_t(devname);
+-              if (devt)
+-                      bdev = blkdev_get_by_dev(devt, mode, dev);
++              bdev = blkdev_get_by_dev(devt, mode, dev);
+       }
+ #endif
+@@ -361,11 +370,12 @@ static char block2mtd_paramline[80 + 12]
+ static int block2mtd_setup2(const char *val)
+ {
+-      char buf[80 + 12 + 80]; /* 80 for device, 12 for erase size, 80 for name */
++      char buf[80 + 12 + 80 + 8]; /* 80 for device, 12 for erase size, 80 for name, 8 for timeout */
+       char *str = buf;
+-      char *token[3];
++      char *token[4];
+       char *name;
+       size_t erase_size = PAGE_SIZE;
++      unsigned long timeout = 0;
+       int i, ret;
+       if (strnlen(val, sizeof(buf)) >= sizeof(buf)) {
+@@ -376,7 +386,7 @@ static int block2mtd_setup2(const char *
+       strcpy(str, val);
+       kill_final_newline(str);
+-      for (i = 0; i < 3; i++)
++      for (i = 0; i < 4; i++)
+               token[i] = strsep(&str, ",");
+       if (str) {
+@@ -405,7 +415,10 @@ static int block2mtd_setup2(const char *
+       if (token[2] && (strlen(token[2]) + 1 > 80))
+               pr_err("mtd device name too long\n");
+-      add_device(name, erase_size, token[2]);
++      if (token[3] && kstrtoul(token[3], 0, &timeout))
++              pr_err("invalid timeout\n");
++
++      add_device(name, erase_size, token[2], timeout);
+       return 0;
+ }
+@@ -439,7 +452,7 @@ static int block2mtd_setup(const char *v
+ module_param_call(block2mtd, block2mtd_setup, NULL, NULL, 0200);
+-MODULE_PARM_DESC(block2mtd, "Device to use. \"block2mtd=<dev>[,<erasesize>[,<name>]]\"");
++MODULE_PARM_DESC(block2mtd, "Device to use. \"block2mtd=<dev>[,<erasesize>[,<name>[,<timeout>]]]\"");
+ static int __init block2mtd_init(void)
+ {
+@@ -474,7 +487,7 @@ static void block2mtd_exit(void)
+ }
+-module_init(block2mtd_init);
++late_initcall(block2mtd_init);
+ module_exit(block2mtd_exit);
+ MODULE_LICENSE("GPL");
diff --git a/trunk/target/linux/generic/patches-3.18/450-mtd-nand-allow-to-use-platform-specific-chip-fixup.patch b/trunk/target/linux/generic/patches-3.18/450-mtd-nand-allow-to-use-platform-specific-chip-fixup.patch
new file mode 100644 (file)
index 0000000..0f5abaa
--- /dev/null
@@ -0,0 +1,37 @@
+---
+ drivers/mtd/nand/plat_nand.c |   13 ++++++++++++-
+ include/linux/mtd/nand.h     |    1 +
+ 2 files changed, 13 insertions(+), 1 deletion(-)
+
+--- a/include/linux/mtd/nand.h
++++ b/include/linux/mtd/nand.h
+@@ -851,6 +851,7 @@ struct platform_nand_chip {
+       unsigned int options;
+       unsigned int bbt_options;
+       const char **part_probe_types;
++      int (*chip_fixup)(struct mtd_info *mtd);
+ };
+ /* Keep gcc happy */
+--- a/drivers/mtd/nand/plat_nand.c
++++ b/drivers/mtd/nand/plat_nand.c
+@@ -90,7 +90,18 @@ static int plat_nand_probe(struct platfo
+       }
+       /* Scan to find existence of the device */
+-      if (nand_scan(&data->mtd, pdata->chip.nr_chips)) {
++      if (nand_scan_ident(&data->mtd, pdata->chip.nr_chips, NULL)) {
++              err = -ENXIO;
++              goto out;
++      }
++
++      if (pdata->chip.chip_fixup) {
++              err = pdata->chip.chip_fixup(&data->mtd);
++              if (err)
++                      goto out;
++      }
++
++      if (nand_scan_tail(&data->mtd)) {
+               err = -ENXIO;
+               goto out;
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/451-mtd-nand-fix-return-code-of-nand_correct_data-function.patch b/trunk/target/linux/generic/patches-3.18/451-mtd-nand-fix-return-code-of-nand_correct_data-function.patch
new file mode 100644 (file)
index 0000000..6a2092c
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/drivers/mtd/nand/nand_ecc.c
++++ b/drivers/mtd/nand/nand_ecc.c
+@@ -507,7 +507,7 @@ int __nand_correct_data(unsigned char *b
+               return 1;       /* error in ECC data; no action needed */
+       pr_err("%s: uncorrectable ECC error\n", __func__);
+-      return -1;
++      return -EBADMSG;
+ }
+ EXPORT_SYMBOL(__nand_correct_data);
diff --git a/trunk/target/linux/generic/patches-3.18/460-mtd-cfi_cmdset_0002-no-erase_suspend.patch b/trunk/target/linux/generic/patches-3.18/460-mtd-cfi_cmdset_0002-no-erase_suspend.patch
new file mode 100644 (file)
index 0000000..68fbd12
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/drivers/mtd/chips/cfi_cmdset_0002.c
++++ b/drivers/mtd/chips/cfi_cmdset_0002.c
+@@ -809,7 +809,7 @@ static int get_chip(struct map_info *map
+               return 0;
+       case FL_ERASING:
+-              if (!cfip || !(cfip->EraseSuspend & (0x1|0x2)) ||
++              if (1 /* no suspend */ || !cfip || !(cfip->EraseSuspend & (0x1|0x2)) ||
+                   !(mode == FL_READY || mode == FL_POINT ||
+                   (mode == FL_WRITING && (cfip->EraseSuspend & 0x2))))
+                       goto sleep;
diff --git a/trunk/target/linux/generic/patches-3.18/461-mtd-cfi_cmdset_0002-add-buffer-write-cmd-timeout.patch b/trunk/target/linux/generic/patches-3.18/461-mtd-cfi_cmdset_0002-add-buffer-write-cmd-timeout.patch
new file mode 100644 (file)
index 0000000..c437a14
--- /dev/null
@@ -0,0 +1,18 @@
+From: George Kashperko <george@znau.edu.ua>
+
+Issue map read after Write Buffer Load command to ensure chip is ready
+to receive data.
+Signed-off-by: George Kashperko <george@znau.edu.ua>
+---
+ drivers/mtd/chips/cfi_cmdset_0002.c |    1 +
+ 1 file changed, 1 insertion(+)
+--- a/drivers/mtd/chips/cfi_cmdset_0002.c
++++ b/drivers/mtd/chips/cfi_cmdset_0002.c
+@@ -1830,6 +1830,7 @@ static int __xipram do_write_buffer(stru
+       /* Write Buffer Load */
+       map_write(map, CMD(0x25), cmd_adr);
++      (void) map_read(map, cmd_adr);
+       chip->state = FL_WRITING_TO_BUFFER;
diff --git a/trunk/target/linux/generic/patches-3.18/472-mtd-m25p80-add-support-for-Winbond-W25X05-flash.patch b/trunk/target/linux/generic/patches-3.18/472-mtd-m25p80-add-support-for-Winbond-W25X05-flash.patch
new file mode 100644 (file)
index 0000000..6bf516c
--- /dev/null
@@ -0,0 +1,20 @@
+From eef9dfc4e821408af1af13aa0cc707fc496fb7c6 Mon Sep 17 00:00:00 2001
+From: Gabor Juhos <juhosg@openwrt.org>
+Date: Wed, 11 Dec 2013 19:05:59 +0100
+Subject: [PATCH] m25p80: add support for the Winbond W25X05 flash
+
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+ drivers/mtd/devices/m25p80.c |    1 +
+ 1 file changed, 1 insertion(+)
+
+--- a/drivers/mtd/spi-nor/spi-nor.c
++++ b/drivers/mtd/spi-nor/spi-nor.c
+@@ -616,6 +616,7 @@ static const struct spi_device_id spi_no
+       { "m25px80",    INFO(0x207114,  0, 64 * 1024, 16, 0) },
+       /* Winbond -- w25x "blocks" are 64K, "sectors" are 4KiB */
++      { "w25x05", INFO(0xef3010, 0, 64 * 1024,  1,  SECT_4K) },
+       { "w25x10", INFO(0xef3011, 0, 64 * 1024,  2,  SECT_4K) },
+       { "w25x20", INFO(0xef3012, 0, 64 * 1024,  4,  SECT_4K) },
+       { "w25x40", INFO(0xef3013, 0, 64 * 1024,  8,  SECT_4K) },
diff --git a/trunk/target/linux/generic/patches-3.18/473-mtd-spi-nor-add-support-for-the-Macronix-MX25L512E-S.patch b/trunk/target/linux/generic/patches-3.18/473-mtd-spi-nor-add-support-for-the-Macronix-MX25L512E-S.patch
new file mode 100644 (file)
index 0000000..8082fa6
--- /dev/null
@@ -0,0 +1,21 @@
+From 0d7388de0911c1a4fc4a8a3898ef9d0ab818ca08 Mon Sep 17 00:00:00 2001
+From: Gabor Juhos <juhosg@openwrt.org>
+Date: Tue, 7 Apr 2015 18:35:15 +0200
+Subject: [PATCH] mtd: spi-nor: add support for the Macronix MX25L512E SPI
+ flash chip
+
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+ drivers/mtd/spi-nor/spi-nor.c |    1 +
+ 1 file changed, 1 insertion(+)
+
+--- a/drivers/mtd/spi-nor/spi-nor.c
++++ b/drivers/mtd/spi-nor/spi-nor.c
+@@ -517,6 +517,7 @@ static const struct spi_device_id spi_no
+       { "640s33b",  INFO(0x898913, 0, 64 * 1024, 128, 0) },
+       /* Macronix */
++      { "mx25l512e",   INFO(0xc22010, 0, 64 * 1024,   1, SECT_4K) },
+       { "mx25l2005a",  INFO(0xc22012, 0, 64 * 1024,   4, SECT_4K) },
+       { "mx25l4005a",  INFO(0xc22013, 0, 64 * 1024,   8, SECT_4K) },
+       { "mx25l8005",   INFO(0xc22014, 0, 64 * 1024,  16, 0) },
diff --git a/trunk/target/linux/generic/patches-3.18/474-mtd-spi-nor-add-support-for-the-ISSI-SI25CD512-SPI-f.patch b/trunk/target/linux/generic/patches-3.18/474-mtd-spi-nor-add-support-for-the-ISSI-SI25CD512-SPI-f.patch
new file mode 100644 (file)
index 0000000..f572237
--- /dev/null
@@ -0,0 +1,22 @@
+From 34e2b403040a2f9d3ba071d95a7f42457e2950f9 Mon Sep 17 00:00:00 2001
+From: Gabor Juhos <juhosg@openwrt.org>
+Date: Tue, 7 Apr 2015 18:35:15 +0200
+Subject: [PATCH] mtd: spi-nor: add support for the ISSI SI25CD512 SPI flash
+
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+ drivers/mtd/spi-nor/spi-nor.c |    3 +++
+ 1 file changed, 3 insertions(+)
+
+--- a/drivers/mtd/spi-nor/spi-nor.c
++++ b/drivers/mtd/spi-nor/spi-nor.c
+@@ -516,6 +516,9 @@ static const struct spi_device_id spi_no
+       { "320s33b",  INFO(0x898912, 0, 64 * 1024,  64, 0) },
+       { "640s33b",  INFO(0x898913, 0, 64 * 1024, 128, 0) },
++      /* ISSI */
++      { "is25cd512", INFO(0x7f9d20, 0, 32 * 1024,   2, SECT_4K) },
++
+       /* Macronix */
+       { "mx25l512e",   INFO(0xc22010, 0, 64 * 1024,   1, SECT_4K) },
+       { "mx25l2005a",  INFO(0xc22012, 0, 64 * 1024,   4, SECT_4K) },
diff --git a/trunk/target/linux/generic/patches-3.18/480-mtd-set-rootfs-to-be-root-dev.patch b/trunk/target/linux/generic/patches-3.18/480-mtd-set-rootfs-to-be-root-dev.patch
new file mode 100644 (file)
index 0000000..8fc3578
--- /dev/null
@@ -0,0 +1,26 @@
+--- a/drivers/mtd/mtdcore.c
++++ b/drivers/mtd/mtdcore.c
+@@ -37,6 +37,7 @@
+ #include <linux/backing-dev.h>
+ #include <linux/gfp.h>
+ #include <linux/slab.h>
++#include <linux/root_dev.h>
+ #include <linux/mtd/mtd.h>
+ #include <linux/mtd/partitions.h>
+@@ -456,6 +457,15 @@ int add_mtd_device(struct mtd_info *mtd)
+          of this try_ nonsense, and no bitching about it
+          either. :) */
+       __module_get(THIS_MODULE);
++
++      if (!strcmp(mtd->name, "rootfs") &&
++          config_enabled(CONFIG_MTD_ROOTFS_ROOT_DEV) &&
++          ROOT_DEV == 0) {
++              pr_notice("mtd: device %d (%s) set to be root filesystem\n",
++                        mtd->index, mtd->name);
++              ROOT_DEV = MKDEV(MTD_BLOCK_MAJOR, mtd->index);
++      }
++
+       return 0;
+ fail_added:
diff --git a/trunk/target/linux/generic/patches-3.18/490-ubi-auto-attach-mtd-device-named-ubi-or-data-on-boot.patch b/trunk/target/linux/generic/patches-3.18/490-ubi-auto-attach-mtd-device-named-ubi-or-data-on-boot.patch
new file mode 100644 (file)
index 0000000..7a8d847
--- /dev/null
@@ -0,0 +1,76 @@
+From 8a52e4100d7c3a4a1dfddfa02b8864a9b0068c13 Mon Sep 17 00:00:00 2001
+From: Daniel Golle <daniel@makrotopia.org>
+Date: Sat, 17 May 2014 03:36:18 +0200
+Subject: [PATCH 1/5] ubi: auto-attach mtd device named "ubi" or "data" on boot
+To: librecmc-devel@lists.librecmc.org
+
+Signed-off-by: Daniel Golle <daniel@makrotopia.org>
+---
+ drivers/mtd/ubi/build.c | 36 ++++++++++++++++++++++++++++++++++++
+ 1 file changed, 36 insertions(+)
+
+--- a/drivers/mtd/ubi/build.c
++++ b/drivers/mtd/ubi/build.c
+@@ -1209,6 +1209,49 @@ static struct mtd_info * __init open_mtd
+       return mtd;
+ }
++/*
++ * This function tries attaching mtd partitions named either "ubi" or "data"
++ * during boot.
++ */
++static void __init ubi_auto_attach(void)
++{
++      int err;
++      struct mtd_info *mtd;
++
++      /* try attaching mtd device named "ubi" or "data" */
++      mtd = open_mtd_device("ubi");
++      if (IS_ERR(mtd))
++              mtd = open_mtd_device("data");
++
++      if (!IS_ERR(mtd)) {
++              size_t len;
++              char magic[4];
++
++              /* check for a valid ubi magic */
++              err = mtd_read(mtd, 0, 4, &len, (void *) magic);
++              if (!err && len == 4 && strncmp(magic, "UBI#", 4)) {
++                      ubi_err("no valid UBI magic found inside mtd%d", mtd->index);
++                      put_mtd_device(mtd);
++                      return;
++              }
++
++              /* auto-add only media types where UBI makes sense */
++              if (mtd->type == MTD_NANDFLASH ||
++                  mtd->type == MTD_NORFLASH ||
++                  mtd->type == MTD_DATAFLASH ||
++                  mtd->type == MTD_MLCNANDFLASH) {
++                      mutex_lock(&ubi_devices_mutex);
++                      ubi_msg("auto-attach mtd%d", mtd->index);
++                      err = ubi_attach_mtd_dev(mtd, UBI_DEV_NUM_AUTO, 0, 0);
++                      mutex_unlock(&ubi_devices_mutex);
++                      if (err < 0) {
++                              ubi_err("cannot attach mtd%d", mtd->index);
++                              put_mtd_device(mtd);
++                      }
++              }
++      }
++}
++
+ static int __init ubi_init(void)
+ {
+       int err, i, k;
+@@ -1298,6 +1341,12 @@ static int __init ubi_init(void)
+               }
+       }
++      /* auto-attach mtd devices only if built-in to the kernel and no ubi.mtd
++       * parameter was given */
++      if (config_enabled(CONFIG_MTD_ROOTFS_ROOT_DEV) &&
++          !ubi_is_module() && !mtd_devs)
++              ubi_auto_attach();
++
+       err = ubiblock_init();
+       if (err) {
+               ubi_err("block: cannot initialize, error %d", err);
diff --git a/trunk/target/linux/generic/patches-3.18/491-ubi-auto-create-ubiblock-device-for-rootfs.patch b/trunk/target/linux/generic/patches-3.18/491-ubi-auto-create-ubiblock-device-for-rootfs.patch
new file mode 100644 (file)
index 0000000..98433c8
--- /dev/null
@@ -0,0 +1,69 @@
+From 0f3966579815f889bb2fcb4846152c35f65e79c4 Mon Sep 17 00:00:00 2001
+From: Daniel Golle <daniel@makrotopia.org>
+Date: Thu, 15 May 2014 21:06:33 +0200
+Subject: [PATCH 2/5] ubi: auto-create ubiblock device for rootfs
+To: librecmc-devel@lists.librecmc.org
+
+Signed-off-by: Daniel Golle <daniel@makrotopia.org>
+---
+ drivers/mtd/ubi/block.c | 42 ++++++++++++++++++++++++++++++++++++++++++
+ 1 file changed, 42 insertions(+)
+
+--- a/drivers/mtd/ubi/block.c
++++ b/drivers/mtd/ubi/block.c
+@@ -615,6 +615,44 @@ static int __init ubiblock_create_from_p
+       return ret;
+ }
++#define UBIFS_NODE_MAGIC  0x06101831
++static inline int ubi_vol_is_ubifs(struct ubi_volume_desc *desc)
++{
++      int ret;
++      uint32_t magic_of, magic;
++      ret = ubi_read(desc, 0, (char *)&magic_of, 0, 4);
++      if (ret)
++              return 0;
++      magic = le32_to_cpu(magic_of);
++      return magic == UBIFS_NODE_MAGIC;
++}
++
++static void __init ubiblock_create_auto_rootfs(void)
++{
++      int ubi_num, ret, is_ubifs;
++      struct ubi_volume_desc *desc;
++      struct ubi_volume_info vi;
++
++      for (ubi_num = 0; ubi_num < UBI_MAX_DEVICES; ubi_num++) {
++              desc = ubi_open_volume_nm(ubi_num, "rootfs", UBI_READONLY);
++              if (IS_ERR(desc))
++                      continue;
++
++              ubi_get_volume_info(desc, &vi);
++              is_ubifs = ubi_vol_is_ubifs(desc);
++              ubi_close_volume(desc);
++              if (is_ubifs)
++                      break;
++
++              ret = ubiblock_create(&vi);
++              if (ret)
++                      ubi_err("block: can't add '%s' volume, err=%d\n",
++                              vi.name, ret);
++              /* always break if we get here */
++              break;
++      }
++}
++
+ static void ubiblock_remove_all(void)
+ {
+       struct ubiblock *next;
+@@ -645,6 +683,10 @@ int __init ubiblock_init(void)
+       if (ret)
+               goto err_remove;
++      /* auto-attach "rootfs" volume if existing and non-ubifs */
++      if (config_enabled(CONFIG_MTD_ROOTFS_ROOT_DEV))
++              ubiblock_create_auto_rootfs();
++
+       /*
+        * Block devices are only created upon user requests, so we ignore
+        * existing volumes.
diff --git a/trunk/target/linux/generic/patches-3.18/492-try-auto-mounting-ubi0-rootfs-in-init-do_mounts.c.patch b/trunk/target/linux/generic/patches-3.18/492-try-auto-mounting-ubi0-rootfs-in-init-do_mounts.c.patch
new file mode 100644 (file)
index 0000000..fec15fd
--- /dev/null
@@ -0,0 +1,53 @@
+From eea9e1785e4c05c2a3444506aabafa0ae958538f Mon Sep 17 00:00:00 2001
+From: Daniel Golle <daniel@makrotopia.org>
+Date: Sat, 17 May 2014 03:35:02 +0200
+Subject: [PATCH 4/5] try auto-mounting ubi0:rootfs in init/do_mounts.c
+To: librecmc-devel@lists.librecmc.org
+
+Signed-off-by: Daniel Golle <daniel@makrotopia.org>
+---
+ init/do_mounts.c | 26 +++++++++++++++++++++++++-
+ 1 file changed, 25 insertions(+), 1 deletion(-)
+
+--- a/init/do_mounts.c
++++ b/init/do_mounts.c
+@@ -433,7 +433,27 @@ retry:
+ out:
+       put_page(page);
+ }
+- 
++
++static int __init mount_ubi_rootfs(void)
++{
++      int flags = MS_SILENT;
++      int err, tried = 0;
++
++      while (tried < 2) {
++              err = do_mount_root("ubi0:rootfs", "ubifs", flags, \
++                                      root_mount_data);
++              switch (err) {
++                      case -EACCES:
++                              flags |= MS_RDONLY;
++                              tried++;
++                      default:
++                              return err;
++              }
++      }
++
++      return -EINVAL;
++}
++
+ #ifdef CONFIG_ROOT_NFS
+ #define NFSROOT_TIMEOUT_MIN   5
+@@ -527,6 +547,10 @@ void __init mount_root(void)
+                       change_floppy("root floppy");
+       }
+ #endif
++#ifdef CONFIG_MTD_ROOTFS_ROOT_DEV
++      if (!mount_ubi_rootfs())
++              return;
++#endif
+ #ifdef CONFIG_BLOCK
+       create_dev("/dev/root", ROOT_DEV);
+       mount_block_root("/dev/root", root_mountflags);
diff --git a/trunk/target/linux/generic/patches-3.18/493-ubi-set-ROOT_DEV-to-ubiblock-rootfs-if-unset.patch b/trunk/target/linux/generic/patches-3.18/493-ubi-set-ROOT_DEV-to-ubiblock-rootfs-if-unset.patch
new file mode 100644 (file)
index 0000000..42eb906
--- /dev/null
@@ -0,0 +1,37 @@
+From cd68d1b12b5ea4c01a664c064179ada42bf55d3d Mon Sep 17 00:00:00 2001
+From: Daniel Golle <daniel@makrotopia.org>
+Date: Thu, 15 May 2014 20:55:42 +0200
+Subject: [PATCH 5/5] ubi: set ROOT_DEV to ubiblock "rootfs" if unset
+To: librecmc-devel@lists.librecmc.org
+
+Signed-off-by: Daniel Golle <daniel@makrotopia.org>
+---
+ drivers/mtd/ubi/block.c | 10 ++++++++++
+ 1 file changed, 10 insertions(+)
+
+--- a/drivers/mtd/ubi/block.c
++++ b/drivers/mtd/ubi/block.c
+@@ -48,6 +48,7 @@
+ #include <linux/blkdev.h>
+ #include <linux/hdreg.h>
+ #include <asm/div64.h>
++#include <linux/root_dev.h>
+ #include "ubi-media.h"
+ #include "ubi.h"
+@@ -448,6 +449,15 @@ int ubiblock_create(struct ubi_volume_in
+       add_disk(dev->gd);
+       ubi_msg("%s created from ubi%d:%d(%s)",
+               dev->gd->disk_name, dev->ubi_num, dev->vol_id, vi->name);
++
++      if (!strcmp(vi->name, "rootfs") &&
++          config_enabled(CONFIG_MTD_ROOTFS_ROOT_DEV) &&
++          ROOT_DEV == 0) {
++              pr_notice("ubiblock: device ubiblock%d_%d (%s) set to be root filesystem\n",
++                        dev->ubi_num, dev->vol_id, vi->name);
++              ROOT_DEV = MKDEV(gd->major, gd->first_minor);
++      }
++
+       return 0;
+ out_free_queue:
diff --git a/trunk/target/linux/generic/patches-3.18/494-mtd-ubi-add-EOF-marker-support.patch b/trunk/target/linux/generic/patches-3.18/494-mtd-ubi-add-EOF-marker-support.patch
new file mode 100644 (file)
index 0000000..cd02c13
--- /dev/null
@@ -0,0 +1,51 @@
+--- a/drivers/mtd/ubi/attach.c
++++ b/drivers/mtd/ubi/attach.c
+@@ -800,6 +800,13 @@ out_unlock:
+       return err;
+ }
++static bool ec_hdr_has_eof(struct ubi_ec_hdr *ech)
++{
++      return ech->padding1[0] == 'E' &&
++             ech->padding1[1] == 'O' &&
++             ech->padding1[2] == 'F';
++}
++
+ /**
+  * scan_peb - scan and process UBI headers of a PEB.
+  * @ubi: UBI device description object
+@@ -830,9 +837,21 @@ static int scan_peb(struct ubi_device *u
+               return 0;
+       }
+-      err = ubi_io_read_ec_hdr(ubi, pnum, ech, 0);
+-      if (err < 0)
+-              return err;
++      if (!ai->eof_found) {
++              err = ubi_io_read_ec_hdr(ubi, pnum, ech, 0);
++              if (err < 0)
++                      return err;
++
++              if (ec_hdr_has_eof(ech)) {
++                      ubi_msg("EOF marker found, PEBs from %d will be erased",
++                              pnum);
++                      ai->eof_found = true;
++              }
++      }
++
++      if (ai->eof_found)
++              err = UBI_IO_FF_BITFLIPS;
++
+       switch (err) {
+       case 0:
+               break;
+--- a/drivers/mtd/ubi/ubi.h
++++ b/drivers/mtd/ubi/ubi.h
+@@ -701,6 +701,7 @@ struct ubi_attach_info {
+       int mean_ec;
+       uint64_t ec_sum;
+       int ec_count;
++      bool eof_found;
+       struct kmem_cache *aeb_slab_cache;
+ };
diff --git a/trunk/target/linux/generic/patches-3.18/500-yaffs-Kbuild-integration.patch b/trunk/target/linux/generic/patches-3.18/500-yaffs-Kbuild-integration.patch
new file mode 100644 (file)
index 0000000..de6643a
--- /dev/null
@@ -0,0 +1,18 @@
+--- a/fs/Kconfig
++++ b/fs/Kconfig
+@@ -39,6 +39,7 @@ source "fs/gfs2/Kconfig"
+ source "fs/ocfs2/Kconfig"
+ source "fs/btrfs/Kconfig"
+ source "fs/nilfs2/Kconfig"
++source "fs/yaffs2/Kconfig"
+ endif # BLOCK
+--- a/fs/Makefile
++++ b/fs/Makefile
+@@ -126,3 +126,5 @@ obj-y                              += exofs/ # Multiple modules
+ obj-$(CONFIG_CEPH_FS)         += ceph/
+ obj-$(CONFIG_PSTORE)          += pstore/
+ obj-$(CONFIG_EFIVAR_FS)               += efivarfs/
++obj-$(CONFIG_YAFFS_FS)                += yaffs2/
++
diff --git a/trunk/target/linux/generic/patches-3.18/501-yaffs-add-missing-flush-arguments.patch b/trunk/target/linux/generic/patches-3.18/501-yaffs-add-missing-flush-arguments.patch
new file mode 100644 (file)
index 0000000..d5ccc3e
--- /dev/null
@@ -0,0 +1,38 @@
+--- a/fs/yaffs2/yaffs_vfs.c
++++ b/fs/yaffs2/yaffs_vfs.c
+@@ -738,7 +738,7 @@ static int yaffs_file_flush(struct file
+       yaffs_gross_lock(dev);
+-      yaffs_flush_file(obj, 1, 0);
++      yaffs_flush_file(obj, 1, 0, 1);
+       yaffs_gross_unlock(dev);
+@@ -768,7 +768,7 @@ static int yaffs_sync_object(struct file
+       yaffs_trace(YAFFS_TRACE_OS | YAFFS_TRACE_SYNC,
+               "yaffs_sync_object");
+       yaffs_gross_lock(dev);
+-      yaffs_flush_file(obj, 1, datasync);
++      yaffs_flush_file(obj, 1, datasync, 1);
+       yaffs_gross_unlock(dev);
+       return 0;
+ }
+@@ -2187,7 +2187,7 @@ static void yaffs_flush_inodes(struct su
+                       yaffs_trace(YAFFS_TRACE_OS,
+                               "flushing obj %d",
+                               obj->obj_id);
+-                      yaffs_flush_file(obj, 1, 0);
++                      yaffs_flush_file(obj, 1, 0, 1);
+               }
+       }
+ }
+@@ -2200,7 +2200,7 @@ static void yaffs_flush_super(struct sup
+       yaffs_flush_inodes(sb);
+       yaffs_update_dirty_dirs(dev);
+-      yaffs_flush_whole_cache(dev);
++      yaffs_flush_whole_cache(dev, 1);
+       if (do_checkpoint)
+               yaffs_checkpoint_save(dev);
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/502-yaffs-fix-compat-tags-handling.patch b/trunk/target/linux/generic/patches-3.18/502-yaffs-fix-compat-tags-handling.patch
new file mode 100644 (file)
index 0000000..a18cf6f
--- /dev/null
@@ -0,0 +1,239 @@
+Subject: yaffs: fix compat tags handling
+
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+--- a/fs/yaffs2/yaffs_tagscompat.c
++++ b/fs/yaffs2/yaffs_tagscompat.c
+@@ -17,7 +17,9 @@
+ #include "yaffs_getblockinfo.h"
+ #include "yaffs_trace.h"
++#if 0
+ static void yaffs_handle_rd_data_error(struct yaffs_dev *dev, int nand_chunk);
++#endif
+ /********** Tags ECC calculations  *********/
+@@ -71,6 +73,7 @@ int yaffs_check_tags_ecc(struct yaffs_ta
+       return 0;
+ }
++#if 0
+ /********** Tags **********/
+ static void yaffs_load_tags_to_spare(struct yaffs_spare *spare_ptr,
+@@ -379,3 +382,214 @@ void yaffs_tags_compat_install(struct ya
+       if(!dev->tagger.mark_bad_fn)
+               dev->tagger.mark_bad_fn = yaffs_tags_compat_mark_bad;
+ }
++#else
++
++#include "yaffs_packedtags1.h"
++
++static int yaffs_tags_compat_write(struct yaffs_dev *dev,
++                                 int nand_chunk,
++                                 const u8 *data,
++                                 const struct yaffs_ext_tags *tags)
++{
++      struct yaffs_packed_tags1 pt1;
++      u8 tag_buf[9];
++      int retval;
++
++      /* we assume that yaffs_packed_tags1 and yaffs_tags are compatible */
++      compile_time_assertion(sizeof(struct yaffs_packed_tags1) == 12);
++      compile_time_assertion(sizeof(struct yaffs_tags) == 8);
++
++      yaffs_pack_tags1(&pt1, tags);
++      yaffs_calc_tags_ecc((struct yaffs_tags *)&pt1);
++
++      /* When deleting a chunk, the upper layer provides only skeletal
++       * tags, one with is_deleted set.  However, we need to update the
++       * tags, not erase them completely.  So we use the NAND write property
++       * that only zeroed-bits stick and set tag bytes to all-ones and
++       * zero just the (not) deleted bit.
++       */
++      if (!dev->param.tags_9bytes) {
++              if (tags->is_deleted) {
++                      memset(&pt1, 0xff, 8);
++                      /* clear delete status bit to indicate deleted */
++                      pt1.deleted = 0;
++              }
++              memcpy(tag_buf, &pt1, 8);
++      } else {
++              if (tags->is_deleted) {
++                      memset(tag_buf, 0xff, 8);
++                      tag_buf[8] = 0;
++              } else {
++                      memcpy(tag_buf, &pt1, 8);
++                      tag_buf[8] = 0xff;
++              }
++      }
++
++      retval = dev->drv.drv_write_chunk_fn(dev, nand_chunk,
++                      data,
++                      (data) ? dev->data_bytes_per_chunk : 0,
++                      tag_buf,
++                      (dev->param.tags_9bytes) ? 9 : 8);
++
++      return retval;
++}
++
++/* Return with empty extended tags but add ecc_result.
++ */
++static int return_empty_tags(struct yaffs_ext_tags *tags,
++                           enum yaffs_ecc_result ecc_result,
++                           int retval)
++{
++      if (tags) {
++              memset(tags, 0, sizeof(*tags));
++              tags->ecc_result = ecc_result;
++      }
++
++      return retval;
++}
++
++static int yaffs_tags_compat_read(struct yaffs_dev *dev,
++                                int nand_chunk,
++                                u8 *data,
++                                struct yaffs_ext_tags *tags)
++{
++      struct yaffs_packed_tags1 pt1;
++      enum yaffs_ecc_result ecc_result;
++      int retval;
++      int deleted;
++      u8 tag_buf[9];
++
++      retval = dev->drv.drv_read_chunk_fn(dev, nand_chunk,
++                      data, dev->param.total_bytes_per_chunk,
++                      tag_buf,
++                      (dev->param.tags_9bytes) ? 9 : 8,
++                      &ecc_result);
++
++      switch (ecc_result) {
++      case YAFFS_ECC_RESULT_NO_ERROR:
++      case YAFFS_ECC_RESULT_FIXED:
++              break;
++
++      case YAFFS_ECC_RESULT_UNFIXED:
++      default:
++              return_empty_tags(tags, YAFFS_ECC_RESULT_UNFIXED, 0);
++              tags->block_bad = dev->drv.drv_check_bad_fn(dev, nand_chunk);
++              return YAFFS_FAIL;
++      }
++
++      /* Check for a blank/erased chunk. */
++      if (yaffs_check_ff(tag_buf, 8)) {
++              /* when blank, upper layers want ecc_result to be <= NO_ERROR */
++              return return_empty_tags(tags, YAFFS_ECC_RESULT_NO_ERROR,
++                                       YAFFS_OK);
++      }
++
++      memcpy(&pt1, tag_buf, 8);
++
++      if (!dev->param.tags_9bytes) {
++              /* Read deleted status (bit) then return it to it's non-deleted
++               * state before performing tags mini-ECC check. pt1.deleted is
++               * inverted.
++               */
++              deleted = !pt1.deleted;
++              pt1.deleted = 1;
++      } else {
++              deleted = (hweight8(tag_buf[8]) < 7) ? 1 : 0;
++      }
++
++      /* Check the packed tags mini-ECC and correct if necessary/possible. */
++      retval = yaffs_check_tags_ecc((struct yaffs_tags *)&pt1);
++      switch (retval) {
++      case 0:
++              /* no tags error, use MTD result */
++              break;
++      case 1:
++              /* recovered tags-ECC error */
++              dev->n_tags_ecc_fixed++;
++              if (ecc_result == YAFFS_ECC_RESULT_NO_ERROR)
++                      ecc_result = YAFFS_ECC_RESULT_FIXED;
++              break;
++      default:
++              /* unrecovered tags-ECC error */
++              dev->n_tags_ecc_unfixed++;
++              return return_empty_tags(tags, YAFFS_ECC_RESULT_UNFIXED,
++                                       YAFFS_FAIL);
++      }
++
++      /* Unpack the tags to extended form and set ECC result.
++       * [set should_be_ff just to keep yaffs_unpack_tags1 happy]
++       */
++      pt1.should_be_ff = 0xffffffff;
++      yaffs_unpack_tags1(tags, &pt1);
++      tags->ecc_result = ecc_result;
++
++      /* Set deleted state */
++      tags->is_deleted = deleted;
++      return YAFFS_OK;
++}
++
++static int yaffs_tags_compat_mark_bad(struct yaffs_dev *dev, int block_no)
++{
++      return dev->drv.drv_mark_bad_fn(dev, block_no);
++}
++
++static int yaffs_tags_compat_query_block(struct yaffs_dev *dev,
++                                       int block_no,
++                                       enum yaffs_block_state *state,
++                                       u32 *seq_number)
++{
++      struct yaffs_ext_tags tags;
++      int retval;
++
++      yaffs_trace(YAFFS_TRACE_MTD, "%s %d", __func__, block_no);
++
++      *seq_number = 0;
++
++      retval = dev->drv.drv_check_bad_fn(dev, block_no);
++      if (retval == YAFFS_FAIL) {
++              *state = YAFFS_BLOCK_STATE_DEAD;
++              goto out;
++      }
++
++      yaffs_tags_compat_read(dev, block_no * dev->param.chunks_per_block,
++                             NULL, &tags);
++
++      if (tags.ecc_result != YAFFS_ECC_RESULT_NO_ERROR) {
++              yaffs_trace(YAFFS_TRACE_MTD, "block %d is marked bad",
++                          block_no);
++              *state = YAFFS_BLOCK_STATE_NEEDS_SCAN;
++      } else if (tags.chunk_used) {
++              *seq_number = tags.seq_number;
++              *state = YAFFS_BLOCK_STATE_NEEDS_SCAN;
++      } else {
++              *state = YAFFS_BLOCK_STATE_EMPTY;
++      }
++
++      retval = YAFFS_OK;
++
++out:
++      yaffs_trace(YAFFS_TRACE_MTD,
++                  "block query returns seq %u state %d",
++                  *seq_number, *state);
++
++      return retval;
++}
++
++void yaffs_tags_compat_install(struct yaffs_dev *dev)
++{
++      if (dev->param.is_yaffs2)
++              return;
++
++      if (!dev->tagger.write_chunk_tags_fn)
++              dev->tagger.write_chunk_tags_fn = yaffs_tags_compat_write;
++
++      if (!dev->tagger.read_chunk_tags_fn)
++              dev->tagger.read_chunk_tags_fn = yaffs_tags_compat_read;
++
++      if (!dev->tagger.query_block_fn)
++              dev->tagger.query_block_fn = yaffs_tags_compat_query_block;
++
++      if (!dev->tagger.mark_bad_fn)
++              dev->tagger.mark_bad_fn = yaffs_tags_compat_mark_bad;
++}
++#endif
diff --git a/trunk/target/linux/generic/patches-3.18/503-yaffs-add-tags-9bytes-mount-option.patch b/trunk/target/linux/generic/patches-3.18/503-yaffs-add-tags-9bytes-mount-option.patch
new file mode 100644 (file)
index 0000000..9ecaa72
--- /dev/null
@@ -0,0 +1,115 @@
+Subject: yaffs: add support for tags-9bytes mount option
+
+Signed-off-by: Gabor Juhos <juhosg@openwrt.org>
+---
+--- a/fs/yaffs2/yaffs_vfs.c
++++ b/fs/yaffs2/yaffs_vfs.c
+@@ -2605,6 +2605,7 @@ static const struct super_operations yaf
+ struct yaffs_options {
+       int inband_tags;
++      int tags_9bytes;
+       int skip_checkpoint_read;
+       int skip_checkpoint_write;
+       int no_cache;
+@@ -2644,6 +2645,8 @@ static int yaffs_parse_options(struct ya
+               if (!strcmp(cur_opt, "inband-tags")) {
+                       options->inband_tags = 1;
++              } else if (!strcmp(cur_opt, "tags-9bytes")) {
++                      options->tags_9bytes = 1;
+               } else if (!strcmp(cur_opt, "tags-ecc-off")) {
+                       options->tags_ecc_on = 0;
+                       options->tags_ecc_overridden = 1;
+@@ -2717,7 +2720,6 @@ static struct super_block *yaffs_interna
+       struct yaffs_param *param;
+       int read_only = 0;
+-      int inband_tags = 0;
+       struct yaffs_options options;
+@@ -2757,6 +2759,9 @@ static struct super_block *yaffs_interna
+       memset(&options, 0, sizeof(options));
++      if (IS_ENABLED(CONFIG_YAFFS_9BYTE_TAGS))
++              options.tags_9bytes = 1;
++
+       if (yaffs_parse_options(&options, data_str)) {
+               /* Option parsing failed */
+               return NULL;
+@@ -2790,17 +2795,22 @@ static struct super_block *yaffs_interna
+       }
+       /* Added NCB 26/5/2006 for completeness */
+-      if (yaffs_version == 2 && !options.inband_tags
+-          && WRITE_SIZE(mtd) == 512) {
++      if (yaffs_version == 2 &&
++          (!options.inband_tags || options.tags_9bytes) &&
++          WRITE_SIZE(mtd) == 512) {
+               yaffs_trace(YAFFS_TRACE_ALWAYS, "auto selecting yaffs1");
+               yaffs_version = 1;
+       }
+-      if (mtd->oobavail < sizeof(struct yaffs_packed_tags2) ||
+-          options.inband_tags)
+-              inband_tags = 1;
++      if (yaffs_version == 2 &&
++          mtd->oobavail < sizeof(struct yaffs_packed_tags2)) {
++              yaffs_trace(YAFFS_TRACE_ALWAYS, "auto selecting inband tags");
++              options.inband_tags = 1;
++      }
+-      if(yaffs_verify_mtd(mtd, yaffs_version, inband_tags) < 0)
++      err = yaffs_verify_mtd(mtd, yaffs_version, options.inband_tags,
++                             options.tags_9bytes);
++      if (err < 0)
+               return NULL;
+       /* OK, so if we got here, we have an MTD that's NAND and looks
+@@ -2857,7 +2867,8 @@ static struct super_block *yaffs_interna
+       param->n_reserved_blocks = 5;
+       param->n_caches = (options.no_cache) ? 0 : 10;
+-      param->inband_tags = inband_tags;
++      param->inband_tags = options.inband_tags;
++      param->tags_9bytes = options.tags_9bytes;
+       param->enable_xattr = 1;
+       if (options.lazy_loading_overridden)
+--- a/fs/yaffs2/yaffs_mtdif.c
++++ b/fs/yaffs2/yaffs_mtdif.c
+@@ -278,7 +278,8 @@ struct mtd_info * yaffs_get_mtd_device(d
+       return mtd;
+ }
+-int yaffs_verify_mtd(struct mtd_info *mtd, int yaffs_version, int inband_tags)
++int yaffs_verify_mtd(struct mtd_info *mtd, int yaffs_version, int inband_tags,
++                   int tags_9bytes)
+ {
+       if (yaffs_version == 2) {
+               if ((WRITE_SIZE(mtd) < YAFFS_MIN_YAFFS2_CHUNK_SIZE ||
+@@ -297,6 +298,12 @@ int yaffs_verify_mtd(struct mtd_info *mt
+                       );
+                       return -1;
+               }
++
++              if (tags_9bytes && mtd->oobavail < 9) {
++                      yaffs_trace(YAFFS_TRACE_ALWAYS,
++                                  "MTD device does not support 9-byte tags");
++                      return -1;
++              }
+       }
+       return 0;
+--- a/fs/yaffs2/yaffs_mtdif.h
++++ b/fs/yaffs2/yaffs_mtdif.h
+@@ -21,5 +21,6 @@
+ void yaffs_mtd_drv_install(struct yaffs_dev *dev);
+ struct mtd_info * yaffs_get_mtd_device(dev_t sdev);
+ void yaffs_put_mtd_device(struct mtd_info *mtd);
+-int yaffs_verify_mtd(struct mtd_info *mtd, int yaffs_version, int inband_tags);
++int yaffs_verify_mtd(struct mtd_info *mtd, int yaffs_version, int inband_tags,
++                   int tags_9bytes);
+ #endif
diff --git a/trunk/target/linux/generic/patches-3.18/504-yaffs-3.16-new-fops.patch b/trunk/target/linux/generic/patches-3.18/504-yaffs-3.16-new-fops.patch
new file mode 100644 (file)
index 0000000..11c6da0
--- /dev/null
@@ -0,0 +1,25 @@
+--- a/fs/yaffs2/yaffs_vfs.c
++++ b/fs/yaffs2/yaffs_vfs.c
+@@ -774,7 +774,21 @@ static int yaffs_sync_object(struct file
+ }
+-#if (LINUX_VERSION_CODE > KERNEL_VERSION(2, 6, 22))
++#if (LINUX_VERSION_CODE >= KERNEL_VERSION(3, 16, 0))
++static const struct file_operations yaffs_file_operations = {
++      .read = new_sync_read,
++      .read_iter = generic_file_read_iter,
++      .write = new_sync_write,
++      .write_iter = generic_file_write_iter,
++      .mmap = generic_file_mmap,
++      .flush = yaffs_file_flush,
++      .fsync = yaffs_sync_object,
++      .splice_read = generic_file_splice_read,
++      .splice_write = iter_file_splice_write,
++      .llseek = generic_file_llseek,
++};
++
++#elif (LINUX_VERSION_CODE > KERNEL_VERSION(2, 6, 22))
+ static const struct file_operations yaffs_file_operations = {
+       .read = do_sync_read,
+       .write = do_sync_write,
diff --git a/trunk/target/linux/generic/patches-3.18/520-squashfs_update_xz_comp_opts.patch b/trunk/target/linux/generic/patches-3.18/520-squashfs_update_xz_comp_opts.patch
new file mode 100644 (file)
index 0000000..ad11b30
--- /dev/null
@@ -0,0 +1,25 @@
+From f31b7c0efa255dd17a5f584022a319387f09b0d8 Mon Sep 17 00:00:00 2001
+From: Jonas Gorski <jonas.gorski@gmail.com>
+Date: Tue, 12 Apr 2011 19:55:41 +0200
+Subject: [PATCH] squashfs: update xz compressor options struct.
+
+Update the xz compressor options struct to match the squashfs userspace
+one.
+---
+ fs/squashfs/xz_wrapper.c |    4 +++-
+ 1 files changed, 3 insertions(+), 1 deletions(-)
+
+--- a/fs/squashfs/xz_wrapper.c
++++ b/fs/squashfs/xz_wrapper.c
+@@ -40,8 +40,10 @@ struct squashfs_xz {
+ };
+ struct disk_comp_opts {
+-      __le32 dictionary_size;
+       __le32 flags;
++      __le16 bit_opts;
++      __le16 fb;
++      __le32 dictionary_size;
+ };
+ struct comp_opts {
diff --git a/trunk/target/linux/generic/patches-3.18/530-jffs2_make_lzma_available.patch b/trunk/target/linux/generic/patches-3.18/530-jffs2_make_lzma_available.patch
new file mode 100644 (file)
index 0000000..c92209a
--- /dev/null
@@ -0,0 +1,5142 @@
+--- a/fs/jffs2/Kconfig
++++ b/fs/jffs2/Kconfig
+@@ -139,6 +139,15 @@ config JFFS2_LZO
+         This feature was added in July, 2007. Say 'N' if you need
+         compatibility with older bootloaders or kernels.
++config JFFS2_LZMA
++      bool "JFFS2 LZMA compression support" if JFFS2_COMPRESSION_OPTIONS
++      select LZMA_COMPRESS
++      select LZMA_DECOMPRESS
++      depends on JFFS2_FS
++      default n
++      help
++        JFFS2 wrapper to the LZMA C SDK
++
+ config JFFS2_RTIME
+       bool "JFFS2 RTIME compression support" if JFFS2_COMPRESSION_OPTIONS
+       depends on JFFS2_FS
+--- a/fs/jffs2/Makefile
++++ b/fs/jffs2/Makefile
+@@ -18,4 +18,7 @@ jffs2-$(CONFIG_JFFS2_RUBIN)  += compr_rub
+ jffs2-$(CONFIG_JFFS2_RTIME)   += compr_rtime.o
+ jffs2-$(CONFIG_JFFS2_ZLIB)    += compr_zlib.o
+ jffs2-$(CONFIG_JFFS2_LZO)     += compr_lzo.o
++jffs2-$(CONFIG_JFFS2_LZMA)      += compr_lzma.o
+ jffs2-$(CONFIG_JFFS2_SUMMARY)   += summary.o
++
++CFLAGS_compr_lzma.o += -Iinclude/linux -Ilib/lzma
+--- a/fs/jffs2/compr.c
++++ b/fs/jffs2/compr.c
+@@ -378,6 +378,9 @@ int __init jffs2_compressors_init(void)
+ #ifdef CONFIG_JFFS2_LZO
+       jffs2_lzo_init();
+ #endif
++#ifdef CONFIG_JFFS2_LZMA
++        jffs2_lzma_init();
++#endif
+ /* Setting default compression mode */
+ #ifdef CONFIG_JFFS2_CMODE_NONE
+       jffs2_compression_mode = JFFS2_COMPR_MODE_NONE;
+@@ -401,6 +404,9 @@ int __init jffs2_compressors_init(void)
+ int jffs2_compressors_exit(void)
+ {
+ /* Unregistering compressors */
++#ifdef CONFIG_JFFS2_LZMA
++        jffs2_lzma_exit();
++#endif
+ #ifdef CONFIG_JFFS2_LZO
+       jffs2_lzo_exit();
+ #endif
+--- a/fs/jffs2/compr.h
++++ b/fs/jffs2/compr.h
+@@ -29,9 +29,9 @@
+ #define JFFS2_DYNRUBIN_PRIORITY  20
+ #define JFFS2_LZARI_PRIORITY     30
+ #define JFFS2_RTIME_PRIORITY     50
+-#define JFFS2_ZLIB_PRIORITY      60
+-#define JFFS2_LZO_PRIORITY       80
+-
++#define JFFS2_LZMA_PRIORITY      70
++#define JFFS2_ZLIB_PRIORITY      80
++#define JFFS2_LZO_PRIORITY       90
+ #define JFFS2_RUBINMIPS_DISABLED /* RUBINs will be used only */
+ #define JFFS2_DYNRUBIN_DISABLED  /*      for decompression */
+@@ -101,5 +101,9 @@ void jffs2_zlib_exit(void);
+ int jffs2_lzo_init(void);
+ void jffs2_lzo_exit(void);
+ #endif
++#ifdef CONFIG_JFFS2_LZMA
++int jffs2_lzma_init(void);
++void jffs2_lzma_exit(void);
++#endif
+ #endif /* __JFFS2_COMPR_H__ */
+--- /dev/null
++++ b/fs/jffs2/compr_lzma.c
+@@ -0,0 +1,128 @@
++/*
++ * JFFS2 -- Journalling Flash File System, Version 2.
++ *
++ * For licensing information, see the file 'LICENCE' in this directory.
++ *
++ * JFFS2 wrapper to the LZMA C SDK
++ *
++ */
++
++#include <linux/lzma.h>
++#include "compr.h"
++
++#ifdef __KERNEL__
++      static DEFINE_MUTEX(deflate_mutex);
++#endif
++
++CLzmaEncHandle *p;
++Byte propsEncoded[LZMA_PROPS_SIZE];
++SizeT propsSize = sizeof(propsEncoded);
++
++STATIC void lzma_free_workspace(void)
++{
++      LzmaEnc_Destroy(p, &lzma_alloc, &lzma_alloc);
++}
++
++STATIC int INIT lzma_alloc_workspace(CLzmaEncProps *props)
++{
++      if ((p = (CLzmaEncHandle *)LzmaEnc_Create(&lzma_alloc)) == NULL)
++      {
++              PRINT_ERROR("Failed to allocate lzma deflate workspace\n");
++              return -ENOMEM;
++      }
++
++      if (LzmaEnc_SetProps(p, props) != SZ_OK)
++      {
++              lzma_free_workspace();
++              return -1;
++      }
++      
++      if (LzmaEnc_WriteProperties(p, propsEncoded, &propsSize) != SZ_OK)
++      {
++              lzma_free_workspace();
++              return -1;
++      }
++
++        return 0;
++}
++
++STATIC int jffs2_lzma_compress(unsigned char *data_in, unsigned char *cpage_out,
++                            uint32_t *sourcelen, uint32_t *dstlen)
++{
++      SizeT compress_size = (SizeT)(*dstlen);
++      int ret;
++
++      #ifdef __KERNEL__
++              mutex_lock(&deflate_mutex);
++      #endif
++
++      ret = LzmaEnc_MemEncode(p, cpage_out, &compress_size, data_in, *sourcelen,
++              0, NULL, &lzma_alloc, &lzma_alloc);
++
++      #ifdef __KERNEL__
++              mutex_unlock(&deflate_mutex);
++      #endif
++
++      if (ret != SZ_OK)
++              return -1;
++
++      *dstlen = (uint32_t)compress_size;
++
++      return 0;
++}
++
++STATIC int jffs2_lzma_decompress(unsigned char *data_in, unsigned char *cpage_out,
++                               uint32_t srclen, uint32_t destlen)
++{
++      int ret;
++      SizeT dl = (SizeT)destlen;
++      SizeT sl = (SizeT)srclen;
++      ELzmaStatus status;
++      
++      ret = LzmaDecode(cpage_out, &dl, data_in, &sl, propsEncoded,
++              propsSize, LZMA_FINISH_ANY, &status, &lzma_alloc);
++
++      if (ret != SZ_OK || status == LZMA_STATUS_NOT_FINISHED || dl != (SizeT)destlen)
++              return -1;
++
++      return 0;
++}
++
++static struct jffs2_compressor jffs2_lzma_comp = {
++      .priority = JFFS2_LZMA_PRIORITY,
++      .name = "lzma",
++      .compr = JFFS2_COMPR_LZMA,
++      .compress = &jffs2_lzma_compress,
++      .decompress = &jffs2_lzma_decompress,
++      .disabled = 0,
++};
++
++int INIT jffs2_lzma_init(void)
++{
++        int ret;
++      CLzmaEncProps props;
++      LzmaEncProps_Init(&props);
++
++        props.dictSize = LZMA_BEST_DICT(0x2000);
++        props.level = LZMA_BEST_LEVEL;
++        props.lc = LZMA_BEST_LC;
++        props.lp = LZMA_BEST_LP;
++        props.pb = LZMA_BEST_PB;
++        props.fb = LZMA_BEST_FB;
++
++      ret = lzma_alloc_workspace(&props);
++        if (ret < 0)
++                return ret;
++
++      ret = jffs2_register_compressor(&jffs2_lzma_comp);
++      if (ret)
++              lzma_free_workspace();
++      
++        return ret;
++}
++
++void jffs2_lzma_exit(void)
++{
++      jffs2_unregister_compressor(&jffs2_lzma_comp);
++      lzma_free_workspace();
++}
+--- a/fs/jffs2/super.c
++++ b/fs/jffs2/super.c
+@@ -375,14 +375,41 @@ static int __init init_jffs2_fs(void)
+       BUILD_BUG_ON(sizeof(struct jffs2_raw_inode) != 68);
+       BUILD_BUG_ON(sizeof(struct jffs2_raw_summary) != 32);
+-      pr_info("version 2.2."
++      pr_info("version 2.2"
+ #ifdef CONFIG_JFFS2_FS_WRITEBUFFER
+              " (NAND)"
+ #endif
+ #ifdef CONFIG_JFFS2_SUMMARY
+-             " (SUMMARY) "
++             " (SUMMARY)"
+ #endif
+-             " Â© 2001-2006 Red Hat, Inc.\n");
++#ifdef CONFIG_JFFS2_ZLIB
++             " (ZLIB)"
++#endif
++#ifdef CONFIG_JFFS2_LZO
++             " (LZO)"
++#endif
++#ifdef CONFIG_JFFS2_LZMA
++             " (LZMA)"
++#endif
++#ifdef CONFIG_JFFS2_RTIME
++             " (RTIME)"
++#endif
++#ifdef CONFIG_JFFS2_RUBIN
++             " (RUBIN)"
++#endif
++#ifdef  CONFIG_JFFS2_CMODE_NONE
++             " (CMODE_NONE)"
++#endif
++#ifdef CONFIG_JFFS2_CMODE_PRIORITY
++             " (CMODE_PRIORITY)"
++#endif
++#ifdef CONFIG_JFFS2_CMODE_SIZE
++             " (CMODE_SIZE)"
++#endif
++#ifdef CONFIG_JFFS2_CMODE_FAVOURLZO
++             " (CMODE_FAVOURLZO)"
++#endif
++             " (c) 2001-2006 Red Hat, Inc.\n");
+       jffs2_inode_cachep = kmem_cache_create("jffs2_i",
+                                            sizeof(struct jffs2_inode_info),
+--- a/include/uapi/linux/jffs2.h
++++ b/include/uapi/linux/jffs2.h
+@@ -46,6 +46,7 @@
+ #define JFFS2_COMPR_DYNRUBIN  0x05
+ #define JFFS2_COMPR_ZLIB      0x06
+ #define JFFS2_COMPR_LZO               0x07
++#define JFFS2_COMPR_LZMA      0x08
+ /* Compatibility flags. */
+ #define JFFS2_COMPAT_MASK 0xc000      /* What do to if an unknown nodetype is found */
+ #define JFFS2_NODE_ACCURATE 0x2000
+--- /dev/null
++++ b/include/linux/lzma.h
+@@ -0,0 +1,62 @@
++#ifndef __LZMA_H__
++#define __LZMA_H__
++
++#ifdef __KERNEL__
++      #include <linux/kernel.h>
++      #include <linux/sched.h>
++      #include <linux/slab.h>
++      #include <linux/vmalloc.h>
++      #include <linux/init.h>
++      #define LZMA_MALLOC vmalloc
++      #define LZMA_FREE vfree
++      #define PRINT_ERROR(msg) printk(KERN_WARNING #msg)
++      #define INIT __init
++      #define STATIC static
++#else
++      #include <stdint.h>
++      #include <stdlib.h>
++      #include <stdio.h>
++      #include <unistd.h>
++      #include <string.h>
++      #include <asm/types.h>
++      #include <errno.h>
++      #include <linux/jffs2.h>
++      #ifndef PAGE_SIZE
++              extern int page_size;
++              #define PAGE_SIZE page_size
++      #endif
++      #define LZMA_MALLOC malloc
++      #define LZMA_FREE free
++      #define PRINT_ERROR(msg) fprintf(stderr, msg)
++      #define INIT
++      #define STATIC
++#endif
++
++#include "lzma/LzmaDec.h"
++#include "lzma/LzmaEnc.h"
++
++#define LZMA_BEST_LEVEL (9)
++#define LZMA_BEST_LC    (0)
++#define LZMA_BEST_LP    (0)
++#define LZMA_BEST_PB    (0)
++#define LZMA_BEST_FB  (273)
++
++#define LZMA_BEST_DICT(n) (((int)((n) / 2)) * 2)
++
++static void *p_lzma_malloc(void *p, size_t size)
++{
++        if (size == 0)
++                return NULL;
++
++        return LZMA_MALLOC(size);
++}
++
++static void p_lzma_free(void *p, void *address)
++{
++        if (address != NULL)
++                LZMA_FREE(address);
++}
++
++static ISzAlloc lzma_alloc = {p_lzma_malloc, p_lzma_free};
++
++#endif
+--- /dev/null
++++ b/include/linux/lzma/LzFind.h
+@@ -0,0 +1,115 @@
++/* LzFind.h -- Match finder for LZ algorithms
++2009-04-22 : Igor Pavlov : Public domain */
++
++#ifndef __LZ_FIND_H
++#define __LZ_FIND_H
++
++#include "Types.h"
++
++#ifdef __cplusplus
++extern "C" {
++#endif
++
++typedef UInt32 CLzRef;
++
++typedef struct _CMatchFinder
++{
++  Byte *buffer;
++  UInt32 pos;
++  UInt32 posLimit;
++  UInt32 streamPos;
++  UInt32 lenLimit;
++
++  UInt32 cyclicBufferPos;
++  UInt32 cyclicBufferSize; /* it must be = (historySize + 1) */
++
++  UInt32 matchMaxLen;
++  CLzRef *hash;
++  CLzRef *son;
++  UInt32 hashMask;
++  UInt32 cutValue;
++
++  Byte *bufferBase;
++  ISeqInStream *stream;
++  int streamEndWasReached;
++
++  UInt32 blockSize;
++  UInt32 keepSizeBefore;
++  UInt32 keepSizeAfter;
++
++  UInt32 numHashBytes;
++  int directInput;
++  size_t directInputRem;
++  int btMode;
++  int bigHash;
++  UInt32 historySize;
++  UInt32 fixedHashSize;
++  UInt32 hashSizeSum;
++  UInt32 numSons;
++  SRes result;
++  UInt32 crc[256];
++} CMatchFinder;
++
++#define Inline_MatchFinder_GetPointerToCurrentPos(p) ((p)->buffer)
++#define Inline_MatchFinder_GetIndexByte(p, index) ((p)->buffer[(Int32)(index)])
++
++#define Inline_MatchFinder_GetNumAvailableBytes(p) ((p)->streamPos - (p)->pos)
++
++int MatchFinder_NeedMove(CMatchFinder *p);
++Byte *MatchFinder_GetPointerToCurrentPos(CMatchFinder *p);
++void MatchFinder_MoveBlock(CMatchFinder *p);
++void MatchFinder_ReadIfRequired(CMatchFinder *p);
++
++void MatchFinder_Construct(CMatchFinder *p);
++
++/* Conditions:
++     historySize <= 3 GB
++     keepAddBufferBefore + matchMaxLen + keepAddBufferAfter < 511MB
++*/
++int MatchFinder_Create(CMatchFinder *p, UInt32 historySize,
++    UInt32 keepAddBufferBefore, UInt32 matchMaxLen, UInt32 keepAddBufferAfter,
++    ISzAlloc *alloc);
++void MatchFinder_Free(CMatchFinder *p, ISzAlloc *alloc);
++void MatchFinder_Normalize3(UInt32 subValue, CLzRef *items, UInt32 numItems);
++void MatchFinder_ReduceOffsets(CMatchFinder *p, UInt32 subValue);
++
++UInt32 * GetMatchesSpec1(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *buffer, CLzRef *son,
++    UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 _cutValue,
++    UInt32 *distances, UInt32 maxLen);
++
++/*
++Conditions:
++  Mf_GetNumAvailableBytes_Func must be called before each Mf_GetMatchLen_Func.
++  Mf_GetPointerToCurrentPos_Func's result must be used only before any other function
++*/
++
++typedef void (*Mf_Init_Func)(void *object);
++typedef Byte (*Mf_GetIndexByte_Func)(void *object, Int32 index);
++typedef UInt32 (*Mf_GetNumAvailableBytes_Func)(void *object);
++typedef const Byte * (*Mf_GetPointerToCurrentPos_Func)(void *object);
++typedef UInt32 (*Mf_GetMatches_Func)(void *object, UInt32 *distances);
++typedef void (*Mf_Skip_Func)(void *object, UInt32);
++
++typedef struct _IMatchFinder
++{
++  Mf_Init_Func Init;
++  Mf_GetIndexByte_Func GetIndexByte;
++  Mf_GetNumAvailableBytes_Func GetNumAvailableBytes;
++  Mf_GetPointerToCurrentPos_Func GetPointerToCurrentPos;
++  Mf_GetMatches_Func GetMatches;
++  Mf_Skip_Func Skip;
++} IMatchFinder;
++
++void MatchFinder_CreateVTable(CMatchFinder *p, IMatchFinder *vTable);
++
++void MatchFinder_Init(CMatchFinder *p);
++UInt32 Bt3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances);
++UInt32 Hc3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances);
++void Bt3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num);
++void Hc3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num);
++
++#ifdef __cplusplus
++}
++#endif
++
++#endif
+--- /dev/null
++++ b/include/linux/lzma/LzHash.h
+@@ -0,0 +1,54 @@
++/* LzHash.h -- HASH functions for LZ algorithms
++2009-02-07 : Igor Pavlov : Public domain */
++
++#ifndef __LZ_HASH_H
++#define __LZ_HASH_H
++
++#define kHash2Size (1 << 10)
++#define kHash3Size (1 << 16)
++#define kHash4Size (1 << 20)
++
++#define kFix3HashSize (kHash2Size)
++#define kFix4HashSize (kHash2Size + kHash3Size)
++#define kFix5HashSize (kHash2Size + kHash3Size + kHash4Size)
++
++#define HASH2_CALC hashValue = cur[0] | ((UInt32)cur[1] << 8);
++
++#define HASH3_CALC { \
++  UInt32 temp = p->crc[cur[0]] ^ cur[1]; \
++  hash2Value = temp & (kHash2Size - 1); \
++  hashValue = (temp ^ ((UInt32)cur[2] << 8)) & p->hashMask; }
++
++#define HASH4_CALC { \
++  UInt32 temp = p->crc[cur[0]] ^ cur[1]; \
++  hash2Value = temp & (kHash2Size - 1); \
++  hash3Value = (temp ^ ((UInt32)cur[2] << 8)) & (kHash3Size - 1); \
++  hashValue = (temp ^ ((UInt32)cur[2] << 8) ^ (p->crc[cur[3]] << 5)) & p->hashMask; }
++
++#define HASH5_CALC { \
++  UInt32 temp = p->crc[cur[0]] ^ cur[1]; \
++  hash2Value = temp & (kHash2Size - 1); \
++  hash3Value = (temp ^ ((UInt32)cur[2] << 8)) & (kHash3Size - 1); \
++  hash4Value = (temp ^ ((UInt32)cur[2] << 8) ^ (p->crc[cur[3]] << 5)); \
++  hashValue = (hash4Value ^ (p->crc[cur[4]] << 3)) & p->hashMask; \
++  hash4Value &= (kHash4Size - 1); }
++
++/* #define HASH_ZIP_CALC hashValue = ((cur[0] | ((UInt32)cur[1] << 8)) ^ p->crc[cur[2]]) & 0xFFFF; */
++#define HASH_ZIP_CALC hashValue = ((cur[2] | ((UInt32)cur[0] << 8)) ^ p->crc[cur[1]]) & 0xFFFF;
++
++
++#define MT_HASH2_CALC \
++  hash2Value = (p->crc[cur[0]] ^ cur[1]) & (kHash2Size - 1);
++
++#define MT_HASH3_CALC { \
++  UInt32 temp = p->crc[cur[0]] ^ cur[1]; \
++  hash2Value = temp & (kHash2Size - 1); \
++  hash3Value = (temp ^ ((UInt32)cur[2] << 8)) & (kHash3Size - 1); }
++
++#define MT_HASH4_CALC { \
++  UInt32 temp = p->crc[cur[0]] ^ cur[1]; \
++  hash2Value = temp & (kHash2Size - 1); \
++  hash3Value = (temp ^ ((UInt32)cur[2] << 8)) & (kHash3Size - 1); \
++  hash4Value = (temp ^ ((UInt32)cur[2] << 8) ^ (p->crc[cur[3]] << 5)) & (kHash4Size - 1); }
++
++#endif
+--- /dev/null
++++ b/include/linux/lzma/LzmaDec.h
+@@ -0,0 +1,231 @@
++/* LzmaDec.h -- LZMA Decoder
++2009-02-07 : Igor Pavlov : Public domain */
++
++#ifndef __LZMA_DEC_H
++#define __LZMA_DEC_H
++
++#include "Types.h"
++
++#ifdef __cplusplus
++extern "C" {
++#endif
++
++/* #define _LZMA_PROB32 */
++/* _LZMA_PROB32 can increase the speed on some CPUs,
++   but memory usage for CLzmaDec::probs will be doubled in that case */
++
++#ifdef _LZMA_PROB32
++#define CLzmaProb UInt32
++#else
++#define CLzmaProb UInt16
++#endif
++
++
++/* ---------- LZMA Properties ---------- */
++
++#define LZMA_PROPS_SIZE 5
++
++typedef struct _CLzmaProps
++{
++  unsigned lc, lp, pb;
++  UInt32 dicSize;
++} CLzmaProps;
++
++/* LzmaProps_Decode - decodes properties
++Returns:
++  SZ_OK
++  SZ_ERROR_UNSUPPORTED - Unsupported properties
++*/
++
++SRes LzmaProps_Decode(CLzmaProps *p, const Byte *data, unsigned size);
++
++
++/* ---------- LZMA Decoder state ---------- */
++
++/* LZMA_REQUIRED_INPUT_MAX = number of required input bytes for worst case.
++   Num bits = log2((2^11 / 31) ^ 22) + 26 < 134 + 26 = 160; */
++
++#define LZMA_REQUIRED_INPUT_MAX 20
++
++typedef struct
++{
++  CLzmaProps prop;
++  CLzmaProb *probs;
++  Byte *dic;
++  const Byte *buf;
++  UInt32 range, code;
++  SizeT dicPos;
++  SizeT dicBufSize;
++  UInt32 processedPos;
++  UInt32 checkDicSize;
++  unsigned state;
++  UInt32 reps[4];
++  unsigned remainLen;
++  int needFlush;
++  int needInitState;
++  UInt32 numProbs;
++  unsigned tempBufSize;
++  Byte tempBuf[LZMA_REQUIRED_INPUT_MAX];
++} CLzmaDec;
++
++#define LzmaDec_Construct(p) { (p)->dic = 0; (p)->probs = 0; }
++
++void LzmaDec_Init(CLzmaDec *p);
++
++/* There are two types of LZMA streams:
++     0) Stream with end mark. That end mark adds about 6 bytes to compressed size.
++     1) Stream without end mark. You must know exact uncompressed size to decompress such stream. */
++
++typedef enum
++{
++  LZMA_FINISH_ANY,   /* finish at any point */
++  LZMA_FINISH_END    /* block must be finished at the end */
++} ELzmaFinishMode;
++
++/* ELzmaFinishMode has meaning only if the decoding reaches output limit !!!
++
++   You must use LZMA_FINISH_END, when you know that current output buffer
++   covers last bytes of block. In other cases you must use LZMA_FINISH_ANY.
++
++   If LZMA decoder sees end marker before reaching output limit, it returns SZ_OK,
++   and output value of destLen will be less than output buffer size limit.
++   You can check status result also.
++
++   You can use multiple checks to test data integrity after full decompression:
++     1) Check Result and "status" variable.
++     2) Check that output(destLen) = uncompressedSize, if you know real uncompressedSize.
++     3) Check that output(srcLen) = compressedSize, if you know real compressedSize.
++        You must use correct finish mode in that case. */
++
++typedef enum
++{
++  LZMA_STATUS_NOT_SPECIFIED,               /* use main error code instead */
++  LZMA_STATUS_FINISHED_WITH_MARK,          /* stream was finished with end mark. */
++  LZMA_STATUS_NOT_FINISHED,                /* stream was not finished */
++  LZMA_STATUS_NEEDS_MORE_INPUT,            /* you must provide more input bytes */
++  LZMA_STATUS_MAYBE_FINISHED_WITHOUT_MARK  /* there is probability that stream was finished without end mark */
++} ELzmaStatus;
++
++/* ELzmaStatus is used only as output value for function call */
++
++
++/* ---------- Interfaces ---------- */
++
++/* There are 3 levels of interfaces:
++     1) Dictionary Interface
++     2) Buffer Interface
++     3) One Call Interface
++   You can select any of these interfaces, but don't mix functions from different
++   groups for same object. */
++
++
++/* There are two variants to allocate state for Dictionary Interface:
++     1) LzmaDec_Allocate / LzmaDec_Free
++     2) LzmaDec_AllocateProbs / LzmaDec_FreeProbs
++   You can use variant 2, if you set dictionary buffer manually.
++   For Buffer Interface you must always use variant 1.
++
++LzmaDec_Allocate* can return:
++  SZ_OK
++  SZ_ERROR_MEM         - Memory allocation error
++  SZ_ERROR_UNSUPPORTED - Unsupported properties
++*/
++   
++SRes LzmaDec_AllocateProbs(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc);
++void LzmaDec_FreeProbs(CLzmaDec *p, ISzAlloc *alloc);
++
++SRes LzmaDec_Allocate(CLzmaDec *state, const Byte *prop, unsigned propsSize, ISzAlloc *alloc);
++void LzmaDec_Free(CLzmaDec *state, ISzAlloc *alloc);
++
++/* ---------- Dictionary Interface ---------- */
++
++/* You can use it, if you want to eliminate the overhead for data copying from
++   dictionary to some other external buffer.
++   You must work with CLzmaDec variables directly in this interface.
++
++   STEPS:
++     LzmaDec_Constr()
++     LzmaDec_Allocate()
++     for (each new stream)
++     {
++       LzmaDec_Init()
++       while (it needs more decompression)
++       {
++         LzmaDec_DecodeToDic()
++         use data from CLzmaDec::dic and update CLzmaDec::dicPos
++       }
++     }
++     LzmaDec_Free()
++*/
++
++/* LzmaDec_DecodeToDic
++   
++   The decoding to internal dictionary buffer (CLzmaDec::dic).
++   You must manually update CLzmaDec::dicPos, if it reaches CLzmaDec::dicBufSize !!!
++
++finishMode:
++  It has meaning only if the decoding reaches output limit (dicLimit).
++  LZMA_FINISH_ANY - Decode just dicLimit bytes.
++  LZMA_FINISH_END - Stream must be finished after dicLimit.
++
++Returns:
++  SZ_OK
++    status:
++      LZMA_STATUS_FINISHED_WITH_MARK
++      LZMA_STATUS_NOT_FINISHED
++      LZMA_STATUS_NEEDS_MORE_INPUT
++      LZMA_STATUS_MAYBE_FINISHED_WITHOUT_MARK
++  SZ_ERROR_DATA - Data error
++*/
++
++SRes LzmaDec_DecodeToDic(CLzmaDec *p, SizeT dicLimit,
++    const Byte *src, SizeT *srcLen, ELzmaFinishMode finishMode, ELzmaStatus *status);
++
++
++/* ---------- Buffer Interface ---------- */
++
++/* It's zlib-like interface.
++   See LzmaDec_DecodeToDic description for information about STEPS and return results,
++   but you must use LzmaDec_DecodeToBuf instead of LzmaDec_DecodeToDic and you don't need
++   to work with CLzmaDec variables manually.
++
++finishMode:
++  It has meaning only if the decoding reaches output limit (*destLen).
++  LZMA_FINISH_ANY - Decode just destLen bytes.
++  LZMA_FINISH_END - Stream must be finished after (*destLen).
++*/
++
++SRes LzmaDec_DecodeToBuf(CLzmaDec *p, Byte *dest, SizeT *destLen,
++    const Byte *src, SizeT *srcLen, ELzmaFinishMode finishMode, ELzmaStatus *status);
++
++
++/* ---------- One Call Interface ---------- */
++
++/* LzmaDecode
++
++finishMode:
++  It has meaning only if the decoding reaches output limit (*destLen).
++  LZMA_FINISH_ANY - Decode just destLen bytes.
++  LZMA_FINISH_END - Stream must be finished after (*destLen).
++
++Returns:
++  SZ_OK
++    status:
++      LZMA_STATUS_FINISHED_WITH_MARK
++      LZMA_STATUS_NOT_FINISHED
++      LZMA_STATUS_MAYBE_FINISHED_WITHOUT_MARK
++  SZ_ERROR_DATA - Data error
++  SZ_ERROR_MEM  - Memory allocation error
++  SZ_ERROR_UNSUPPORTED - Unsupported properties
++  SZ_ERROR_INPUT_EOF - It needs more bytes in input buffer (src).
++*/
++
++SRes LzmaDecode(Byte *dest, SizeT *destLen, const Byte *src, SizeT *srcLen,
++    const Byte *propData, unsigned propSize, ELzmaFinishMode finishMode,
++    ELzmaStatus *status, ISzAlloc *alloc);
++
++#ifdef __cplusplus
++}
++#endif
++
++#endif
+--- /dev/null
++++ b/include/linux/lzma/LzmaEnc.h
+@@ -0,0 +1,80 @@
++/*  LzmaEnc.h -- LZMA Encoder
++2009-02-07 : Igor Pavlov : Public domain */
++
++#ifndef __LZMA_ENC_H
++#define __LZMA_ENC_H
++
++#include "Types.h"
++
++#ifdef __cplusplus
++extern "C" {
++#endif
++
++#define LZMA_PROPS_SIZE 5
++
++typedef struct _CLzmaEncProps
++{
++  int level;       /*  0 <= level <= 9 */
++  UInt32 dictSize; /* (1 << 12) <= dictSize <= (1 << 27) for 32-bit version
++                      (1 << 12) <= dictSize <= (1 << 30) for 64-bit version
++                       default = (1 << 24) */
++  int lc;          /* 0 <= lc <= 8, default = 3 */
++  int lp;          /* 0 <= lp <= 4, default = 0 */
++  int pb;          /* 0 <= pb <= 4, default = 2 */
++  int algo;        /* 0 - fast, 1 - normal, default = 1 */
++  int fb;          /* 5 <= fb <= 273, default = 32 */
++  int btMode;      /* 0 - hashChain Mode, 1 - binTree mode - normal, default = 1 */
++  int numHashBytes; /* 2, 3 or 4, default = 4 */
++  UInt32 mc;        /* 1 <= mc <= (1 << 30), default = 32 */
++  unsigned writeEndMark;  /* 0 - do not write EOPM, 1 - write EOPM, default = 0 */
++  int numThreads;  /* 1 or 2, default = 2 */
++} CLzmaEncProps;
++
++void LzmaEncProps_Init(CLzmaEncProps *p);
++void LzmaEncProps_Normalize(CLzmaEncProps *p);
++UInt32 LzmaEncProps_GetDictSize(const CLzmaEncProps *props2);
++
++
++/* ---------- CLzmaEncHandle Interface ---------- */
++
++/* LzmaEnc_* functions can return the following exit codes:
++Returns:
++  SZ_OK           - OK
++  SZ_ERROR_MEM    - Memory allocation error
++  SZ_ERROR_PARAM  - Incorrect paramater in props
++  SZ_ERROR_WRITE  - Write callback error.
++  SZ_ERROR_PROGRESS - some break from progress callback
++  SZ_ERROR_THREAD - errors in multithreading functions (only for Mt version)
++*/
++
++typedef void * CLzmaEncHandle;
++
++CLzmaEncHandle LzmaEnc_Create(ISzAlloc *alloc);
++void LzmaEnc_Destroy(CLzmaEncHandle p, ISzAlloc *alloc, ISzAlloc *allocBig);
++SRes LzmaEnc_SetProps(CLzmaEncHandle p, const CLzmaEncProps *props);
++SRes LzmaEnc_WriteProperties(CLzmaEncHandle p, Byte *properties, SizeT *size);
++SRes LzmaEnc_Encode(CLzmaEncHandle p, ISeqOutStream *outStream, ISeqInStream *inStream,
++    ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig);
++SRes LzmaEnc_MemEncode(CLzmaEncHandle p, Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
++    int writeEndMark, ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig);
++
++/* ---------- One Call Interface ---------- */
++
++/* LzmaEncode
++Return code:
++  SZ_OK               - OK
++  SZ_ERROR_MEM        - Memory allocation error
++  SZ_ERROR_PARAM      - Incorrect paramater
++  SZ_ERROR_OUTPUT_EOF - output buffer overflow
++  SZ_ERROR_THREAD     - errors in multithreading functions (only for Mt version)
++*/
++
++SRes LzmaEncode(Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
++    const CLzmaEncProps *props, Byte *propsEncoded, SizeT *propsSize, int writeEndMark,
++    ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig);
++
++#ifdef __cplusplus
++}
++#endif
++
++#endif
+--- /dev/null
++++ b/include/linux/lzma/Types.h
+@@ -0,0 +1,226 @@
++/* Types.h -- Basic types
++2009-11-23 : Igor Pavlov : Public domain */
++
++#ifndef __7Z_TYPES_H
++#define __7Z_TYPES_H
++
++#include <stddef.h>
++
++#ifdef _WIN32
++#include <windows.h>
++#endif
++
++#ifndef EXTERN_C_BEGIN
++#ifdef __cplusplus
++#define EXTERN_C_BEGIN extern "C" {
++#define EXTERN_C_END }
++#else
++#define EXTERN_C_BEGIN
++#define EXTERN_C_END
++#endif
++#endif
++
++EXTERN_C_BEGIN
++
++#define SZ_OK 0
++
++#define SZ_ERROR_DATA 1
++#define SZ_ERROR_MEM 2
++#define SZ_ERROR_CRC 3
++#define SZ_ERROR_UNSUPPORTED 4
++#define SZ_ERROR_PARAM 5
++#define SZ_ERROR_INPUT_EOF 6
++#define SZ_ERROR_OUTPUT_EOF 7
++#define SZ_ERROR_READ 8
++#define SZ_ERROR_WRITE 9
++#define SZ_ERROR_PROGRESS 10
++#define SZ_ERROR_FAIL 11
++#define SZ_ERROR_THREAD 12
++
++#define SZ_ERROR_ARCHIVE 16
++#define SZ_ERROR_NO_ARCHIVE 17
++
++typedef int SRes;
++
++#ifdef _WIN32
++typedef DWORD WRes;
++#else
++typedef int WRes;
++#endif
++
++#ifndef RINOK
++#define RINOK(x) { int __result__ = (x); if (__result__ != 0) return __result__; }
++#endif
++
++typedef unsigned char Byte;
++typedef short Int16;
++typedef unsigned short UInt16;
++
++#ifdef _LZMA_UINT32_IS_ULONG
++typedef long Int32;
++typedef unsigned long UInt32;
++#else
++typedef int Int32;
++typedef unsigned int UInt32;
++#endif
++
++#ifdef _SZ_NO_INT_64
++
++/* define _SZ_NO_INT_64, if your compiler doesn't support 64-bit integers.
++   NOTES: Some code will work incorrectly in that case! */
++
++typedef long Int64;
++typedef unsigned long UInt64;
++
++#else
++
++#if defined(_MSC_VER) || defined(__BORLANDC__)
++typedef __int64 Int64;
++typedef unsigned __int64 UInt64;
++#else
++typedef long long int Int64;
++typedef unsigned long long int UInt64;
++#endif
++
++#endif
++
++#ifdef _LZMA_NO_SYSTEM_SIZE_T
++typedef UInt32 SizeT;
++#else
++typedef size_t SizeT;
++#endif
++
++typedef int Bool;
++#define True 1
++#define False 0
++
++
++#ifdef _WIN32
++#define MY_STD_CALL __stdcall
++#else
++#define MY_STD_CALL
++#endif
++
++#ifdef _MSC_VER
++
++#if _MSC_VER >= 1300
++#define MY_NO_INLINE __declspec(noinline)
++#else
++#define MY_NO_INLINE
++#endif
++
++#define MY_CDECL __cdecl
++#define MY_FAST_CALL __fastcall
++
++#else
++
++#define MY_CDECL
++#define MY_FAST_CALL
++
++#endif
++
++
++/* The following interfaces use first parameter as pointer to structure */
++
++typedef struct
++{
++  SRes (*Read)(void *p, void *buf, size_t *size);
++    /* if (input(*size) != 0 && output(*size) == 0) means end_of_stream.
++       (output(*size) < input(*size)) is allowed */
++} ISeqInStream;
++
++/* it can return SZ_ERROR_INPUT_EOF */
++SRes SeqInStream_Read(ISeqInStream *stream, void *buf, size_t size);
++SRes SeqInStream_Read2(ISeqInStream *stream, void *buf, size_t size, SRes errorType);
++SRes SeqInStream_ReadByte(ISeqInStream *stream, Byte *buf);
++
++typedef struct
++{
++  size_t (*Write)(void *p, const void *buf, size_t size);
++    /* Returns: result - the number of actually written bytes.
++       (result < size) means error */
++} ISeqOutStream;
++
++typedef enum
++{
++  SZ_SEEK_SET = 0,
++  SZ_SEEK_CUR = 1,
++  SZ_SEEK_END = 2
++} ESzSeek;
++
++typedef struct
++{
++  SRes (*Read)(void *p, void *buf, size_t *size);  /* same as ISeqInStream::Read */
++  SRes (*Seek)(void *p, Int64 *pos, ESzSeek origin);
++} ISeekInStream;
++
++typedef struct
++{
++  SRes (*Look)(void *p, void **buf, size_t *size);
++    /* if (input(*size) != 0 && output(*size) == 0) means end_of_stream.
++       (output(*size) > input(*size)) is not allowed
++       (output(*size) < input(*size)) is allowed */
++  SRes (*Skip)(void *p, size_t offset);
++    /* offset must be <= output(*size) of Look */
++
++  SRes (*Read)(void *p, void *buf, size_t *size);
++    /* reads directly (without buffer). It's same as ISeqInStream::Read */
++  SRes (*Seek)(void *p, Int64 *pos, ESzSeek origin);
++} ILookInStream;
++
++SRes LookInStream_LookRead(ILookInStream *stream, void *buf, size_t *size);
++SRes LookInStream_SeekTo(ILookInStream *stream, UInt64 offset);
++
++/* reads via ILookInStream::Read */
++SRes LookInStream_Read2(ILookInStream *stream, void *buf, size_t size, SRes errorType);
++SRes LookInStream_Read(ILookInStream *stream, void *buf, size_t size);
++
++#define LookToRead_BUF_SIZE (1 << 14)
++
++typedef struct
++{
++  ILookInStream s;
++  ISeekInStream *realStream;
++  size_t pos;
++  size_t size;
++  Byte buf[LookToRead_BUF_SIZE];
++} CLookToRead;
++
++void LookToRead_CreateVTable(CLookToRead *p, int lookahead);
++void LookToRead_Init(CLookToRead *p);
++
++typedef struct
++{
++  ISeqInStream s;
++  ILookInStream *realStream;
++} CSecToLook;
++
++void SecToLook_CreateVTable(CSecToLook *p);
++
++typedef struct
++{
++  ISeqInStream s;
++  ILookInStream *realStream;
++} CSecToRead;
++
++void SecToRead_CreateVTable(CSecToRead *p);
++
++typedef struct
++{
++  SRes (*Progress)(void *p, UInt64 inSize, UInt64 outSize);
++    /* Returns: result. (result != SZ_OK) means break.
++       Value (UInt64)(Int64)-1 for size means unknown value. */
++} ICompressProgress;
++
++typedef struct
++{
++  void *(*Alloc)(void *p, size_t size);
++  void (*Free)(void *p, void *address); /* address can be 0 */
++} ISzAlloc;
++
++#define IAlloc_Alloc(p, size) (p)->Alloc((p), size)
++#define IAlloc_Free(p, a) (p)->Free((p), a)
++
++EXTERN_C_END
++
++#endif
+--- a/lib/Kconfig
++++ b/lib/Kconfig
+@@ -227,6 +227,12 @@ config LZ4_DECOMPRESS
+ source "lib/xz/Kconfig"
++config LZMA_COMPRESS
++    tristate
++
++config LZMA_DECOMPRESS
++    tristate
++
+ #
+ # These all provide a common interface (hence the apparent duplication with
+ # ZLIB_INFLATE; DECOMPRESS_GZIP is just a wrapper.)
+--- a/lib/Makefile
++++ b/lib/Makefile
+@@ -2,6 +2,16 @@
+ # Makefile for some libs needed in the kernel.
+ #
++ifdef CONFIG_JFFS2_ZLIB
++      CONFIG_ZLIB_INFLATE:=y
++      CONFIG_ZLIB_DEFLATE:=y
++endif
++
++ifdef CONFIG_JFFS2_LZMA
++      CONFIG_LZMA_DECOMPRESS:=y
++      CONFIG_LZMA_COMPRESS:=y
++endif
++
+ ifdef CONFIG_FUNCTION_TRACER
+ ORIG_CFLAGS := $(KBUILD_CFLAGS)
+ KBUILD_CFLAGS = $(subst -pg,,$(ORIG_CFLAGS))
+@@ -85,6 +95,8 @@ obj-$(CONFIG_LZ4HC_COMPRESS) += lz4/
+ obj-$(CONFIG_LZ4_DECOMPRESS) += lz4/
+ obj-$(CONFIG_XZ_DEC) += xz/
+ obj-$(CONFIG_RAID6_PQ) += raid6/
++obj-$(CONFIG_LZMA_COMPRESS) += lzma/
++obj-$(CONFIG_LZMA_DECOMPRESS) += lzma/
+ lib-$(CONFIG_DECOMPRESS_GZIP) += decompress_inflate.o
+ lib-$(CONFIG_DECOMPRESS_BZIP2) += decompress_bunzip2.o
+--- /dev/null
++++ b/lib/lzma/LzFind.c
+@@ -0,0 +1,761 @@
++/* LzFind.c -- Match finder for LZ algorithms
++2009-04-22 : Igor Pavlov : Public domain */
++
++#include <string.h>
++
++#include "LzFind.h"
++#include "LzHash.h"
++
++#define kEmptyHashValue 0
++#define kMaxValForNormalize ((UInt32)0xFFFFFFFF)
++#define kNormalizeStepMin (1 << 10) /* it must be power of 2 */
++#define kNormalizeMask (~(kNormalizeStepMin - 1))
++#define kMaxHistorySize ((UInt32)3 << 30)
++
++#define kStartMaxLen 3
++
++static void LzInWindow_Free(CMatchFinder *p, ISzAlloc *alloc)
++{
++  if (!p->directInput)
++  {
++    alloc->Free(alloc, p->bufferBase);
++    p->bufferBase = 0;
++  }
++}
++
++/* keepSizeBefore + keepSizeAfter + keepSizeReserv must be < 4G) */
++
++static int LzInWindow_Create(CMatchFinder *p, UInt32 keepSizeReserv, ISzAlloc *alloc)
++{
++  UInt32 blockSize = p->keepSizeBefore + p->keepSizeAfter + keepSizeReserv;
++  if (p->directInput)
++  {
++    p->blockSize = blockSize;
++    return 1;
++  }
++  if (p->bufferBase == 0 || p->blockSize != blockSize)
++  {
++    LzInWindow_Free(p, alloc);
++    p->blockSize = blockSize;
++    p->bufferBase = (Byte *)alloc->Alloc(alloc, (size_t)blockSize);
++  }
++  return (p->bufferBase != 0);
++}
++
++Byte *MatchFinder_GetPointerToCurrentPos(CMatchFinder *p) { return p->buffer; }
++Byte MatchFinder_GetIndexByte(CMatchFinder *p, Int32 index) { return p->buffer[index]; }
++
++UInt32 MatchFinder_GetNumAvailableBytes(CMatchFinder *p) { return p->streamPos - p->pos; }
++
++void MatchFinder_ReduceOffsets(CMatchFinder *p, UInt32 subValue)
++{
++  p->posLimit -= subValue;
++  p->pos -= subValue;
++  p->streamPos -= subValue;
++}
++
++static void MatchFinder_ReadBlock(CMatchFinder *p)
++{
++  if (p->streamEndWasReached || p->result != SZ_OK)
++    return;
++  if (p->directInput)
++  {
++    UInt32 curSize = 0xFFFFFFFF - p->streamPos;
++    if (curSize > p->directInputRem)
++      curSize = (UInt32)p->directInputRem;
++    p->directInputRem -= curSize;
++    p->streamPos += curSize;
++    if (p->directInputRem == 0)
++      p->streamEndWasReached = 1;
++    return;
++  }
++  for (;;)
++  {
++    Byte *dest = p->buffer + (p->streamPos - p->pos);
++    size_t size = (p->bufferBase + p->blockSize - dest);
++    if (size == 0)
++      return;
++    p->result = p->stream->Read(p->stream, dest, &size);
++    if (p->result != SZ_OK)
++      return;
++    if (size == 0)
++    {
++      p->streamEndWasReached = 1;
++      return;
++    }
++    p->streamPos += (UInt32)size;
++    if (p->streamPos - p->pos > p->keepSizeAfter)
++      return;
++  }
++}
++
++void MatchFinder_MoveBlock(CMatchFinder *p)
++{
++  memmove(p->bufferBase,
++    p->buffer - p->keepSizeBefore,
++    (size_t)(p->streamPos - p->pos + p->keepSizeBefore));
++  p->buffer = p->bufferBase + p->keepSizeBefore;
++}
++
++int MatchFinder_NeedMove(CMatchFinder *p)
++{
++  if (p->directInput)
++    return 0;
++  /* if (p->streamEndWasReached) return 0; */
++  return ((size_t)(p->bufferBase + p->blockSize - p->buffer) <= p->keepSizeAfter);
++}
++
++void MatchFinder_ReadIfRequired(CMatchFinder *p)
++{
++  if (p->streamEndWasReached)
++    return;
++  if (p->keepSizeAfter >= p->streamPos - p->pos)
++    MatchFinder_ReadBlock(p);
++}
++
++static void MatchFinder_CheckAndMoveAndRead(CMatchFinder *p)
++{
++  if (MatchFinder_NeedMove(p))
++    MatchFinder_MoveBlock(p);
++  MatchFinder_ReadBlock(p);
++}
++
++static void MatchFinder_SetDefaultSettings(CMatchFinder *p)
++{
++  p->cutValue = 32;
++  p->btMode = 1;
++  p->numHashBytes = 4;
++  p->bigHash = 0;
++}
++
++#define kCrcPoly 0xEDB88320
++
++void MatchFinder_Construct(CMatchFinder *p)
++{
++  UInt32 i;
++  p->bufferBase = 0;
++  p->directInput = 0;
++  p->hash = 0;
++  MatchFinder_SetDefaultSettings(p);
++
++  for (i = 0; i < 256; i++)
++  {
++    UInt32 r = i;
++    int j;
++    for (j = 0; j < 8; j++)
++      r = (r >> 1) ^ (kCrcPoly & ~((r & 1) - 1));
++    p->crc[i] = r;
++  }
++}
++
++static void MatchFinder_FreeThisClassMemory(CMatchFinder *p, ISzAlloc *alloc)
++{
++  alloc->Free(alloc, p->hash);
++  p->hash = 0;
++}
++
++void MatchFinder_Free(CMatchFinder *p, ISzAlloc *alloc)
++{
++  MatchFinder_FreeThisClassMemory(p, alloc);
++  LzInWindow_Free(p, alloc);
++}
++
++static CLzRef* AllocRefs(UInt32 num, ISzAlloc *alloc)
++{
++  size_t sizeInBytes = (size_t)num * sizeof(CLzRef);
++  if (sizeInBytes / sizeof(CLzRef) != num)
++    return 0;
++  return (CLzRef *)alloc->Alloc(alloc, sizeInBytes);
++}
++
++int MatchFinder_Create(CMatchFinder *p, UInt32 historySize,
++    UInt32 keepAddBufferBefore, UInt32 matchMaxLen, UInt32 keepAddBufferAfter,
++    ISzAlloc *alloc)
++{
++  UInt32 sizeReserv;
++  if (historySize > kMaxHistorySize)
++  {
++    MatchFinder_Free(p, alloc);
++    return 0;
++  }
++  sizeReserv = historySize >> 1;
++  if (historySize > ((UInt32)2 << 30))
++    sizeReserv = historySize >> 2;
++  sizeReserv += (keepAddBufferBefore + matchMaxLen + keepAddBufferAfter) / 2 + (1 << 19);
++
++  p->keepSizeBefore = historySize + keepAddBufferBefore + 1;
++  p->keepSizeAfter = matchMaxLen + keepAddBufferAfter;
++  /* we need one additional byte, since we use MoveBlock after pos++ and before dictionary using */
++  if (LzInWindow_Create(p, sizeReserv, alloc))
++  {
++    UInt32 newCyclicBufferSize = historySize + 1;
++    UInt32 hs;
++    p->matchMaxLen = matchMaxLen;
++    {
++      p->fixedHashSize = 0;
++      if (p->numHashBytes == 2)
++        hs = (1 << 16) - 1;
++      else
++      {
++        hs = historySize - 1;
++        hs |= (hs >> 1);
++        hs |= (hs >> 2);
++        hs |= (hs >> 4);
++        hs |= (hs >> 8);
++        hs >>= 1;
++        hs |= 0xFFFF; /* don't change it! It's required for Deflate */
++        if (hs > (1 << 24))
++        {
++          if (p->numHashBytes == 3)
++            hs = (1 << 24) - 1;
++          else
++            hs >>= 1;
++        }
++      }
++      p->hashMask = hs;
++      hs++;
++      if (p->numHashBytes > 2) p->fixedHashSize += kHash2Size;
++      if (p->numHashBytes > 3) p->fixedHashSize += kHash3Size;
++      if (p->numHashBytes > 4) p->fixedHashSize += kHash4Size;
++      hs += p->fixedHashSize;
++    }
++
++    {
++      UInt32 prevSize = p->hashSizeSum + p->numSons;
++      UInt32 newSize;
++      p->historySize = historySize;
++      p->hashSizeSum = hs;
++      p->cyclicBufferSize = newCyclicBufferSize;
++      p->numSons = (p->btMode ? newCyclicBufferSize * 2 : newCyclicBufferSize);
++      newSize = p->hashSizeSum + p->numSons;
++      if (p->hash != 0 && prevSize == newSize)
++        return 1;
++      MatchFinder_FreeThisClassMemory(p, alloc);
++      p->hash = AllocRefs(newSize, alloc);
++      if (p->hash != 0)
++      {
++        p->son = p->hash + p->hashSizeSum;
++        return 1;
++      }
++    }
++  }
++  MatchFinder_Free(p, alloc);
++  return 0;
++}
++
++static void MatchFinder_SetLimits(CMatchFinder *p)
++{
++  UInt32 limit = kMaxValForNormalize - p->pos;
++  UInt32 limit2 = p->cyclicBufferSize - p->cyclicBufferPos;
++  if (limit2 < limit)
++    limit = limit2;
++  limit2 = p->streamPos - p->pos;
++  if (limit2 <= p->keepSizeAfter)
++  {
++    if (limit2 > 0)
++      limit2 = 1;
++  }
++  else
++    limit2 -= p->keepSizeAfter;
++  if (limit2 < limit)
++    limit = limit2;
++  {
++    UInt32 lenLimit = p->streamPos - p->pos;
++    if (lenLimit > p->matchMaxLen)
++      lenLimit = p->matchMaxLen;
++    p->lenLimit = lenLimit;
++  }
++  p->posLimit = p->pos + limit;
++}
++
++void MatchFinder_Init(CMatchFinder *p)
++{
++  UInt32 i;
++  for (i = 0; i < p->hashSizeSum; i++)
++    p->hash[i] = kEmptyHashValue;
++  p->cyclicBufferPos = 0;
++  p->buffer = p->bufferBase;
++  p->pos = p->streamPos = p->cyclicBufferSize;
++  p->result = SZ_OK;
++  p->streamEndWasReached = 0;
++  MatchFinder_ReadBlock(p);
++  MatchFinder_SetLimits(p);
++}
++
++static UInt32 MatchFinder_GetSubValue(CMatchFinder *p)
++{
++  return (p->pos - p->historySize - 1) & kNormalizeMask;
++}
++
++void MatchFinder_Normalize3(UInt32 subValue, CLzRef *items, UInt32 numItems)
++{
++  UInt32 i;
++  for (i = 0; i < numItems; i++)
++  {
++    UInt32 value = items[i];
++    if (value <= subValue)
++      value = kEmptyHashValue;
++    else
++      value -= subValue;
++    items[i] = value;
++  }
++}
++
++static void MatchFinder_Normalize(CMatchFinder *p)
++{
++  UInt32 subValue = MatchFinder_GetSubValue(p);
++  MatchFinder_Normalize3(subValue, p->hash, p->hashSizeSum + p->numSons);
++  MatchFinder_ReduceOffsets(p, subValue);
++}
++
++static void MatchFinder_CheckLimits(CMatchFinder *p)
++{
++  if (p->pos == kMaxValForNormalize)
++    MatchFinder_Normalize(p);
++  if (!p->streamEndWasReached && p->keepSizeAfter == p->streamPos - p->pos)
++    MatchFinder_CheckAndMoveAndRead(p);
++  if (p->cyclicBufferPos == p->cyclicBufferSize)
++    p->cyclicBufferPos = 0;
++  MatchFinder_SetLimits(p);
++}
++
++static UInt32 * Hc_GetMatchesSpec(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *cur, CLzRef *son,
++    UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 cutValue,
++    UInt32 *distances, UInt32 maxLen)
++{
++  son[_cyclicBufferPos] = curMatch;
++  for (;;)
++  {
++    UInt32 delta = pos - curMatch;
++    if (cutValue-- == 0 || delta >= _cyclicBufferSize)
++      return distances;
++    {
++      const Byte *pb = cur - delta;
++      curMatch = son[_cyclicBufferPos - delta + ((delta > _cyclicBufferPos) ? _cyclicBufferSize : 0)];
++      if (pb[maxLen] == cur[maxLen] && *pb == *cur)
++      {
++        UInt32 len = 0;
++        while (++len != lenLimit)
++          if (pb[len] != cur[len])
++            break;
++        if (maxLen < len)
++        {
++          *distances++ = maxLen = len;
++          *distances++ = delta - 1;
++          if (len == lenLimit)
++            return distances;
++        }
++      }
++    }
++  }
++}
++
++UInt32 * GetMatchesSpec1(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *cur, CLzRef *son,
++    UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 cutValue,
++    UInt32 *distances, UInt32 maxLen)
++{
++  CLzRef *ptr0 = son + (_cyclicBufferPos << 1) + 1;
++  CLzRef *ptr1 = son + (_cyclicBufferPos << 1);
++  UInt32 len0 = 0, len1 = 0;
++  for (;;)
++  {
++    UInt32 delta = pos - curMatch;
++    if (cutValue-- == 0 || delta >= _cyclicBufferSize)
++    {
++      *ptr0 = *ptr1 = kEmptyHashValue;
++      return distances;
++    }
++    {
++      CLzRef *pair = son + ((_cyclicBufferPos - delta + ((delta > _cyclicBufferPos) ? _cyclicBufferSize : 0)) << 1);
++      const Byte *pb = cur - delta;
++      UInt32 len = (len0 < len1 ? len0 : len1);
++      if (pb[len] == cur[len])
++      {
++        if (++len != lenLimit && pb[len] == cur[len])
++          while (++len != lenLimit)
++            if (pb[len] != cur[len])
++              break;
++        if (maxLen < len)
++        {
++          *distances++ = maxLen = len;
++          *distances++ = delta - 1;
++          if (len == lenLimit)
++          {
++            *ptr1 = pair[0];
++            *ptr0 = pair[1];
++            return distances;
++          }
++        }
++      }
++      if (pb[len] < cur[len])
++      {
++        *ptr1 = curMatch;
++        ptr1 = pair + 1;
++        curMatch = *ptr1;
++        len1 = len;
++      }
++      else
++      {
++        *ptr0 = curMatch;
++        ptr0 = pair;
++        curMatch = *ptr0;
++        len0 = len;
++      }
++    }
++  }
++}
++
++static void SkipMatchesSpec(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *cur, CLzRef *son,
++    UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 cutValue)
++{
++  CLzRef *ptr0 = son + (_cyclicBufferPos << 1) + 1;
++  CLzRef *ptr1 = son + (_cyclicBufferPos << 1);
++  UInt32 len0 = 0, len1 = 0;
++  for (;;)
++  {
++    UInt32 delta = pos - curMatch;
++    if (cutValue-- == 0 || delta >= _cyclicBufferSize)
++    {
++      *ptr0 = *ptr1 = kEmptyHashValue;
++      return;
++    }
++    {
++      CLzRef *pair = son + ((_cyclicBufferPos - delta + ((delta > _cyclicBufferPos) ? _cyclicBufferSize : 0)) << 1);
++      const Byte *pb = cur - delta;
++      UInt32 len = (len0 < len1 ? len0 : len1);
++      if (pb[len] == cur[len])
++      {
++        while (++len != lenLimit)
++          if (pb[len] != cur[len])
++            break;
++        {
++          if (len == lenLimit)
++          {
++            *ptr1 = pair[0];
++            *ptr0 = pair[1];
++            return;
++          }
++        }
++      }
++      if (pb[len] < cur[len])
++      {
++        *ptr1 = curMatch;
++        ptr1 = pair + 1;
++        curMatch = *ptr1;
++        len1 = len;
++      }
++      else
++      {
++        *ptr0 = curMatch;
++        ptr0 = pair;
++        curMatch = *ptr0;
++        len0 = len;
++      }
++    }
++  }
++}
++
++#define MOVE_POS \
++  ++p->cyclicBufferPos; \
++  p->buffer++; \
++  if (++p->pos == p->posLimit) MatchFinder_CheckLimits(p);
++
++#define MOVE_POS_RET MOVE_POS return offset;
++
++static void MatchFinder_MovePos(CMatchFinder *p) { MOVE_POS; }
++
++#define GET_MATCHES_HEADER2(minLen, ret_op) \
++  UInt32 lenLimit; UInt32 hashValue; const Byte *cur; UInt32 curMatch; \
++  lenLimit = p->lenLimit; { if (lenLimit < minLen) { MatchFinder_MovePos(p); ret_op; }} \
++  cur = p->buffer;
++
++#define GET_MATCHES_HEADER(minLen) GET_MATCHES_HEADER2(minLen, return 0)
++#define SKIP_HEADER(minLen)        GET_MATCHES_HEADER2(minLen, continue)
++
++#define MF_PARAMS(p) p->pos, p->buffer, p->son, p->cyclicBufferPos, p->cyclicBufferSize, p->cutValue
++
++#define GET_MATCHES_FOOTER(offset, maxLen) \
++  offset = (UInt32)(GetMatchesSpec1(lenLimit, curMatch, MF_PARAMS(p), \
++  distances + offset, maxLen) - distances); MOVE_POS_RET;
++
++#define SKIP_FOOTER \
++  SkipMatchesSpec(lenLimit, curMatch, MF_PARAMS(p)); MOVE_POS;
++
++static UInt32 Bt2_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
++{
++  UInt32 offset;
++  GET_MATCHES_HEADER(2)
++  HASH2_CALC;
++  curMatch = p->hash[hashValue];
++  p->hash[hashValue] = p->pos;
++  offset = 0;
++  GET_MATCHES_FOOTER(offset, 1)
++}
++
++UInt32 Bt3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
++{
++  UInt32 offset;
++  GET_MATCHES_HEADER(3)
++  HASH_ZIP_CALC;
++  curMatch = p->hash[hashValue];
++  p->hash[hashValue] = p->pos;
++  offset = 0;
++  GET_MATCHES_FOOTER(offset, 2)
++}
++
++static UInt32 Bt3_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
++{
++  UInt32 hash2Value, delta2, maxLen, offset;
++  GET_MATCHES_HEADER(3)
++
++  HASH3_CALC;
++
++  delta2 = p->pos - p->hash[hash2Value];
++  curMatch = p->hash[kFix3HashSize + hashValue];
++  
++  p->hash[hash2Value] =
++  p->hash[kFix3HashSize + hashValue] = p->pos;
++
++
++  maxLen = 2;
++  offset = 0;
++  if (delta2 < p->cyclicBufferSize && *(cur - delta2) == *cur)
++  {
++    for (; maxLen != lenLimit; maxLen++)
++      if (cur[(ptrdiff_t)maxLen - delta2] != cur[maxLen])
++        break;
++    distances[0] = maxLen;
++    distances[1] = delta2 - 1;
++    offset = 2;
++    if (maxLen == lenLimit)
++    {
++      SkipMatchesSpec(lenLimit, curMatch, MF_PARAMS(p));
++      MOVE_POS_RET;
++    }
++  }
++  GET_MATCHES_FOOTER(offset, maxLen)
++}
++
++static UInt32 Bt4_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
++{
++  UInt32 hash2Value, hash3Value, delta2, delta3, maxLen, offset;
++  GET_MATCHES_HEADER(4)
++
++  HASH4_CALC;
++
++  delta2 = p->pos - p->hash[                hash2Value];
++  delta3 = p->pos - p->hash[kFix3HashSize + hash3Value];
++  curMatch = p->hash[kFix4HashSize + hashValue];
++  
++  p->hash[                hash2Value] =
++  p->hash[kFix3HashSize + hash3Value] =
++  p->hash[kFix4HashSize + hashValue] = p->pos;
++
++  maxLen = 1;
++  offset = 0;
++  if (delta2 < p->cyclicBufferSize && *(cur - delta2) == *cur)
++  {
++    distances[0] = maxLen = 2;
++    distances[1] = delta2 - 1;
++    offset = 2;
++  }
++  if (delta2 != delta3 && delta3 < p->cyclicBufferSize && *(cur - delta3) == *cur)
++  {
++    maxLen = 3;
++    distances[offset + 1] = delta3 - 1;
++    offset += 2;
++    delta2 = delta3;
++  }
++  if (offset != 0)
++  {
++    for (; maxLen != lenLimit; maxLen++)
++      if (cur[(ptrdiff_t)maxLen - delta2] != cur[maxLen])
++        break;
++    distances[offset - 2] = maxLen;
++    if (maxLen == lenLimit)
++    {
++      SkipMatchesSpec(lenLimit, curMatch, MF_PARAMS(p));
++      MOVE_POS_RET;
++    }
++  }
++  if (maxLen < 3)
++    maxLen = 3;
++  GET_MATCHES_FOOTER(offset, maxLen)
++}
++
++static UInt32 Hc4_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
++{
++  UInt32 hash2Value, hash3Value, delta2, delta3, maxLen, offset;
++  GET_MATCHES_HEADER(4)
++
++  HASH4_CALC;
++
++  delta2 = p->pos - p->hash[                hash2Value];
++  delta3 = p->pos - p->hash[kFix3HashSize + hash3Value];
++  curMatch = p->hash[kFix4HashSize + hashValue];
++
++  p->hash[                hash2Value] =
++  p->hash[kFix3HashSize + hash3Value] =
++  p->hash[kFix4HashSize + hashValue] = p->pos;
++
++  maxLen = 1;
++  offset = 0;
++  if (delta2 < p->cyclicBufferSize && *(cur - delta2) == *cur)
++  {
++    distances[0] = maxLen = 2;
++    distances[1] = delta2 - 1;
++    offset = 2;
++  }
++  if (delta2 != delta3 && delta3 < p->cyclicBufferSize && *(cur - delta3) == *cur)
++  {
++    maxLen = 3;
++    distances[offset + 1] = delta3 - 1;
++    offset += 2;
++    delta2 = delta3;
++  }
++  if (offset != 0)
++  {
++    for (; maxLen != lenLimit; maxLen++)
++      if (cur[(ptrdiff_t)maxLen - delta2] != cur[maxLen])
++        break;
++    distances[offset - 2] = maxLen;
++    if (maxLen == lenLimit)
++    {
++      p->son[p->cyclicBufferPos] = curMatch;
++      MOVE_POS_RET;
++    }
++  }
++  if (maxLen < 3)
++    maxLen = 3;
++  offset = (UInt32)(Hc_GetMatchesSpec(lenLimit, curMatch, MF_PARAMS(p),
++    distances + offset, maxLen) - (distances));
++  MOVE_POS_RET
++}
++
++UInt32 Hc3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
++{
++  UInt32 offset;
++  GET_MATCHES_HEADER(3)
++  HASH_ZIP_CALC;
++  curMatch = p->hash[hashValue];
++  p->hash[hashValue] = p->pos;
++  offset = (UInt32)(Hc_GetMatchesSpec(lenLimit, curMatch, MF_PARAMS(p),
++    distances, 2) - (distances));
++  MOVE_POS_RET
++}
++
++static void Bt2_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
++{
++  do
++  {
++    SKIP_HEADER(2)
++    HASH2_CALC;
++    curMatch = p->hash[hashValue];
++    p->hash[hashValue] = p->pos;
++    SKIP_FOOTER
++  }
++  while (--num != 0);
++}
++
++void Bt3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
++{
++  do
++  {
++    SKIP_HEADER(3)
++    HASH_ZIP_CALC;
++    curMatch = p->hash[hashValue];
++    p->hash[hashValue] = p->pos;
++    SKIP_FOOTER
++  }
++  while (--num != 0);
++}
++
++static void Bt3_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
++{
++  do
++  {
++    UInt32 hash2Value;
++    SKIP_HEADER(3)
++    HASH3_CALC;
++    curMatch = p->hash[kFix3HashSize + hashValue];
++    p->hash[hash2Value] =
++    p->hash[kFix3HashSize + hashValue] = p->pos;
++    SKIP_FOOTER
++  }
++  while (--num != 0);
++}
++
++static void Bt4_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
++{
++  do
++  {
++    UInt32 hash2Value, hash3Value;
++    SKIP_HEADER(4)
++    HASH4_CALC;
++    curMatch = p->hash[kFix4HashSize + hashValue];
++    p->hash[                hash2Value] =
++    p->hash[kFix3HashSize + hash3Value] = p->pos;
++    p->hash[kFix4HashSize + hashValue] = p->pos;
++    SKIP_FOOTER
++  }
++  while (--num != 0);
++}
++
++static void Hc4_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
++{
++  do
++  {
++    UInt32 hash2Value, hash3Value;
++    SKIP_HEADER(4)
++    HASH4_CALC;
++    curMatch = p->hash[kFix4HashSize + hashValue];
++    p->hash[                hash2Value] =
++    p->hash[kFix3HashSize + hash3Value] =
++    p->hash[kFix4HashSize + hashValue] = p->pos;
++    p->son[p->cyclicBufferPos] = curMatch;
++    MOVE_POS
++  }
++  while (--num != 0);
++}
++
++void Hc3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
++{
++  do
++  {
++    SKIP_HEADER(3)
++    HASH_ZIP_CALC;
++    curMatch = p->hash[hashValue];
++    p->hash[hashValue] = p->pos;
++    p->son[p->cyclicBufferPos] = curMatch;
++    MOVE_POS
++  }
++  while (--num != 0);
++}
++
++void MatchFinder_CreateVTable(CMatchFinder *p, IMatchFinder *vTable)
++{
++  vTable->Init = (Mf_Init_Func)MatchFinder_Init;
++  vTable->GetIndexByte = (Mf_GetIndexByte_Func)MatchFinder_GetIndexByte;
++  vTable->GetNumAvailableBytes = (Mf_GetNumAvailableBytes_Func)MatchFinder_GetNumAvailableBytes;
++  vTable->GetPointerToCurrentPos = (Mf_GetPointerToCurrentPos_Func)MatchFinder_GetPointerToCurrentPos;
++  if (!p->btMode)
++  {
++    vTable->GetMatches = (Mf_GetMatches_Func)Hc4_MatchFinder_GetMatches;
++    vTable->Skip = (Mf_Skip_Func)Hc4_MatchFinder_Skip;
++  }
++  else if (p->numHashBytes == 2)
++  {
++    vTable->GetMatches = (Mf_GetMatches_Func)Bt2_MatchFinder_GetMatches;
++    vTable->Skip = (Mf_Skip_Func)Bt2_MatchFinder_Skip;
++  }
++  else if (p->numHashBytes == 3)
++  {
++    vTable->GetMatches = (Mf_GetMatches_Func)Bt3_MatchFinder_GetMatches;
++    vTable->Skip = (Mf_Skip_Func)Bt3_MatchFinder_Skip;
++  }
++  else
++  {
++    vTable->GetMatches = (Mf_GetMatches_Func)Bt4_MatchFinder_GetMatches;
++    vTable->Skip = (Mf_Skip_Func)Bt4_MatchFinder_Skip;
++  }
++}
+--- /dev/null
++++ b/lib/lzma/LzmaDec.c
+@@ -0,0 +1,999 @@
++/* LzmaDec.c -- LZMA Decoder
++2009-09-20 : Igor Pavlov : Public domain */
++
++#include "LzmaDec.h"
++
++#include <string.h>
++
++#define kNumTopBits 24
++#define kTopValue ((UInt32)1 << kNumTopBits)
++
++#define kNumBitModelTotalBits 11
++#define kBitModelTotal (1 << kNumBitModelTotalBits)
++#define kNumMoveBits 5
++
++#define RC_INIT_SIZE 5
++
++#define NORMALIZE if (range < kTopValue) { range <<= 8; code = (code << 8) | (*buf++); }
++
++#define IF_BIT_0(p) ttt = *(p); NORMALIZE; bound = (range >> kNumBitModelTotalBits) * ttt; if (code < bound)
++#define UPDATE_0(p) range = bound; *(p) = (CLzmaProb)(ttt + ((kBitModelTotal - ttt) >> kNumMoveBits));
++#define UPDATE_1(p) range -= bound; code -= bound; *(p) = (CLzmaProb)(ttt - (ttt >> kNumMoveBits));
++#define GET_BIT2(p, i, A0, A1) IF_BIT_0(p) \
++  { UPDATE_0(p); i = (i + i); A0; } else \
++  { UPDATE_1(p); i = (i + i) + 1; A1; }
++#define GET_BIT(p, i) GET_BIT2(p, i, ; , ;)
++
++#define TREE_GET_BIT(probs, i) { GET_BIT((probs + i), i); }
++#define TREE_DECODE(probs, limit, i) \
++  { i = 1; do { TREE_GET_BIT(probs, i); } while (i < limit); i -= limit; }
++
++/* #define _LZMA_SIZE_OPT */
++
++#ifdef _LZMA_SIZE_OPT
++#define TREE_6_DECODE(probs, i) TREE_DECODE(probs, (1 << 6), i)
++#else
++#define TREE_6_DECODE(probs, i) \
++  { i = 1; \
++  TREE_GET_BIT(probs, i); \
++  TREE_GET_BIT(probs, i); \
++  TREE_GET_BIT(probs, i); \
++  TREE_GET_BIT(probs, i); \
++  TREE_GET_BIT(probs, i); \
++  TREE_GET_BIT(probs, i); \
++  i -= 0x40; }
++#endif
++
++#define NORMALIZE_CHECK if (range < kTopValue) { if (buf >= bufLimit) return DUMMY_ERROR; range <<= 8; code = (code << 8) | (*buf++); }
++
++#define IF_BIT_0_CHECK(p) ttt = *(p); NORMALIZE_CHECK; bound = (range >> kNumBitModelTotalBits) * ttt; if (code < bound)
++#define UPDATE_0_CHECK range = bound;
++#define UPDATE_1_CHECK range -= bound; code -= bound;
++#define GET_BIT2_CHECK(p, i, A0, A1) IF_BIT_0_CHECK(p) \
++  { UPDATE_0_CHECK; i = (i + i); A0; } else \
++  { UPDATE_1_CHECK; i = (i + i) + 1; A1; }
++#define GET_BIT_CHECK(p, i) GET_BIT2_CHECK(p, i, ; , ;)
++#define TREE_DECODE_CHECK(probs, limit, i) \
++  { i = 1; do { GET_BIT_CHECK(probs + i, i) } while (i < limit); i -= limit; }
++
++
++#define kNumPosBitsMax 4
++#define kNumPosStatesMax (1 << kNumPosBitsMax)
++
++#define kLenNumLowBits 3
++#define kLenNumLowSymbols (1 << kLenNumLowBits)
++#define kLenNumMidBits 3
++#define kLenNumMidSymbols (1 << kLenNumMidBits)
++#define kLenNumHighBits 8
++#define kLenNumHighSymbols (1 << kLenNumHighBits)
++
++#define LenChoice 0
++#define LenChoice2 (LenChoice + 1)
++#define LenLow (LenChoice2 + 1)
++#define LenMid (LenLow + (kNumPosStatesMax << kLenNumLowBits))
++#define LenHigh (LenMid + (kNumPosStatesMax << kLenNumMidBits))
++#define kNumLenProbs (LenHigh + kLenNumHighSymbols)
++
++
++#define kNumStates 12
++#define kNumLitStates 7
++
++#define kStartPosModelIndex 4
++#define kEndPosModelIndex 14
++#define kNumFullDistances (1 << (kEndPosModelIndex >> 1))
++
++#define kNumPosSlotBits 6
++#define kNumLenToPosStates 4
++
++#define kNumAlignBits 4
++#define kAlignTableSize (1 << kNumAlignBits)
++
++#define kMatchMinLen 2
++#define kMatchSpecLenStart (kMatchMinLen + kLenNumLowSymbols + kLenNumMidSymbols + kLenNumHighSymbols)
++
++#define IsMatch 0
++#define IsRep (IsMatch + (kNumStates << kNumPosBitsMax))
++#define IsRepG0 (IsRep + kNumStates)
++#define IsRepG1 (IsRepG0 + kNumStates)
++#define IsRepG2 (IsRepG1 + kNumStates)
++#define IsRep0Long (IsRepG2 + kNumStates)
++#define PosSlot (IsRep0Long + (kNumStates << kNumPosBitsMax))
++#define SpecPos (PosSlot + (kNumLenToPosStates << kNumPosSlotBits))
++#define Align (SpecPos + kNumFullDistances - kEndPosModelIndex)
++#define LenCoder (Align + kAlignTableSize)
++#define RepLenCoder (LenCoder + kNumLenProbs)
++#define Literal (RepLenCoder + kNumLenProbs)
++
++#define LZMA_BASE_SIZE 1846
++#define LZMA_LIT_SIZE 768
++
++#define LzmaProps_GetNumProbs(p) ((UInt32)LZMA_BASE_SIZE + (LZMA_LIT_SIZE << ((p)->lc + (p)->lp)))
++
++#if Literal != LZMA_BASE_SIZE
++StopCompilingDueBUG
++#endif
++
++#define LZMA_DIC_MIN (1 << 12)
++
++/* First LZMA-symbol is always decoded.
++And it decodes new LZMA-symbols while (buf < bufLimit), but "buf" is without last normalization
++Out:
++  Result:
++    SZ_OK - OK
++    SZ_ERROR_DATA - Error
++  p->remainLen:
++    < kMatchSpecLenStart : normal remain
++    = kMatchSpecLenStart : finished
++    = kMatchSpecLenStart + 1 : Flush marker
++    = kMatchSpecLenStart + 2 : State Init Marker
++*/
++
++static int MY_FAST_CALL LzmaDec_DecodeReal(CLzmaDec *p, SizeT limit, const Byte *bufLimit)
++{
++  CLzmaProb *probs = p->probs;
++
++  unsigned state = p->state;
++  UInt32 rep0 = p->reps[0], rep1 = p->reps[1], rep2 = p->reps[2], rep3 = p->reps[3];
++  unsigned pbMask = ((unsigned)1 << (p->prop.pb)) - 1;
++  unsigned lpMask = ((unsigned)1 << (p->prop.lp)) - 1;
++  unsigned lc = p->prop.lc;
++
++  Byte *dic = p->dic;
++  SizeT dicBufSize = p->dicBufSize;
++  SizeT dicPos = p->dicPos;
++  
++  UInt32 processedPos = p->processedPos;
++  UInt32 checkDicSize = p->checkDicSize;
++  unsigned len = 0;
++
++  const Byte *buf = p->buf;
++  UInt32 range = p->range;
++  UInt32 code = p->code;
++
++  do
++  {
++    CLzmaProb *prob;
++    UInt32 bound;
++    unsigned ttt;
++    unsigned posState = processedPos & pbMask;
++
++    prob = probs + IsMatch + (state << kNumPosBitsMax) + posState;
++    IF_BIT_0(prob)
++    {
++      unsigned symbol;
++      UPDATE_0(prob);
++      prob = probs + Literal;
++      if (checkDicSize != 0 || processedPos != 0)
++        prob += (LZMA_LIT_SIZE * (((processedPos & lpMask) << lc) +
++        (dic[(dicPos == 0 ? dicBufSize : dicPos) - 1] >> (8 - lc))));
++
++      if (state < kNumLitStates)
++      {
++        state -= (state < 4) ? state : 3;
++        symbol = 1;
++        do { GET_BIT(prob + symbol, symbol) } while (symbol < 0x100);
++      }
++      else
++      {
++        unsigned matchByte = p->dic[(dicPos - rep0) + ((dicPos < rep0) ? dicBufSize : 0)];
++        unsigned offs = 0x100;
++        state -= (state < 10) ? 3 : 6;
++        symbol = 1;
++        do
++        {
++          unsigned bit;
++          CLzmaProb *probLit;
++          matchByte <<= 1;
++          bit = (matchByte & offs);
++          probLit = prob + offs + bit + symbol;
++          GET_BIT2(probLit, symbol, offs &= ~bit, offs &= bit)
++        }
++        while (symbol < 0x100);
++      }
++      dic[dicPos++] = (Byte)symbol;
++      processedPos++;
++      continue;
++    }
++    else
++    {
++      UPDATE_1(prob);
++      prob = probs + IsRep + state;
++      IF_BIT_0(prob)
++      {
++        UPDATE_0(prob);
++        state += kNumStates;
++        prob = probs + LenCoder;
++      }
++      else
++      {
++        UPDATE_1(prob);
++        if (checkDicSize == 0 && processedPos == 0)
++          return SZ_ERROR_DATA;
++        prob = probs + IsRepG0 + state;
++        IF_BIT_0(prob)
++        {
++          UPDATE_0(prob);
++          prob = probs + IsRep0Long + (state << kNumPosBitsMax) + posState;
++          IF_BIT_0(prob)
++          {
++            UPDATE_0(prob);
++            dic[dicPos] = dic[(dicPos - rep0) + ((dicPos < rep0) ? dicBufSize : 0)];
++            dicPos++;
++            processedPos++;
++            state = state < kNumLitStates ? 9 : 11;
++            continue;
++          }
++          UPDATE_1(prob);
++        }
++        else
++        {
++          UInt32 distance;
++          UPDATE_1(prob);
++          prob = probs + IsRepG1 + state;
++          IF_BIT_0(prob)
++          {
++            UPDATE_0(prob);
++            distance = rep1;
++          }
++          else
++          {
++            UPDATE_1(prob);
++            prob = probs + IsRepG2 + state;
++            IF_BIT_0(prob)
++            {
++              UPDATE_0(prob);
++              distance = rep2;
++            }
++            else
++            {
++              UPDATE_1(prob);
++              distance = rep3;
++              rep3 = rep2;
++            }
++            rep2 = rep1;
++          }
++          rep1 = rep0;
++          rep0 = distance;
++        }
++        state = state < kNumLitStates ? 8 : 11;
++        prob = probs + RepLenCoder;
++      }
++      {
++        unsigned limit, offset;
++        CLzmaProb *probLen = prob + LenChoice;
++        IF_BIT_0(probLen)
++        {
++          UPDATE_0(probLen);
++          probLen = prob + LenLow + (posState << kLenNumLowBits);
++          offset = 0;
++          limit = (1 << kLenNumLowBits);
++        }
++        else
++        {
++          UPDATE_1(probLen);
++          probLen = prob + LenChoice2;
++          IF_BIT_0(probLen)
++          {
++            UPDATE_0(probLen);
++            probLen = prob + LenMid + (posState << kLenNumMidBits);
++            offset = kLenNumLowSymbols;
++            limit = (1 << kLenNumMidBits);
++          }
++          else
++          {
++            UPDATE_1(probLen);
++            probLen = prob + LenHigh;
++            offset = kLenNumLowSymbols + kLenNumMidSymbols;
++            limit = (1 << kLenNumHighBits);
++          }
++        }
++        TREE_DECODE(probLen, limit, len);
++        len += offset;
++      }
++
++      if (state >= kNumStates)
++      {
++        UInt32 distance;
++        prob = probs + PosSlot +
++            ((len < kNumLenToPosStates ? len : kNumLenToPosStates - 1) << kNumPosSlotBits);
++        TREE_6_DECODE(prob, distance);
++        if (distance >= kStartPosModelIndex)
++        {
++          unsigned posSlot = (unsigned)distance;
++          int numDirectBits = (int)(((distance >> 1) - 1));
++          distance = (2 | (distance & 1));
++          if (posSlot < kEndPosModelIndex)
++          {
++            distance <<= numDirectBits;
++            prob = probs + SpecPos + distance - posSlot - 1;
++            {
++              UInt32 mask = 1;
++              unsigned i = 1;
++              do
++              {
++                GET_BIT2(prob + i, i, ; , distance |= mask);
++                mask <<= 1;
++              }
++              while (--numDirectBits != 0);
++            }
++          }
++          else
++          {
++            numDirectBits -= kNumAlignBits;
++            do
++            {
++              NORMALIZE
++              range >>= 1;
++              
++              {
++                UInt32 t;
++                code -= range;
++                t = (0 - ((UInt32)code >> 31)); /* (UInt32)((Int32)code >> 31) */
++                distance = (distance << 1) + (t + 1);
++                code += range & t;
++              }
++              /*
++              distance <<= 1;
++              if (code >= range)
++              {
++                code -= range;
++                distance |= 1;
++              }
++              */
++            }
++            while (--numDirectBits != 0);
++            prob = probs + Align;
++            distance <<= kNumAlignBits;
++            {
++              unsigned i = 1;
++              GET_BIT2(prob + i, i, ; , distance |= 1);
++              GET_BIT2(prob + i, i, ; , distance |= 2);
++              GET_BIT2(prob + i, i, ; , distance |= 4);
++              GET_BIT2(prob + i, i, ; , distance |= 8);
++            }
++            if (distance == (UInt32)0xFFFFFFFF)
++            {
++              len += kMatchSpecLenStart;
++              state -= kNumStates;
++              break;
++            }
++          }
++        }
++        rep3 = rep2;
++        rep2 = rep1;
++        rep1 = rep0;
++        rep0 = distance + 1;
++        if (checkDicSize == 0)
++        {
++          if (distance >= processedPos)
++            return SZ_ERROR_DATA;
++        }
++        else if (distance >= checkDicSize)
++          return SZ_ERROR_DATA;
++        state = (state < kNumStates + kNumLitStates) ? kNumLitStates : kNumLitStates + 3;
++      }
++
++      len += kMatchMinLen;
++
++      if (limit == dicPos)
++        return SZ_ERROR_DATA;
++      {
++        SizeT rem = limit - dicPos;
++        unsigned curLen = ((rem < len) ? (unsigned)rem : len);
++        SizeT pos = (dicPos - rep0) + ((dicPos < rep0) ? dicBufSize : 0);
++
++        processedPos += curLen;
++
++        len -= curLen;
++        if (pos + curLen <= dicBufSize)
++        {
++          Byte *dest = dic + dicPos;
++          ptrdiff_t src = (ptrdiff_t)pos - (ptrdiff_t)dicPos;
++          const Byte *lim = dest + curLen;
++          dicPos += curLen;
++          do
++            *(dest) = (Byte)*(dest + src);
++          while (++dest != lim);
++        }
++        else
++        {
++          do
++          {
++            dic[dicPos++] = dic[pos];
++            if (++pos == dicBufSize)
++              pos = 0;
++          }
++          while (--curLen != 0);
++        }
++      }
++    }
++  }
++  while (dicPos < limit && buf < bufLimit);
++  NORMALIZE;
++  p->buf = buf;
++  p->range = range;
++  p->code = code;
++  p->remainLen = len;
++  p->dicPos = dicPos;
++  p->processedPos = processedPos;
++  p->reps[0] = rep0;
++  p->reps[1] = rep1;
++  p->reps[2] = rep2;
++  p->reps[3] = rep3;
++  p->state = state;
++
++  return SZ_OK;
++}
++
++static void MY_FAST_CALL LzmaDec_WriteRem(CLzmaDec *p, SizeT limit)
++{
++  if (p->remainLen != 0 && p->remainLen < kMatchSpecLenStart)
++  {
++    Byte *dic = p->dic;
++    SizeT dicPos = p->dicPos;
++    SizeT dicBufSize = p->dicBufSize;
++    unsigned len = p->remainLen;
++    UInt32 rep0 = p->reps[0];
++    if (limit - dicPos < len)
++      len = (unsigned)(limit - dicPos);
++
++    if (p->checkDicSize == 0 && p->prop.dicSize - p->processedPos <= len)
++      p->checkDicSize = p->prop.dicSize;
++
++    p->processedPos += len;
++    p->remainLen -= len;
++    while (len-- != 0)
++    {
++      dic[dicPos] = dic[(dicPos - rep0) + ((dicPos < rep0) ? dicBufSize : 0)];
++      dicPos++;
++    }
++    p->dicPos = dicPos;
++  }
++}
++
++static int MY_FAST_CALL LzmaDec_DecodeReal2(CLzmaDec *p, SizeT limit, const Byte *bufLimit)
++{
++  do
++  {
++    SizeT limit2 = limit;
++    if (p->checkDicSize == 0)
++    {
++      UInt32 rem = p->prop.dicSize - p->processedPos;
++      if (limit - p->dicPos > rem)
++        limit2 = p->dicPos + rem;
++    }
++    RINOK(LzmaDec_DecodeReal(p, limit2, bufLimit));
++    if (p->processedPos >= p->prop.dicSize)
++      p->checkDicSize = p->prop.dicSize;
++    LzmaDec_WriteRem(p, limit);
++  }
++  while (p->dicPos < limit && p->buf < bufLimit && p->remainLen < kMatchSpecLenStart);
++
++  if (p->remainLen > kMatchSpecLenStart)
++  {
++    p->remainLen = kMatchSpecLenStart;
++  }
++  return 0;
++}
++
++typedef enum
++{
++  DUMMY_ERROR, /* unexpected end of input stream */
++  DUMMY_LIT,
++  DUMMY_MATCH,
++  DUMMY_REP
++} ELzmaDummy;
++
++static ELzmaDummy LzmaDec_TryDummy(const CLzmaDec *p, const Byte *buf, SizeT inSize)
++{
++  UInt32 range = p->range;
++  UInt32 code = p->code;
++  const Byte *bufLimit = buf + inSize;
++  CLzmaProb *probs = p->probs;
++  unsigned state = p->state;
++  ELzmaDummy res;
++
++  {
++    CLzmaProb *prob;
++    UInt32 bound;
++    unsigned ttt;
++    unsigned posState = (p->processedPos) & ((1 << p->prop.pb) - 1);
++
++    prob = probs + IsMatch + (state << kNumPosBitsMax) + posState;
++    IF_BIT_0_CHECK(prob)
++    {
++      UPDATE_0_CHECK
++
++      /* if (bufLimit - buf >= 7) return DUMMY_LIT; */
++
++      prob = probs + Literal;
++      if (p->checkDicSize != 0 || p->processedPos != 0)
++        prob += (LZMA_LIT_SIZE *
++          ((((p->processedPos) & ((1 << (p->prop.lp)) - 1)) << p->prop.lc) +
++          (p->dic[(p->dicPos == 0 ? p->dicBufSize : p->dicPos) - 1] >> (8 - p->prop.lc))));
++
++      if (state < kNumLitStates)
++      {
++        unsigned symbol = 1;
++        do { GET_BIT_CHECK(prob + symbol, symbol) } while (symbol < 0x100);
++      }
++      else
++      {
++        unsigned matchByte = p->dic[p->dicPos - p->reps[0] +
++            ((p->dicPos < p->reps[0]) ? p->dicBufSize : 0)];
++        unsigned offs = 0x100;
++        unsigned symbol = 1;
++        do
++        {
++          unsigned bit;
++          CLzmaProb *probLit;
++          matchByte <<= 1;
++          bit = (matchByte & offs);
++          probLit = prob + offs + bit + symbol;
++          GET_BIT2_CHECK(probLit, symbol, offs &= ~bit, offs &= bit)
++        }
++        while (symbol < 0x100);
++      }
++      res = DUMMY_LIT;
++    }
++    else
++    {
++      unsigned len;
++      UPDATE_1_CHECK;
++
++      prob = probs + IsRep + state;
++      IF_BIT_0_CHECK(prob)
++      {
++        UPDATE_0_CHECK;
++        state = 0;
++        prob = probs + LenCoder;
++        res = DUMMY_MATCH;
++      }
++      else
++      {
++        UPDATE_1_CHECK;
++        res = DUMMY_REP;
++        prob = probs + IsRepG0 + state;
++        IF_BIT_0_CHECK(prob)
++        {
++          UPDATE_0_CHECK;
++          prob = probs + IsRep0Long + (state << kNumPosBitsMax) + posState;
++          IF_BIT_0_CHECK(prob)
++          {
++            UPDATE_0_CHECK;
++            NORMALIZE_CHECK;
++            return DUMMY_REP;
++          }
++          else
++          {
++            UPDATE_1_CHECK;
++          }
++        }
++        else
++        {
++          UPDATE_1_CHECK;
++          prob = probs + IsRepG1 + state;
++          IF_BIT_0_CHECK(prob)
++          {
++            UPDATE_0_CHECK;
++          }
++          else
++          {
++            UPDATE_1_CHECK;
++            prob = probs + IsRepG2 + state;
++            IF_BIT_0_CHECK(prob)
++            {
++              UPDATE_0_CHECK;
++            }
++            else
++            {
++              UPDATE_1_CHECK;
++            }
++          }
++        }
++        state = kNumStates;
++        prob = probs + RepLenCoder;
++      }
++      {
++        unsigned limit, offset;
++        CLzmaProb *probLen = prob + LenChoice;
++        IF_BIT_0_CHECK(probLen)
++        {
++          UPDATE_0_CHECK;
++          probLen = prob + LenLow + (posState << kLenNumLowBits);
++          offset = 0;
++          limit = 1 << kLenNumLowBits;
++        }
++        else
++        {
++          UPDATE_1_CHECK;
++          probLen = prob + LenChoice2;
++          IF_BIT_0_CHECK(probLen)
++          {
++            UPDATE_0_CHECK;
++            probLen = prob + LenMid + (posState << kLenNumMidBits);
++            offset = kLenNumLowSymbols;
++            limit = 1 << kLenNumMidBits;
++          }
++          else
++          {
++            UPDATE_1_CHECK;
++            probLen = prob + LenHigh;
++            offset = kLenNumLowSymbols + kLenNumMidSymbols;
++            limit = 1 << kLenNumHighBits;
++          }
++        }
++        TREE_DECODE_CHECK(probLen, limit, len);
++        len += offset;
++      }
++
++      if (state < 4)
++      {
++        unsigned posSlot;
++        prob = probs + PosSlot +
++            ((len < kNumLenToPosStates ? len : kNumLenToPosStates - 1) <<
++            kNumPosSlotBits);
++        TREE_DECODE_CHECK(prob, 1 << kNumPosSlotBits, posSlot);
++        if (posSlot >= kStartPosModelIndex)
++        {
++          int numDirectBits = ((posSlot >> 1) - 1);
++
++          /* if (bufLimit - buf >= 8) return DUMMY_MATCH; */
++
++          if (posSlot < kEndPosModelIndex)
++          {
++            prob = probs + SpecPos + ((2 | (posSlot & 1)) << numDirectBits) - posSlot - 1;
++          }
++          else
++          {
++            numDirectBits -= kNumAlignBits;
++            do
++            {
++              NORMALIZE_CHECK
++              range >>= 1;
++              code -= range & (((code - range) >> 31) - 1);
++              /* if (code >= range) code -= range; */
++            }
++            while (--numDirectBits != 0);
++            prob = probs + Align;
++            numDirectBits = kNumAlignBits;
++          }
++          {
++            unsigned i = 1;
++            do
++            {
++              GET_BIT_CHECK(prob + i, i);
++            }
++            while (--numDirectBits != 0);
++          }
++        }
++      }
++    }
++  }
++  NORMALIZE_CHECK;
++  return res;
++}
++
++
++static void LzmaDec_InitRc(CLzmaDec *p, const Byte *data)
++{
++  p->code = ((UInt32)data[1] << 24) | ((UInt32)data[2] << 16) | ((UInt32)data[3] << 8) | ((UInt32)data[4]);
++  p->range = 0xFFFFFFFF;
++  p->needFlush = 0;
++}
++
++void LzmaDec_InitDicAndState(CLzmaDec *p, Bool initDic, Bool initState)
++{
++  p->needFlush = 1;
++  p->remainLen = 0;
++  p->tempBufSize = 0;
++
++  if (initDic)
++  {
++    p->processedPos = 0;
++    p->checkDicSize = 0;
++    p->needInitState = 1;
++  }
++  if (initState)
++    p->needInitState = 1;
++}
++
++void LzmaDec_Init(CLzmaDec *p)
++{
++  p->dicPos = 0;
++  LzmaDec_InitDicAndState(p, True, True);
++}
++
++static void LzmaDec_InitStateReal(CLzmaDec *p)
++{
++  UInt32 numProbs = Literal + ((UInt32)LZMA_LIT_SIZE << (p->prop.lc + p->prop.lp));
++  UInt32 i;
++  CLzmaProb *probs = p->probs;
++  for (i = 0; i < numProbs; i++)
++    probs[i] = kBitModelTotal >> 1;
++  p->reps[0] = p->reps[1] = p->reps[2] = p->reps[3] = 1;
++  p->state = 0;
++  p->needInitState = 0;
++}
++
++SRes LzmaDec_DecodeToDic(CLzmaDec *p, SizeT dicLimit, const Byte *src, SizeT *srcLen,
++    ELzmaFinishMode finishMode, ELzmaStatus *status)
++{
++  SizeT inSize = *srcLen;
++  (*srcLen) = 0;
++  LzmaDec_WriteRem(p, dicLimit);
++  
++  *status = LZMA_STATUS_NOT_SPECIFIED;
++
++  while (p->remainLen != kMatchSpecLenStart)
++  {
++      int checkEndMarkNow;
++
++      if (p->needFlush != 0)
++      {
++        for (; inSize > 0 && p->tempBufSize < RC_INIT_SIZE; (*srcLen)++, inSize--)
++          p->tempBuf[p->tempBufSize++] = *src++;
++        if (p->tempBufSize < RC_INIT_SIZE)
++        {
++          *status = LZMA_STATUS_NEEDS_MORE_INPUT;
++          return SZ_OK;
++        }
++        if (p->tempBuf[0] != 0)
++          return SZ_ERROR_DATA;
++
++        LzmaDec_InitRc(p, p->tempBuf);
++        p->tempBufSize = 0;
++      }
++
++      checkEndMarkNow = 0;
++      if (p->dicPos >= dicLimit)
++      {
++        if (p->remainLen == 0 && p->code == 0)
++        {
++          *status = LZMA_STATUS_MAYBE_FINISHED_WITHOUT_MARK;
++          return SZ_OK;
++        }
++        if (finishMode == LZMA_FINISH_ANY)
++        {
++          *status = LZMA_STATUS_NOT_FINISHED;
++          return SZ_OK;
++        }
++        if (p->remainLen != 0)
++        {
++          *status = LZMA_STATUS_NOT_FINISHED;
++          return SZ_ERROR_DATA;
++        }
++        checkEndMarkNow = 1;
++      }
++
++      if (p->needInitState)
++        LzmaDec_InitStateReal(p);
++  
++      if (p->tempBufSize == 0)
++      {
++        SizeT processed;
++        const Byte *bufLimit;
++        if (inSize < LZMA_REQUIRED_INPUT_MAX || checkEndMarkNow)
++        {
++          int dummyRes = LzmaDec_TryDummy(p, src, inSize);
++          if (dummyRes == DUMMY_ERROR)
++          {
++            memcpy(p->tempBuf, src, inSize);
++            p->tempBufSize = (unsigned)inSize;
++            (*srcLen) += inSize;
++            *status = LZMA_STATUS_NEEDS_MORE_INPUT;
++            return SZ_OK;
++          }
++          if (checkEndMarkNow && dummyRes != DUMMY_MATCH)
++          {
++            *status = LZMA_STATUS_NOT_FINISHED;
++            return SZ_ERROR_DATA;
++          }
++          bufLimit = src;
++        }
++        else
++          bufLimit = src + inSize - LZMA_REQUIRED_INPUT_MAX;
++        p->buf = src;
++        if (LzmaDec_DecodeReal2(p, dicLimit, bufLimit) != 0)
++          return SZ_ERROR_DATA;
++        processed = (SizeT)(p->buf - src);
++        (*srcLen) += processed;
++        src += processed;
++        inSize -= processed;
++      }
++      else
++      {
++        unsigned rem = p->tempBufSize, lookAhead = 0;
++        while (rem < LZMA_REQUIRED_INPUT_MAX && lookAhead < inSize)
++          p->tempBuf[rem++] = src[lookAhead++];
++        p->tempBufSize = rem;
++        if (rem < LZMA_REQUIRED_INPUT_MAX || checkEndMarkNow)
++        {
++          int dummyRes = LzmaDec_TryDummy(p, p->tempBuf, rem);
++          if (dummyRes == DUMMY_ERROR)
++          {
++            (*srcLen) += lookAhead;
++            *status = LZMA_STATUS_NEEDS_MORE_INPUT;
++            return SZ_OK;
++          }
++          if (checkEndMarkNow && dummyRes != DUMMY_MATCH)
++          {
++            *status = LZMA_STATUS_NOT_FINISHED;
++            return SZ_ERROR_DATA;
++          }
++        }
++        p->buf = p->tempBuf;
++        if (LzmaDec_DecodeReal2(p, dicLimit, p->buf) != 0)
++          return SZ_ERROR_DATA;
++        lookAhead -= (rem - (unsigned)(p->buf - p->tempBuf));
++        (*srcLen) += lookAhead;
++        src += lookAhead;
++        inSize -= lookAhead;
++        p->tempBufSize = 0;
++      }
++  }
++  if (p->code == 0)
++    *status = LZMA_STATUS_FINISHED_WITH_MARK;
++  return (p->code == 0) ? SZ_OK : SZ_ERROR_DATA;
++}
++
++SRes LzmaDec_DecodeToBuf(CLzmaDec *p, Byte *dest, SizeT *destLen, const Byte *src, SizeT *srcLen, ELzmaFinishMode finishMode, ELzmaStatus *status)
++{
++  SizeT outSize = *destLen;
++  SizeT inSize = *srcLen;
++  *srcLen = *destLen = 0;
++  for (;;)
++  {
++    SizeT inSizeCur = inSize, outSizeCur, dicPos;
++    ELzmaFinishMode curFinishMode;
++    SRes res;
++    if (p->dicPos == p->dicBufSize)
++      p->dicPos = 0;
++    dicPos = p->dicPos;
++    if (outSize > p->dicBufSize - dicPos)
++    {
++      outSizeCur = p->dicBufSize;
++      curFinishMode = LZMA_FINISH_ANY;
++    }
++    else
++    {
++      outSizeCur = dicPos + outSize;
++      curFinishMode = finishMode;
++    }
++
++    res = LzmaDec_DecodeToDic(p, outSizeCur, src, &inSizeCur, curFinishMode, status);
++    src += inSizeCur;
++    inSize -= inSizeCur;
++    *srcLen += inSizeCur;
++    outSizeCur = p->dicPos - dicPos;
++    memcpy(dest, p->dic + dicPos, outSizeCur);
++    dest += outSizeCur;
++    outSize -= outSizeCur;
++    *destLen += outSizeCur;
++    if (res != 0)
++      return res;
++    if (outSizeCur == 0 || outSize == 0)
++      return SZ_OK;
++  }
++}
++
++void LzmaDec_FreeProbs(CLzmaDec *p, ISzAlloc *alloc)
++{
++  alloc->Free(alloc, p->probs);
++  p->probs = 0;
++}
++
++static void LzmaDec_FreeDict(CLzmaDec *p, ISzAlloc *alloc)
++{
++  alloc->Free(alloc, p->dic);
++  p->dic = 0;
++}
++
++void LzmaDec_Free(CLzmaDec *p, ISzAlloc *alloc)
++{
++  LzmaDec_FreeProbs(p, alloc);
++  LzmaDec_FreeDict(p, alloc);
++}
++
++SRes LzmaProps_Decode(CLzmaProps *p, const Byte *data, unsigned size)
++{
++  UInt32 dicSize;
++  Byte d;
++  
++  if (size < LZMA_PROPS_SIZE)
++    return SZ_ERROR_UNSUPPORTED;
++  else
++    dicSize = data[1] | ((UInt32)data[2] << 8) | ((UInt32)data[3] << 16) | ((UInt32)data[4] << 24);
++ 
++  if (dicSize < LZMA_DIC_MIN)
++    dicSize = LZMA_DIC_MIN;
++  p->dicSize = dicSize;
++
++  d = data[0];
++  if (d >= (9 * 5 * 5))
++    return SZ_ERROR_UNSUPPORTED;
++
++  p->lc = d % 9;
++  d /= 9;
++  p->pb = d / 5;
++  p->lp = d % 5;
++
++  return SZ_OK;
++}
++
++static SRes LzmaDec_AllocateProbs2(CLzmaDec *p, const CLzmaProps *propNew, ISzAlloc *alloc)
++{
++  UInt32 numProbs = LzmaProps_GetNumProbs(propNew);
++  if (p->probs == 0 || numProbs != p->numProbs)
++  {
++    LzmaDec_FreeProbs(p, alloc);
++    p->probs = (CLzmaProb *)alloc->Alloc(alloc, numProbs * sizeof(CLzmaProb));
++    p->numProbs = numProbs;
++    if (p->probs == 0)
++      return SZ_ERROR_MEM;
++  }
++  return SZ_OK;
++}
++
++SRes LzmaDec_AllocateProbs(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc)
++{
++  CLzmaProps propNew;
++  RINOK(LzmaProps_Decode(&propNew, props, propsSize));
++  RINOK(LzmaDec_AllocateProbs2(p, &propNew, alloc));
++  p->prop = propNew;
++  return SZ_OK;
++}
++
++SRes LzmaDec_Allocate(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc)
++{
++  CLzmaProps propNew;
++  SizeT dicBufSize;
++  RINOK(LzmaProps_Decode(&propNew, props, propsSize));
++  RINOK(LzmaDec_AllocateProbs2(p, &propNew, alloc));
++  dicBufSize = propNew.dicSize;
++  if (p->dic == 0 || dicBufSize != p->dicBufSize)
++  {
++    LzmaDec_FreeDict(p, alloc);
++    p->dic = (Byte *)alloc->Alloc(alloc, dicBufSize);
++    if (p->dic == 0)
++    {
++      LzmaDec_FreeProbs(p, alloc);
++      return SZ_ERROR_MEM;
++    }
++  }
++  p->dicBufSize = dicBufSize;
++  p->prop = propNew;
++  return SZ_OK;
++}
++
++SRes LzmaDecode(Byte *dest, SizeT *destLen, const Byte *src, SizeT *srcLen,
++    const Byte *propData, unsigned propSize, ELzmaFinishMode finishMode,
++    ELzmaStatus *status, ISzAlloc *alloc)
++{
++  CLzmaDec p;
++  SRes res;
++  SizeT inSize = *srcLen;
++  SizeT outSize = *destLen;
++  *srcLen = *destLen = 0;
++  if (inSize < RC_INIT_SIZE)
++    return SZ_ERROR_INPUT_EOF;
++
++  LzmaDec_Construct(&p);
++  res = LzmaDec_AllocateProbs(&p, propData, propSize, alloc);
++  if (res != 0)
++    return res;
++  p.dic = dest;
++  p.dicBufSize = outSize;
++
++  LzmaDec_Init(&p);
++  
++  *srcLen = inSize;
++  res = LzmaDec_DecodeToDic(&p, outSize, src, srcLen, finishMode, status);
++
++  if (res == SZ_OK && *status == LZMA_STATUS_NEEDS_MORE_INPUT)
++    res = SZ_ERROR_INPUT_EOF;
++
++  (*destLen) = p.dicPos;
++  LzmaDec_FreeProbs(&p, alloc);
++  return res;
++}
+--- /dev/null
++++ b/lib/lzma/LzmaEnc.c
+@@ -0,0 +1,2271 @@
++/* LzmaEnc.c -- LZMA Encoder
++2009-11-24 : Igor Pavlov : Public domain */
++
++#include <string.h>
++
++/* #define SHOW_STAT */
++/* #define SHOW_STAT2 */
++
++#if defined(SHOW_STAT) || defined(SHOW_STAT2)
++#include <stdio.h>
++#endif
++
++#include "LzmaEnc.h"
++
++/* disable MT */
++#define _7ZIP_ST
++
++#include "LzFind.h"
++#ifndef _7ZIP_ST
++#include "LzFindMt.h"
++#endif
++
++#ifdef SHOW_STAT
++static int ttt = 0;
++#endif
++
++#define kBlockSizeMax ((1 << LZMA_NUM_BLOCK_SIZE_BITS) - 1)
++
++#define kBlockSize (9 << 10)
++#define kUnpackBlockSize (1 << 18)
++#define kMatchArraySize (1 << 21)
++#define kMatchRecordMaxSize ((LZMA_MATCH_LEN_MAX * 2 + 3) * LZMA_MATCH_LEN_MAX)
++
++#define kNumMaxDirectBits (31)
++
++#define kNumTopBits 24
++#define kTopValue ((UInt32)1 << kNumTopBits)
++
++#define kNumBitModelTotalBits 11
++#define kBitModelTotal (1 << kNumBitModelTotalBits)
++#define kNumMoveBits 5
++#define kProbInitValue (kBitModelTotal >> 1)
++
++#define kNumMoveReducingBits 4
++#define kNumBitPriceShiftBits 4
++#define kBitPrice (1 << kNumBitPriceShiftBits)
++
++void LzmaEncProps_Init(CLzmaEncProps *p)
++{
++  p->level = 5;
++  p->dictSize = p->mc = 0;
++  p->lc = p->lp = p->pb = p->algo = p->fb = p->btMode = p->numHashBytes = p->numThreads = -1;
++  p->writeEndMark = 0;
++}
++
++void LzmaEncProps_Normalize(CLzmaEncProps *p)
++{
++  int level = p->level;
++  if (level < 0) level = 5;
++  p->level = level;
++  if (p->dictSize == 0) p->dictSize = (level <= 5 ? (1 << (level * 2 + 14)) : (level == 6 ? (1 << 25) : (1 << 26)));
++  if (p->lc < 0) p->lc = 3;
++  if (p->lp < 0) p->lp = 0;
++  if (p->pb < 0) p->pb = 2;
++  if (p->algo < 0) p->algo = (level < 5 ? 0 : 1);
++  if (p->fb < 0) p->fb = (level < 7 ? 32 : 64);
++  if (p->btMode < 0) p->btMode = (p->algo == 0 ? 0 : 1);
++  if (p->numHashBytes < 0) p->numHashBytes = 4;
++  if (p->mc == 0)  p->mc = (16 + (p->fb >> 1)) >> (p->btMode ? 0 : 1);
++  if (p->numThreads < 0)
++    p->numThreads =
++      #ifndef _7ZIP_ST
++      ((p->btMode && p->algo) ? 2 : 1);
++      #else
++      1;
++      #endif
++}
++
++UInt32 LzmaEncProps_GetDictSize(const CLzmaEncProps *props2)
++{
++  CLzmaEncProps props = *props2;
++  LzmaEncProps_Normalize(&props);
++  return props.dictSize;
++}
++
++/* #define LZMA_LOG_BSR */
++/* Define it for Intel's CPU */
++
++
++#ifdef LZMA_LOG_BSR
++
++#define kDicLogSizeMaxCompress 30
++
++#define BSR2_RET(pos, res) { unsigned long i; _BitScanReverse(&i, (pos)); res = (i + i) + ((pos >> (i - 1)) & 1); }
++
++UInt32 GetPosSlot1(UInt32 pos)
++{
++  UInt32 res;
++  BSR2_RET(pos, res);
++  return res;
++}
++#define GetPosSlot2(pos, res) { BSR2_RET(pos, res); }
++#define GetPosSlot(pos, res) { if (pos < 2) res = pos; else BSR2_RET(pos, res); }
++
++#else
++
++#define kNumLogBits (9 + (int)sizeof(size_t) / 2)
++#define kDicLogSizeMaxCompress ((kNumLogBits - 1) * 2 + 7)
++
++void LzmaEnc_FastPosInit(Byte *g_FastPos)
++{
++  int c = 2, slotFast;
++  g_FastPos[0] = 0;
++  g_FastPos[1] = 1;
++  
++  for (slotFast = 2; slotFast < kNumLogBits * 2; slotFast++)
++  {
++    UInt32 k = (1 << ((slotFast >> 1) - 1));
++    UInt32 j;
++    for (j = 0; j < k; j++, c++)
++      g_FastPos[c] = (Byte)slotFast;
++  }
++}
++
++#define BSR2_RET(pos, res) { UInt32 i = 6 + ((kNumLogBits - 1) & \
++  (0 - (((((UInt32)1 << (kNumLogBits + 6)) - 1) - pos) >> 31))); \
++  res = p->g_FastPos[pos >> i] + (i * 2); }
++/*
++#define BSR2_RET(pos, res) { res = (pos < (1 << (kNumLogBits + 6))) ? \
++  p->g_FastPos[pos >> 6] + 12 : \
++  p->g_FastPos[pos >> (6 + kNumLogBits - 1)] + (6 + (kNumLogBits - 1)) * 2; }
++*/
++
++#define GetPosSlot1(pos) p->g_FastPos[pos]
++#define GetPosSlot2(pos, res) { BSR2_RET(pos, res); }
++#define GetPosSlot(pos, res) { if (pos < kNumFullDistances) res = p->g_FastPos[pos]; else BSR2_RET(pos, res); }
++
++#endif
++
++
++#define LZMA_NUM_REPS 4
++
++typedef unsigned CState;
++
++typedef struct
++{
++  UInt32 price;
++
++  CState state;
++  int prev1IsChar;
++  int prev2;
++
++  UInt32 posPrev2;
++  UInt32 backPrev2;
++
++  UInt32 posPrev;
++  UInt32 backPrev;
++  UInt32 backs[LZMA_NUM_REPS];
++} COptimal;
++
++#define kNumOpts (1 << 12)
++
++#define kNumLenToPosStates 4
++#define kNumPosSlotBits 6
++#define kDicLogSizeMin 0
++#define kDicLogSizeMax 32
++#define kDistTableSizeMax (kDicLogSizeMax * 2)
++
++
++#define kNumAlignBits 4
++#define kAlignTableSize (1 << kNumAlignBits)
++#define kAlignMask (kAlignTableSize - 1)
++
++#define kStartPosModelIndex 4
++#define kEndPosModelIndex 14
++#define kNumPosModels (kEndPosModelIndex - kStartPosModelIndex)
++
++#define kNumFullDistances (1 << (kEndPosModelIndex >> 1))
++
++#ifdef _LZMA_PROB32
++#define CLzmaProb UInt32
++#else
++#define CLzmaProb UInt16
++#endif
++
++#define LZMA_PB_MAX 4
++#define LZMA_LC_MAX 8
++#define LZMA_LP_MAX 4
++
++#define LZMA_NUM_PB_STATES_MAX (1 << LZMA_PB_MAX)
++
++
++#define kLenNumLowBits 3
++#define kLenNumLowSymbols (1 << kLenNumLowBits)
++#define kLenNumMidBits 3
++#define kLenNumMidSymbols (1 << kLenNumMidBits)
++#define kLenNumHighBits 8
++#define kLenNumHighSymbols (1 << kLenNumHighBits)
++
++#define kLenNumSymbolsTotal (kLenNumLowSymbols + kLenNumMidSymbols + kLenNumHighSymbols)
++
++#define LZMA_MATCH_LEN_MIN 2
++#define LZMA_MATCH_LEN_MAX (LZMA_MATCH_LEN_MIN + kLenNumSymbolsTotal - 1)
++
++#define kNumStates 12
++
++typedef struct
++{
++  CLzmaProb choice;
++  CLzmaProb choice2;
++  CLzmaProb low[LZMA_NUM_PB_STATES_MAX << kLenNumLowBits];
++  CLzmaProb mid[LZMA_NUM_PB_STATES_MAX << kLenNumMidBits];
++  CLzmaProb high[kLenNumHighSymbols];
++} CLenEnc;
++
++typedef struct
++{
++  CLenEnc p;
++  UInt32 prices[LZMA_NUM_PB_STATES_MAX][kLenNumSymbolsTotal];
++  UInt32 tableSize;
++  UInt32 counters[LZMA_NUM_PB_STATES_MAX];
++} CLenPriceEnc;
++
++typedef struct
++{
++  UInt32 range;
++  Byte cache;
++  UInt64 low;
++  UInt64 cacheSize;
++  Byte *buf;
++  Byte *bufLim;
++  Byte *bufBase;
++  ISeqOutStream *outStream;
++  UInt64 processed;
++  SRes res;
++} CRangeEnc;
++
++typedef struct
++{
++  CLzmaProb *litProbs;
++
++  CLzmaProb isMatch[kNumStates][LZMA_NUM_PB_STATES_MAX];
++  CLzmaProb isRep[kNumStates];
++  CLzmaProb isRepG0[kNumStates];
++  CLzmaProb isRepG1[kNumStates];
++  CLzmaProb isRepG2[kNumStates];
++  CLzmaProb isRep0Long[kNumStates][LZMA_NUM_PB_STATES_MAX];
++
++  CLzmaProb posSlotEncoder[kNumLenToPosStates][1 << kNumPosSlotBits];
++  CLzmaProb posEncoders[kNumFullDistances - kEndPosModelIndex];
++  CLzmaProb posAlignEncoder[1 << kNumAlignBits];
++  
++  CLenPriceEnc lenEnc;
++  CLenPriceEnc repLenEnc;
++
++  UInt32 reps[LZMA_NUM_REPS];
++  UInt32 state;
++} CSaveState;
++
++typedef struct
++{
++  IMatchFinder matchFinder;
++  void *matchFinderObj;
++
++  #ifndef _7ZIP_ST
++  Bool mtMode;
++  CMatchFinderMt matchFinderMt;
++  #endif
++
++  CMatchFinder matchFinderBase;
++
++  #ifndef _7ZIP_ST
++  Byte pad[128];
++  #endif
++  
++  UInt32 optimumEndIndex;
++  UInt32 optimumCurrentIndex;
++
++  UInt32 longestMatchLength;
++  UInt32 numPairs;
++  UInt32 numAvail;
++  COptimal opt[kNumOpts];
++  
++  #ifndef LZMA_LOG_BSR
++  Byte g_FastPos[1 << kNumLogBits];
++  #endif
++
++  UInt32 ProbPrices[kBitModelTotal >> kNumMoveReducingBits];
++  UInt32 matches[LZMA_MATCH_LEN_MAX * 2 + 2 + 1];
++  UInt32 numFastBytes;
++  UInt32 additionalOffset;
++  UInt32 reps[LZMA_NUM_REPS];
++  UInt32 state;
++
++  UInt32 posSlotPrices[kNumLenToPosStates][kDistTableSizeMax];
++  UInt32 distancesPrices[kNumLenToPosStates][kNumFullDistances];
++  UInt32 alignPrices[kAlignTableSize];
++  UInt32 alignPriceCount;
++
++  UInt32 distTableSize;
++
++  unsigned lc, lp, pb;
++  unsigned lpMask, pbMask;
++
++  CLzmaProb *litProbs;
++
++  CLzmaProb isMatch[kNumStates][LZMA_NUM_PB_STATES_MAX];
++  CLzmaProb isRep[kNumStates];
++  CLzmaProb isRepG0[kNumStates];
++  CLzmaProb isRepG1[kNumStates];
++  CLzmaProb isRepG2[kNumStates];
++  CLzmaProb isRep0Long[kNumStates][LZMA_NUM_PB_STATES_MAX];
++
++  CLzmaProb posSlotEncoder[kNumLenToPosStates][1 << kNumPosSlotBits];
++  CLzmaProb posEncoders[kNumFullDistances - kEndPosModelIndex];
++  CLzmaProb posAlignEncoder[1 << kNumAlignBits];
++  
++  CLenPriceEnc lenEnc;
++  CLenPriceEnc repLenEnc;
++
++  unsigned lclp;
++
++  Bool fastMode;
++  
++  CRangeEnc rc;
++
++  Bool writeEndMark;
++  UInt64 nowPos64;
++  UInt32 matchPriceCount;
++  Bool finished;
++  Bool multiThread;
++
++  SRes result;
++  UInt32 dictSize;
++  UInt32 matchFinderCycles;
++
++  int needInit;
++
++  CSaveState saveState;
++} CLzmaEnc;
++
++void LzmaEnc_SaveState(CLzmaEncHandle pp)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  CSaveState *dest = &p->saveState;
++  int i;
++  dest->lenEnc = p->lenEnc;
++  dest->repLenEnc = p->repLenEnc;
++  dest->state = p->state;
++
++  for (i = 0; i < kNumStates; i++)
++  {
++    memcpy(dest->isMatch[i], p->isMatch[i], sizeof(p->isMatch[i]));
++    memcpy(dest->isRep0Long[i], p->isRep0Long[i], sizeof(p->isRep0Long[i]));
++  }
++  for (i = 0; i < kNumLenToPosStates; i++)
++    memcpy(dest->posSlotEncoder[i], p->posSlotEncoder[i], sizeof(p->posSlotEncoder[i]));
++  memcpy(dest->isRep, p->isRep, sizeof(p->isRep));
++  memcpy(dest->isRepG0, p->isRepG0, sizeof(p->isRepG0));
++  memcpy(dest->isRepG1, p->isRepG1, sizeof(p->isRepG1));
++  memcpy(dest->isRepG2, p->isRepG2, sizeof(p->isRepG2));
++  memcpy(dest->posEncoders, p->posEncoders, sizeof(p->posEncoders));
++  memcpy(dest->posAlignEncoder, p->posAlignEncoder, sizeof(p->posAlignEncoder));
++  memcpy(dest->reps, p->reps, sizeof(p->reps));
++  memcpy(dest->litProbs, p->litProbs, (0x300 << p->lclp) * sizeof(CLzmaProb));
++}
++
++void LzmaEnc_RestoreState(CLzmaEncHandle pp)
++{
++  CLzmaEnc *dest = (CLzmaEnc *)pp;
++  const CSaveState *p = &dest->saveState;
++  int i;
++  dest->lenEnc = p->lenEnc;
++  dest->repLenEnc = p->repLenEnc;
++  dest->state = p->state;
++
++  for (i = 0; i < kNumStates; i++)
++  {
++    memcpy(dest->isMatch[i], p->isMatch[i], sizeof(p->isMatch[i]));
++    memcpy(dest->isRep0Long[i], p->isRep0Long[i], sizeof(p->isRep0Long[i]));
++  }
++  for (i = 0; i < kNumLenToPosStates; i++)
++    memcpy(dest->posSlotEncoder[i], p->posSlotEncoder[i], sizeof(p->posSlotEncoder[i]));
++  memcpy(dest->isRep, p->isRep, sizeof(p->isRep));
++  memcpy(dest->isRepG0, p->isRepG0, sizeof(p->isRepG0));
++  memcpy(dest->isRepG1, p->isRepG1, sizeof(p->isRepG1));
++  memcpy(dest->isRepG2, p->isRepG2, sizeof(p->isRepG2));
++  memcpy(dest->posEncoders, p->posEncoders, sizeof(p->posEncoders));
++  memcpy(dest->posAlignEncoder, p->posAlignEncoder, sizeof(p->posAlignEncoder));
++  memcpy(dest->reps, p->reps, sizeof(p->reps));
++  memcpy(dest->litProbs, p->litProbs, (0x300 << dest->lclp) * sizeof(CLzmaProb));
++}
++
++SRes LzmaEnc_SetProps(CLzmaEncHandle pp, const CLzmaEncProps *props2)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  CLzmaEncProps props = *props2;
++  LzmaEncProps_Normalize(&props);
++
++  if (props.lc > LZMA_LC_MAX || props.lp > LZMA_LP_MAX || props.pb > LZMA_PB_MAX ||
++      props.dictSize > (1 << kDicLogSizeMaxCompress) || props.dictSize > (1 << 30))
++    return SZ_ERROR_PARAM;
++  p->dictSize = props.dictSize;
++  p->matchFinderCycles = props.mc;
++  {
++    unsigned fb = props.fb;
++    if (fb < 5)
++      fb = 5;
++    if (fb > LZMA_MATCH_LEN_MAX)
++      fb = LZMA_MATCH_LEN_MAX;
++    p->numFastBytes = fb;
++  }
++  p->lc = props.lc;
++  p->lp = props.lp;
++  p->pb = props.pb;
++  p->fastMode = (props.algo == 0);
++  p->matchFinderBase.btMode = props.btMode;
++  {
++    UInt32 numHashBytes = 4;
++    if (props.btMode)
++    {
++      if (props.numHashBytes < 2)
++        numHashBytes = 2;
++      else if (props.numHashBytes < 4)
++        numHashBytes = props.numHashBytes;
++    }
++    p->matchFinderBase.numHashBytes = numHashBytes;
++  }
++
++  p->matchFinderBase.cutValue = props.mc;
++
++  p->writeEndMark = props.writeEndMark;
++
++  #ifndef _7ZIP_ST
++  /*
++  if (newMultiThread != _multiThread)
++  {
++    ReleaseMatchFinder();
++    _multiThread = newMultiThread;
++  }
++  */
++  p->multiThread = (props.numThreads > 1);
++  #endif
++
++  return SZ_OK;
++}
++
++static const int kLiteralNextStates[kNumStates] = {0, 0, 0, 0, 1, 2, 3, 4,  5,  6,   4, 5};
++static const int kMatchNextStates[kNumStates]   = {7, 7, 7, 7, 7, 7, 7, 10, 10, 10, 10, 10};
++static const int kRepNextStates[kNumStates]     = {8, 8, 8, 8, 8, 8, 8, 11, 11, 11, 11, 11};
++static const int kShortRepNextStates[kNumStates]= {9, 9, 9, 9, 9, 9, 9, 11, 11, 11, 11, 11};
++
++#define IsCharState(s) ((s) < 7)
++
++#define GetLenToPosState(len) (((len) < kNumLenToPosStates + 1) ? (len) - 2 : kNumLenToPosStates - 1)
++
++#define kInfinityPrice (1 << 30)
++
++static void RangeEnc_Construct(CRangeEnc *p)
++{
++  p->outStream = 0;
++  p->bufBase = 0;
++}
++
++#define RangeEnc_GetProcessed(p) ((p)->processed + ((p)->buf - (p)->bufBase) + (p)->cacheSize)
++
++#define RC_BUF_SIZE (1 << 16)
++static int RangeEnc_Alloc(CRangeEnc *p, ISzAlloc *alloc)
++{
++  if (p->bufBase == 0)
++  {
++    p->bufBase = (Byte *)alloc->Alloc(alloc, RC_BUF_SIZE);
++    if (p->bufBase == 0)
++      return 0;
++    p->bufLim = p->bufBase + RC_BUF_SIZE;
++  }
++  return 1;
++}
++
++static void RangeEnc_Free(CRangeEnc *p, ISzAlloc *alloc)
++{
++  alloc->Free(alloc, p->bufBase);
++  p->bufBase = 0;
++}
++
++static void RangeEnc_Init(CRangeEnc *p)
++{
++  /* Stream.Init(); */
++  p->low = 0;
++  p->range = 0xFFFFFFFF;
++  p->cacheSize = 1;
++  p->cache = 0;
++
++  p->buf = p->bufBase;
++
++  p->processed = 0;
++  p->res = SZ_OK;
++}
++
++static void RangeEnc_FlushStream(CRangeEnc *p)
++{
++  size_t num;
++  if (p->res != SZ_OK)
++    return;
++  num = p->buf - p->bufBase;
++  if (num != p->outStream->Write(p->outStream, p->bufBase, num))
++    p->res = SZ_ERROR_WRITE;
++  p->processed += num;
++  p->buf = p->bufBase;
++}
++
++static void MY_FAST_CALL RangeEnc_ShiftLow(CRangeEnc *p)
++{
++  if ((UInt32)p->low < (UInt32)0xFF000000 || (int)(p->low >> 32) != 0)
++  {
++    Byte temp = p->cache;
++    do
++    {
++      Byte *buf = p->buf;
++      *buf++ = (Byte)(temp + (Byte)(p->low >> 32));
++      p->buf = buf;
++      if (buf == p->bufLim)
++        RangeEnc_FlushStream(p);
++      temp = 0xFF;
++    }
++    while (--p->cacheSize != 0);
++    p->cache = (Byte)((UInt32)p->low >> 24);
++  }
++  p->cacheSize++;
++  p->low = (UInt32)p->low << 8;
++}
++
++static void RangeEnc_FlushData(CRangeEnc *p)
++{
++  int i;
++  for (i = 0; i < 5; i++)
++    RangeEnc_ShiftLow(p);
++}
++
++static void RangeEnc_EncodeDirectBits(CRangeEnc *p, UInt32 value, int numBits)
++{
++  do
++  {
++    p->range >>= 1;
++    p->low += p->range & (0 - ((value >> --numBits) & 1));
++    if (p->range < kTopValue)
++    {
++      p->range <<= 8;
++      RangeEnc_ShiftLow(p);
++    }
++  }
++  while (numBits != 0);
++}
++
++static void RangeEnc_EncodeBit(CRangeEnc *p, CLzmaProb *prob, UInt32 symbol)
++{
++  UInt32 ttt = *prob;
++  UInt32 newBound = (p->range >> kNumBitModelTotalBits) * ttt;
++  if (symbol == 0)
++  {
++    p->range = newBound;
++    ttt += (kBitModelTotal - ttt) >> kNumMoveBits;
++  }
++  else
++  {
++    p->low += newBound;
++    p->range -= newBound;
++    ttt -= ttt >> kNumMoveBits;
++  }
++  *prob = (CLzmaProb)ttt;
++  if (p->range < kTopValue)
++  {
++    p->range <<= 8;
++    RangeEnc_ShiftLow(p);
++  }
++}
++
++static void LitEnc_Encode(CRangeEnc *p, CLzmaProb *probs, UInt32 symbol)
++{
++  symbol |= 0x100;
++  do
++  {
++    RangeEnc_EncodeBit(p, probs + (symbol >> 8), (symbol >> 7) & 1);
++    symbol <<= 1;
++  }
++  while (symbol < 0x10000);
++}
++
++static void LitEnc_EncodeMatched(CRangeEnc *p, CLzmaProb *probs, UInt32 symbol, UInt32 matchByte)
++{
++  UInt32 offs = 0x100;
++  symbol |= 0x100;
++  do
++  {
++    matchByte <<= 1;
++    RangeEnc_EncodeBit(p, probs + (offs + (matchByte & offs) + (symbol >> 8)), (symbol >> 7) & 1);
++    symbol <<= 1;
++    offs &= ~(matchByte ^ symbol);
++  }
++  while (symbol < 0x10000);
++}
++
++void LzmaEnc_InitPriceTables(UInt32 *ProbPrices)
++{
++  UInt32 i;
++  for (i = (1 << kNumMoveReducingBits) / 2; i < kBitModelTotal; i += (1 << kNumMoveReducingBits))
++  {
++    const int kCyclesBits = kNumBitPriceShiftBits;
++    UInt32 w = i;
++    UInt32 bitCount = 0;
++    int j;
++    for (j = 0; j < kCyclesBits; j++)
++    {
++      w = w * w;
++      bitCount <<= 1;
++      while (w >= ((UInt32)1 << 16))
++      {
++        w >>= 1;
++        bitCount++;
++      }
++    }
++    ProbPrices[i >> kNumMoveReducingBits] = ((kNumBitModelTotalBits << kCyclesBits) - 15 - bitCount);
++  }
++}
++
++
++#define GET_PRICE(prob, symbol) \
++  p->ProbPrices[((prob) ^ (((-(int)(symbol))) & (kBitModelTotal - 1))) >> kNumMoveReducingBits];
++
++#define GET_PRICEa(prob, symbol) \
++  ProbPrices[((prob) ^ ((-((int)(symbol))) & (kBitModelTotal - 1))) >> kNumMoveReducingBits];
++
++#define GET_PRICE_0(prob) p->ProbPrices[(prob) >> kNumMoveReducingBits]
++#define GET_PRICE_1(prob) p->ProbPrices[((prob) ^ (kBitModelTotal - 1)) >> kNumMoveReducingBits]
++
++#define GET_PRICE_0a(prob) ProbPrices[(prob) >> kNumMoveReducingBits]
++#define GET_PRICE_1a(prob) ProbPrices[((prob) ^ (kBitModelTotal - 1)) >> kNumMoveReducingBits]
++
++static UInt32 LitEnc_GetPrice(const CLzmaProb *probs, UInt32 symbol, UInt32 *ProbPrices)
++{
++  UInt32 price = 0;
++  symbol |= 0x100;
++  do
++  {
++    price += GET_PRICEa(probs[symbol >> 8], (symbol >> 7) & 1);
++    symbol <<= 1;
++  }
++  while (symbol < 0x10000);
++  return price;
++}
++
++static UInt32 LitEnc_GetPriceMatched(const CLzmaProb *probs, UInt32 symbol, UInt32 matchByte, UInt32 *ProbPrices)
++{
++  UInt32 price = 0;
++  UInt32 offs = 0x100;
++  symbol |= 0x100;
++  do
++  {
++    matchByte <<= 1;
++    price += GET_PRICEa(probs[offs + (matchByte & offs) + (symbol >> 8)], (symbol >> 7) & 1);
++    symbol <<= 1;
++    offs &= ~(matchByte ^ symbol);
++  }
++  while (symbol < 0x10000);
++  return price;
++}
++
++
++static void RcTree_Encode(CRangeEnc *rc, CLzmaProb *probs, int numBitLevels, UInt32 symbol)
++{
++  UInt32 m = 1;
++  int i;
++  for (i = numBitLevels; i != 0;)
++  {
++    UInt32 bit;
++    i--;
++    bit = (symbol >> i) & 1;
++    RangeEnc_EncodeBit(rc, probs + m, bit);
++    m = (m << 1) | bit;
++  }
++}
++
++static void RcTree_ReverseEncode(CRangeEnc *rc, CLzmaProb *probs, int numBitLevels, UInt32 symbol)
++{
++  UInt32 m = 1;
++  int i;
++  for (i = 0; i < numBitLevels; i++)
++  {
++    UInt32 bit = symbol & 1;
++    RangeEnc_EncodeBit(rc, probs + m, bit);
++    m = (m << 1) | bit;
++    symbol >>= 1;
++  }
++}
++
++static UInt32 RcTree_GetPrice(const CLzmaProb *probs, int numBitLevels, UInt32 symbol, UInt32 *ProbPrices)
++{
++  UInt32 price = 0;
++  symbol |= (1 << numBitLevels);
++  while (symbol != 1)
++  {
++    price += GET_PRICEa(probs[symbol >> 1], symbol & 1);
++    symbol >>= 1;
++  }
++  return price;
++}
++
++static UInt32 RcTree_ReverseGetPrice(const CLzmaProb *probs, int numBitLevels, UInt32 symbol, UInt32 *ProbPrices)
++{
++  UInt32 price = 0;
++  UInt32 m = 1;
++  int i;
++  for (i = numBitLevels; i != 0; i--)
++  {
++    UInt32 bit = symbol & 1;
++    symbol >>= 1;
++    price += GET_PRICEa(probs[m], bit);
++    m = (m << 1) | bit;
++  }
++  return price;
++}
++
++
++static void LenEnc_Init(CLenEnc *p)
++{
++  unsigned i;
++  p->choice = p->choice2 = kProbInitValue;
++  for (i = 0; i < (LZMA_NUM_PB_STATES_MAX << kLenNumLowBits); i++)
++    p->low[i] = kProbInitValue;
++  for (i = 0; i < (LZMA_NUM_PB_STATES_MAX << kLenNumMidBits); i++)
++    p->mid[i] = kProbInitValue;
++  for (i = 0; i < kLenNumHighSymbols; i++)
++    p->high[i] = kProbInitValue;
++}
++
++static void LenEnc_Encode(CLenEnc *p, CRangeEnc *rc, UInt32 symbol, UInt32 posState)
++{
++  if (symbol < kLenNumLowSymbols)
++  {
++    RangeEnc_EncodeBit(rc, &p->choice, 0);
++    RcTree_Encode(rc, p->low + (posState << kLenNumLowBits), kLenNumLowBits, symbol);
++  }
++  else
++  {
++    RangeEnc_EncodeBit(rc, &p->choice, 1);
++    if (symbol < kLenNumLowSymbols + kLenNumMidSymbols)
++    {
++      RangeEnc_EncodeBit(rc, &p->choice2, 0);
++      RcTree_Encode(rc, p->mid + (posState << kLenNumMidBits), kLenNumMidBits, symbol - kLenNumLowSymbols);
++    }
++    else
++    {
++      RangeEnc_EncodeBit(rc, &p->choice2, 1);
++      RcTree_Encode(rc, p->high, kLenNumHighBits, symbol - kLenNumLowSymbols - kLenNumMidSymbols);
++    }
++  }
++}
++
++static void LenEnc_SetPrices(CLenEnc *p, UInt32 posState, UInt32 numSymbols, UInt32 *prices, UInt32 *ProbPrices)
++{
++  UInt32 a0 = GET_PRICE_0a(p->choice);
++  UInt32 a1 = GET_PRICE_1a(p->choice);
++  UInt32 b0 = a1 + GET_PRICE_0a(p->choice2);
++  UInt32 b1 = a1 + GET_PRICE_1a(p->choice2);
++  UInt32 i = 0;
++  for (i = 0; i < kLenNumLowSymbols; i++)
++  {
++    if (i >= numSymbols)
++      return;
++    prices[i] = a0 + RcTree_GetPrice(p->low + (posState << kLenNumLowBits), kLenNumLowBits, i, ProbPrices);
++  }
++  for (; i < kLenNumLowSymbols + kLenNumMidSymbols; i++)
++  {
++    if (i >= numSymbols)
++      return;
++    prices[i] = b0 + RcTree_GetPrice(p->mid + (posState << kLenNumMidBits), kLenNumMidBits, i - kLenNumLowSymbols, ProbPrices);
++  }
++  for (; i < numSymbols; i++)
++    prices[i] = b1 + RcTree_GetPrice(p->high, kLenNumHighBits, i - kLenNumLowSymbols - kLenNumMidSymbols, ProbPrices);
++}
++
++static void MY_FAST_CALL LenPriceEnc_UpdateTable(CLenPriceEnc *p, UInt32 posState, UInt32 *ProbPrices)
++{
++  LenEnc_SetPrices(&p->p, posState, p->tableSize, p->prices[posState], ProbPrices);
++  p->counters[posState] = p->tableSize;
++}
++
++static void LenPriceEnc_UpdateTables(CLenPriceEnc *p, UInt32 numPosStates, UInt32 *ProbPrices)
++{
++  UInt32 posState;
++  for (posState = 0; posState < numPosStates; posState++)
++    LenPriceEnc_UpdateTable(p, posState, ProbPrices);
++}
++
++static void LenEnc_Encode2(CLenPriceEnc *p, CRangeEnc *rc, UInt32 symbol, UInt32 posState, Bool updatePrice, UInt32 *ProbPrices)
++{
++  LenEnc_Encode(&p->p, rc, symbol, posState);
++  if (updatePrice)
++    if (--p->counters[posState] == 0)
++      LenPriceEnc_UpdateTable(p, posState, ProbPrices);
++}
++
++
++
++
++static void MovePos(CLzmaEnc *p, UInt32 num)
++{
++  #ifdef SHOW_STAT
++  ttt += num;
++  printf("\n MovePos %d", num);
++  #endif
++  if (num != 0)
++  {
++    p->additionalOffset += num;
++    p->matchFinder.Skip(p->matchFinderObj, num);
++  }
++}
++
++static UInt32 ReadMatchDistances(CLzmaEnc *p, UInt32 *numDistancePairsRes)
++{
++  UInt32 lenRes = 0, numPairs;
++  p->numAvail = p->matchFinder.GetNumAvailableBytes(p->matchFinderObj);
++  numPairs = p->matchFinder.GetMatches(p->matchFinderObj, p->matches);
++  #ifdef SHOW_STAT
++  printf("\n i = %d numPairs = %d    ", ttt, numPairs / 2);
++  ttt++;
++  {
++    UInt32 i;
++    for (i = 0; i < numPairs; i += 2)
++      printf("%2d %6d   | ", p->matches[i], p->matches[i + 1]);
++  }
++  #endif
++  if (numPairs > 0)
++  {
++    lenRes = p->matches[numPairs - 2];
++    if (lenRes == p->numFastBytes)
++    {
++      const Byte *pby = p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - 1;
++      UInt32 distance = p->matches[numPairs - 1] + 1;
++      UInt32 numAvail = p->numAvail;
++      if (numAvail > LZMA_MATCH_LEN_MAX)
++        numAvail = LZMA_MATCH_LEN_MAX;
++      {
++        const Byte *pby2 = pby - distance;
++        for (; lenRes < numAvail && pby[lenRes] == pby2[lenRes]; lenRes++);
++      }
++    }
++  }
++  p->additionalOffset++;
++  *numDistancePairsRes = numPairs;
++  return lenRes;
++}
++
++
++#define MakeAsChar(p) (p)->backPrev = (UInt32)(-1); (p)->prev1IsChar = False;
++#define MakeAsShortRep(p) (p)->backPrev = 0; (p)->prev1IsChar = False;
++#define IsShortRep(p) ((p)->backPrev == 0)
++
++static UInt32 GetRepLen1Price(CLzmaEnc *p, UInt32 state, UInt32 posState)
++{
++  return
++    GET_PRICE_0(p->isRepG0[state]) +
++    GET_PRICE_0(p->isRep0Long[state][posState]);
++}
++
++static UInt32 GetPureRepPrice(CLzmaEnc *p, UInt32 repIndex, UInt32 state, UInt32 posState)
++{
++  UInt32 price;
++  if (repIndex == 0)
++  {
++    price = GET_PRICE_0(p->isRepG0[state]);
++    price += GET_PRICE_1(p->isRep0Long[state][posState]);
++  }
++  else
++  {
++    price = GET_PRICE_1(p->isRepG0[state]);
++    if (repIndex == 1)
++      price += GET_PRICE_0(p->isRepG1[state]);
++    else
++    {
++      price += GET_PRICE_1(p->isRepG1[state]);
++      price += GET_PRICE(p->isRepG2[state], repIndex - 2);
++    }
++  }
++  return price;
++}
++
++static UInt32 GetRepPrice(CLzmaEnc *p, UInt32 repIndex, UInt32 len, UInt32 state, UInt32 posState)
++{
++  return p->repLenEnc.prices[posState][len - LZMA_MATCH_LEN_MIN] +
++    GetPureRepPrice(p, repIndex, state, posState);
++}
++
++static UInt32 Backward(CLzmaEnc *p, UInt32 *backRes, UInt32 cur)
++{
++  UInt32 posMem = p->opt[cur].posPrev;
++  UInt32 backMem = p->opt[cur].backPrev;
++  p->optimumEndIndex = cur;
++  do
++  {
++    if (p->opt[cur].prev1IsChar)
++    {
++      MakeAsChar(&p->opt[posMem])
++      p->opt[posMem].posPrev = posMem - 1;
++      if (p->opt[cur].prev2)
++      {
++        p->opt[posMem - 1].prev1IsChar = False;
++        p->opt[posMem - 1].posPrev = p->opt[cur].posPrev2;
++        p->opt[posMem - 1].backPrev = p->opt[cur].backPrev2;
++      }
++    }
++    {
++      UInt32 posPrev = posMem;
++      UInt32 backCur = backMem;
++      
++      backMem = p->opt[posPrev].backPrev;
++      posMem = p->opt[posPrev].posPrev;
++      
++      p->opt[posPrev].backPrev = backCur;
++      p->opt[posPrev].posPrev = cur;
++      cur = posPrev;
++    }
++  }
++  while (cur != 0);
++  *backRes = p->opt[0].backPrev;
++  p->optimumCurrentIndex  = p->opt[0].posPrev;
++  return p->optimumCurrentIndex;
++}
++
++#define LIT_PROBS(pos, prevByte) (p->litProbs + ((((pos) & p->lpMask) << p->lc) + ((prevByte) >> (8 - p->lc))) * 0x300)
++
++static UInt32 GetOptimum(CLzmaEnc *p, UInt32 position, UInt32 *backRes)
++{
++  UInt32 numAvail, mainLen, numPairs, repMaxIndex, i, posState, lenEnd, len, cur;
++  UInt32 matchPrice, repMatchPrice, normalMatchPrice;
++  UInt32 reps[LZMA_NUM_REPS], repLens[LZMA_NUM_REPS];
++  UInt32 *matches;
++  const Byte *data;
++  Byte curByte, matchByte;
++  if (p->optimumEndIndex != p->optimumCurrentIndex)
++  {
++    const COptimal *opt = &p->opt[p->optimumCurrentIndex];
++    UInt32 lenRes = opt->posPrev - p->optimumCurrentIndex;
++    *backRes = opt->backPrev;
++    p->optimumCurrentIndex = opt->posPrev;
++    return lenRes;
++  }
++  p->optimumCurrentIndex = p->optimumEndIndex = 0;
++  
++  if (p->additionalOffset == 0)
++    mainLen = ReadMatchDistances(p, &numPairs);
++  else
++  {
++    mainLen = p->longestMatchLength;
++    numPairs = p->numPairs;
++  }
++
++  numAvail = p->numAvail;
++  if (numAvail < 2)
++  {
++    *backRes = (UInt32)(-1);
++    return 1;
++  }
++  if (numAvail > LZMA_MATCH_LEN_MAX)
++    numAvail = LZMA_MATCH_LEN_MAX;
++
++  data = p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - 1;
++  repMaxIndex = 0;
++  for (i = 0; i < LZMA_NUM_REPS; i++)
++  {
++    UInt32 lenTest;
++    const Byte *data2;
++    reps[i] = p->reps[i];
++    data2 = data - (reps[i] + 1);
++    if (data[0] != data2[0] || data[1] != data2[1])
++    {
++      repLens[i] = 0;
++      continue;
++    }
++    for (lenTest = 2; lenTest < numAvail && data[lenTest] == data2[lenTest]; lenTest++);
++    repLens[i] = lenTest;
++    if (lenTest > repLens[repMaxIndex])
++      repMaxIndex = i;
++  }
++  if (repLens[repMaxIndex] >= p->numFastBytes)
++  {
++    UInt32 lenRes;
++    *backRes = repMaxIndex;
++    lenRes = repLens[repMaxIndex];
++    MovePos(p, lenRes - 1);
++    return lenRes;
++  }
++
++  matches = p->matches;
++  if (mainLen >= p->numFastBytes)
++  {
++    *backRes = matches[numPairs - 1] + LZMA_NUM_REPS;
++    MovePos(p, mainLen - 1);
++    return mainLen;
++  }
++  curByte = *data;
++  matchByte = *(data - (reps[0] + 1));
++
++  if (mainLen < 2 && curByte != matchByte && repLens[repMaxIndex] < 2)
++  {
++    *backRes = (UInt32)-1;
++    return 1;
++  }
++
++  p->opt[0].state = (CState)p->state;
++
++  posState = (position & p->pbMask);
++
++  {
++    const CLzmaProb *probs = LIT_PROBS(position, *(data - 1));
++    p->opt[1].price = GET_PRICE_0(p->isMatch[p->state][posState]) +
++        (!IsCharState(p->state) ?
++          LitEnc_GetPriceMatched(probs, curByte, matchByte, p->ProbPrices) :
++          LitEnc_GetPrice(probs, curByte, p->ProbPrices));
++  }
++
++  MakeAsChar(&p->opt[1]);
++
++  matchPrice = GET_PRICE_1(p->isMatch[p->state][posState]);
++  repMatchPrice = matchPrice + GET_PRICE_1(p->isRep[p->state]);
++
++  if (matchByte == curByte)
++  {
++    UInt32 shortRepPrice = repMatchPrice + GetRepLen1Price(p, p->state, posState);
++    if (shortRepPrice < p->opt[1].price)
++    {
++      p->opt[1].price = shortRepPrice;
++      MakeAsShortRep(&p->opt[1]);
++    }
++  }
++  lenEnd = ((mainLen >= repLens[repMaxIndex]) ? mainLen : repLens[repMaxIndex]);
++
++  if (lenEnd < 2)
++  {
++    *backRes = p->opt[1].backPrev;
++    return 1;
++  }
++
++  p->opt[1].posPrev = 0;
++  for (i = 0; i < LZMA_NUM_REPS; i++)
++    p->opt[0].backs[i] = reps[i];
++
++  len = lenEnd;
++  do
++    p->opt[len--].price = kInfinityPrice;
++  while (len >= 2);
++
++  for (i = 0; i < LZMA_NUM_REPS; i++)
++  {
++    UInt32 repLen = repLens[i];
++    UInt32 price;
++    if (repLen < 2)
++      continue;
++    price = repMatchPrice + GetPureRepPrice(p, i, p->state, posState);
++    do
++    {
++      UInt32 curAndLenPrice = price + p->repLenEnc.prices[posState][repLen - 2];
++      COptimal *opt = &p->opt[repLen];
++      if (curAndLenPrice < opt->price)
++      {
++        opt->price = curAndLenPrice;
++        opt->posPrev = 0;
++        opt->backPrev = i;
++        opt->prev1IsChar = False;
++      }
++    }
++    while (--repLen >= 2);
++  }
++
++  normalMatchPrice = matchPrice + GET_PRICE_0(p->isRep[p->state]);
++
++  len = ((repLens[0] >= 2) ? repLens[0] + 1 : 2);
++  if (len <= mainLen)
++  {
++    UInt32 offs = 0;
++    while (len > matches[offs])
++      offs += 2;
++    for (; ; len++)
++    {
++      COptimal *opt;
++      UInt32 distance = matches[offs + 1];
++
++      UInt32 curAndLenPrice = normalMatchPrice + p->lenEnc.prices[posState][len - LZMA_MATCH_LEN_MIN];
++      UInt32 lenToPosState = GetLenToPosState(len);
++      if (distance < kNumFullDistances)
++        curAndLenPrice += p->distancesPrices[lenToPosState][distance];
++      else
++      {
++        UInt32 slot;
++        GetPosSlot2(distance, slot);
++        curAndLenPrice += p->alignPrices[distance & kAlignMask] + p->posSlotPrices[lenToPosState][slot];
++      }
++      opt = &p->opt[len];
++      if (curAndLenPrice < opt->price)
++      {
++        opt->price = curAndLenPrice;
++        opt->posPrev = 0;
++        opt->backPrev = distance + LZMA_NUM_REPS;
++        opt->prev1IsChar = False;
++      }
++      if (len == matches[offs])
++      {
++        offs += 2;
++        if (offs == numPairs)
++          break;
++      }
++    }
++  }
++
++  cur = 0;
++
++    #ifdef SHOW_STAT2
++    if (position >= 0)
++    {
++      unsigned i;
++      printf("\n pos = %4X", position);
++      for (i = cur; i <= lenEnd; i++)
++      printf("\nprice[%4X] = %d", position - cur + i, p->opt[i].price);
++    }
++    #endif
++
++  for (;;)
++  {
++    UInt32 numAvailFull, newLen, numPairs, posPrev, state, posState, startLen;
++    UInt32 curPrice, curAnd1Price, matchPrice, repMatchPrice;
++    Bool nextIsChar;
++    Byte curByte, matchByte;
++    const Byte *data;
++    COptimal *curOpt;
++    COptimal *nextOpt;
++
++    cur++;
++    if (cur == lenEnd)
++      return Backward(p, backRes, cur);
++
++    newLen = ReadMatchDistances(p, &numPairs);
++    if (newLen >= p->numFastBytes)
++    {
++      p->numPairs = numPairs;
++      p->longestMatchLength = newLen;
++      return Backward(p, backRes, cur);
++    }
++    position++;
++    curOpt = &p->opt[cur];
++    posPrev = curOpt->posPrev;
++    if (curOpt->prev1IsChar)
++    {
++      posPrev--;
++      if (curOpt->prev2)
++      {
++        state = p->opt[curOpt->posPrev2].state;
++        if (curOpt->backPrev2 < LZMA_NUM_REPS)
++          state = kRepNextStates[state];
++        else
++          state = kMatchNextStates[state];
++      }
++      else
++        state = p->opt[posPrev].state;
++      state = kLiteralNextStates[state];
++    }
++    else
++      state = p->opt[posPrev].state;
++    if (posPrev == cur - 1)
++    {
++      if (IsShortRep(curOpt))
++        state = kShortRepNextStates[state];
++      else
++        state = kLiteralNextStates[state];
++    }
++    else
++    {
++      UInt32 pos;
++      const COptimal *prevOpt;
++      if (curOpt->prev1IsChar && curOpt->prev2)
++      {
++        posPrev = curOpt->posPrev2;
++        pos = curOpt->backPrev2;
++        state = kRepNextStates[state];
++      }
++      else
++      {
++        pos = curOpt->backPrev;
++        if (pos < LZMA_NUM_REPS)
++          state = kRepNextStates[state];
++        else
++          state = kMatchNextStates[state];
++      }
++      prevOpt = &p->opt[posPrev];
++      if (pos < LZMA_NUM_REPS)
++      {
++        UInt32 i;
++        reps[0] = prevOpt->backs[pos];
++        for (i = 1; i <= pos; i++)
++          reps[i] = prevOpt->backs[i - 1];
++        for (; i < LZMA_NUM_REPS; i++)
++          reps[i] = prevOpt->backs[i];
++      }
++      else
++      {
++        UInt32 i;
++        reps[0] = (pos - LZMA_NUM_REPS);
++        for (i = 1; i < LZMA_NUM_REPS; i++)
++          reps[i] = prevOpt->backs[i - 1];
++      }
++    }
++    curOpt->state = (CState)state;
++
++    curOpt->backs[0] = reps[0];
++    curOpt->backs[1] = reps[1];
++    curOpt->backs[2] = reps[2];
++    curOpt->backs[3] = reps[3];
++
++    curPrice = curOpt->price;
++    nextIsChar = False;
++    data = p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - 1;
++    curByte = *data;
++    matchByte = *(data - (reps[0] + 1));
++
++    posState = (position & p->pbMask);
++
++    curAnd1Price = curPrice + GET_PRICE_0(p->isMatch[state][posState]);
++    {
++      const CLzmaProb *probs = LIT_PROBS(position, *(data - 1));
++      curAnd1Price +=
++        (!IsCharState(state) ?
++          LitEnc_GetPriceMatched(probs, curByte, matchByte, p->ProbPrices) :
++          LitEnc_GetPrice(probs, curByte, p->ProbPrices));
++    }
++
++    nextOpt = &p->opt[cur + 1];
++
++    if (curAnd1Price < nextOpt->price)
++    {
++      nextOpt->price = curAnd1Price;
++      nextOpt->posPrev = cur;
++      MakeAsChar(nextOpt);
++      nextIsChar = True;
++    }
++
++    matchPrice = curPrice + GET_PRICE_1(p->isMatch[state][posState]);
++    repMatchPrice = matchPrice + GET_PRICE_1(p->isRep[state]);
++    
++    if (matchByte == curByte && !(nextOpt->posPrev < cur && nextOpt->backPrev == 0))
++    {
++      UInt32 shortRepPrice = repMatchPrice + GetRepLen1Price(p, state, posState);
++      if (shortRepPrice <= nextOpt->price)
++      {
++        nextOpt->price = shortRepPrice;
++        nextOpt->posPrev = cur;
++        MakeAsShortRep(nextOpt);
++        nextIsChar = True;
++      }
++    }
++    numAvailFull = p->numAvail;
++    {
++      UInt32 temp = kNumOpts - 1 - cur;
++      if (temp < numAvailFull)
++        numAvailFull = temp;
++    }
++
++    if (numAvailFull < 2)
++      continue;
++    numAvail = (numAvailFull <= p->numFastBytes ? numAvailFull : p->numFastBytes);
++
++    if (!nextIsChar && matchByte != curByte) /* speed optimization */
++    {
++      /* try Literal + rep0 */
++      UInt32 temp;
++      UInt32 lenTest2;
++      const Byte *data2 = data - (reps[0] + 1);
++      UInt32 limit = p->numFastBytes + 1;
++      if (limit > numAvailFull)
++        limit = numAvailFull;
++
++      for (temp = 1; temp < limit && data[temp] == data2[temp]; temp++);
++      lenTest2 = temp - 1;
++      if (lenTest2 >= 2)
++      {
++        UInt32 state2 = kLiteralNextStates[state];
++        UInt32 posStateNext = (position + 1) & p->pbMask;
++        UInt32 nextRepMatchPrice = curAnd1Price +
++            GET_PRICE_1(p->isMatch[state2][posStateNext]) +
++            GET_PRICE_1(p->isRep[state2]);
++        /* for (; lenTest2 >= 2; lenTest2--) */
++        {
++          UInt32 curAndLenPrice;
++          COptimal *opt;
++          UInt32 offset = cur + 1 + lenTest2;
++          while (lenEnd < offset)
++            p->opt[++lenEnd].price = kInfinityPrice;
++          curAndLenPrice = nextRepMatchPrice + GetRepPrice(p, 0, lenTest2, state2, posStateNext);
++          opt = &p->opt[offset];
++          if (curAndLenPrice < opt->price)
++          {
++            opt->price = curAndLenPrice;
++            opt->posPrev = cur + 1;
++            opt->backPrev = 0;
++            opt->prev1IsChar = True;
++            opt->prev2 = False;
++          }
++        }
++      }
++    }
++    
++    startLen = 2; /* speed optimization */
++    {
++    UInt32 repIndex;
++    for (repIndex = 0; repIndex < LZMA_NUM_REPS; repIndex++)
++    {
++      UInt32 lenTest;
++      UInt32 lenTestTemp;
++      UInt32 price;
++      const Byte *data2 = data - (reps[repIndex] + 1);
++      if (data[0] != data2[0] || data[1] != data2[1])
++        continue;
++      for (lenTest = 2; lenTest < numAvail && data[lenTest] == data2[lenTest]; lenTest++);
++      while (lenEnd < cur + lenTest)
++        p->opt[++lenEnd].price = kInfinityPrice;
++      lenTestTemp = lenTest;
++      price = repMatchPrice + GetPureRepPrice(p, repIndex, state, posState);
++      do
++      {
++        UInt32 curAndLenPrice = price + p->repLenEnc.prices[posState][lenTest - 2];
++        COptimal *opt = &p->opt[cur + lenTest];
++        if (curAndLenPrice < opt->price)
++        {
++          opt->price = curAndLenPrice;
++          opt->posPrev = cur;
++          opt->backPrev = repIndex;
++          opt->prev1IsChar = False;
++        }
++      }
++      while (--lenTest >= 2);
++      lenTest = lenTestTemp;
++      
++      if (repIndex == 0)
++        startLen = lenTest + 1;
++        
++      /* if (_maxMode) */
++        {
++          UInt32 lenTest2 = lenTest + 1;
++          UInt32 limit = lenTest2 + p->numFastBytes;
++          UInt32 nextRepMatchPrice;
++          if (limit > numAvailFull)
++            limit = numAvailFull;
++          for (; lenTest2 < limit && data[lenTest2] == data2[lenTest2]; lenTest2++);
++          lenTest2 -= lenTest + 1;
++          if (lenTest2 >= 2)
++          {
++            UInt32 state2 = kRepNextStates[state];
++            UInt32 posStateNext = (position + lenTest) & p->pbMask;
++            UInt32 curAndLenCharPrice =
++                price + p->repLenEnc.prices[posState][lenTest - 2] +
++                GET_PRICE_0(p->isMatch[state2][posStateNext]) +
++                LitEnc_GetPriceMatched(LIT_PROBS(position + lenTest, data[lenTest - 1]),
++                    data[lenTest], data2[lenTest], p->ProbPrices);
++            state2 = kLiteralNextStates[state2];
++            posStateNext = (position + lenTest + 1) & p->pbMask;
++            nextRepMatchPrice = curAndLenCharPrice +
++                GET_PRICE_1(p->isMatch[state2][posStateNext]) +
++                GET_PRICE_1(p->isRep[state2]);
++            
++            /* for (; lenTest2 >= 2; lenTest2--) */
++            {
++              UInt32 curAndLenPrice;
++              COptimal *opt;
++              UInt32 offset = cur + lenTest + 1 + lenTest2;
++              while (lenEnd < offset)
++                p->opt[++lenEnd].price = kInfinityPrice;
++              curAndLenPrice = nextRepMatchPrice + GetRepPrice(p, 0, lenTest2, state2, posStateNext);
++              opt = &p->opt[offset];
++              if (curAndLenPrice < opt->price)
++              {
++                opt->price = curAndLenPrice;
++                opt->posPrev = cur + lenTest + 1;
++                opt->backPrev = 0;
++                opt->prev1IsChar = True;
++                opt->prev2 = True;
++                opt->posPrev2 = cur;
++                opt->backPrev2 = repIndex;
++              }
++            }
++          }
++        }
++    }
++    }
++    /* for (UInt32 lenTest = 2; lenTest <= newLen; lenTest++) */
++    if (newLen > numAvail)
++    {
++      newLen = numAvail;
++      for (numPairs = 0; newLen > matches[numPairs]; numPairs += 2);
++      matches[numPairs] = newLen;
++      numPairs += 2;
++    }
++    if (newLen >= startLen)
++    {
++      UInt32 normalMatchPrice = matchPrice + GET_PRICE_0(p->isRep[state]);
++      UInt32 offs, curBack, posSlot;
++      UInt32 lenTest;
++      while (lenEnd < cur + newLen)
++        p->opt[++lenEnd].price = kInfinityPrice;
++
++      offs = 0;
++      while (startLen > matches[offs])
++        offs += 2;
++      curBack = matches[offs + 1];
++      GetPosSlot2(curBack, posSlot);
++      for (lenTest = /*2*/ startLen; ; lenTest++)
++      {
++        UInt32 curAndLenPrice = normalMatchPrice + p->lenEnc.prices[posState][lenTest - LZMA_MATCH_LEN_MIN];
++        UInt32 lenToPosState = GetLenToPosState(lenTest);
++        COptimal *opt;
++        if (curBack < kNumFullDistances)
++          curAndLenPrice += p->distancesPrices[lenToPosState][curBack];
++        else
++          curAndLenPrice += p->posSlotPrices[lenToPosState][posSlot] + p->alignPrices[curBack & kAlignMask];
++        
++        opt = &p->opt[cur + lenTest];
++        if (curAndLenPrice < opt->price)
++        {
++          opt->price = curAndLenPrice;
++          opt->posPrev = cur;
++          opt->backPrev = curBack + LZMA_NUM_REPS;
++          opt->prev1IsChar = False;
++        }
++
++        if (/*_maxMode && */lenTest == matches[offs])
++        {
++          /* Try Match + Literal + Rep0 */
++          const Byte *data2 = data - (curBack + 1);
++          UInt32 lenTest2 = lenTest + 1;
++          UInt32 limit = lenTest2 + p->numFastBytes;
++          UInt32 nextRepMatchPrice;
++          if (limit > numAvailFull)
++            limit = numAvailFull;
++          for (; lenTest2 < limit && data[lenTest2] == data2[lenTest2]; lenTest2++);
++          lenTest2 -= lenTest + 1;
++          if (lenTest2 >= 2)
++          {
++            UInt32 state2 = kMatchNextStates[state];
++            UInt32 posStateNext = (position + lenTest) & p->pbMask;
++            UInt32 curAndLenCharPrice = curAndLenPrice +
++                GET_PRICE_0(p->isMatch[state2][posStateNext]) +
++                LitEnc_GetPriceMatched(LIT_PROBS(position + lenTest, data[lenTest - 1]),
++                    data[lenTest], data2[lenTest], p->ProbPrices);
++            state2 = kLiteralNextStates[state2];
++            posStateNext = (posStateNext + 1) & p->pbMask;
++            nextRepMatchPrice = curAndLenCharPrice +
++                GET_PRICE_1(p->isMatch[state2][posStateNext]) +
++                GET_PRICE_1(p->isRep[state2]);
++            
++            /* for (; lenTest2 >= 2; lenTest2--) */
++            {
++              UInt32 offset = cur + lenTest + 1 + lenTest2;
++              UInt32 curAndLenPrice;
++              COptimal *opt;
++              while (lenEnd < offset)
++                p->opt[++lenEnd].price = kInfinityPrice;
++              curAndLenPrice = nextRepMatchPrice + GetRepPrice(p, 0, lenTest2, state2, posStateNext);
++              opt = &p->opt[offset];
++              if (curAndLenPrice < opt->price)
++              {
++                opt->price = curAndLenPrice;
++                opt->posPrev = cur + lenTest + 1;
++                opt->backPrev = 0;
++                opt->prev1IsChar = True;
++                opt->prev2 = True;
++                opt->posPrev2 = cur;
++                opt->backPrev2 = curBack + LZMA_NUM_REPS;
++              }
++            }
++          }
++          offs += 2;
++          if (offs == numPairs)
++            break;
++          curBack = matches[offs + 1];
++          if (curBack >= kNumFullDistances)
++            GetPosSlot2(curBack, posSlot);
++        }
++      }
++    }
++  }
++}
++
++#define ChangePair(smallDist, bigDist) (((bigDist) >> 7) > (smallDist))
++
++static UInt32 GetOptimumFast(CLzmaEnc *p, UInt32 *backRes)
++{
++  UInt32 numAvail, mainLen, mainDist, numPairs, repIndex, repLen, i;
++  const Byte *data;
++  const UInt32 *matches;
++
++  if (p->additionalOffset == 0)
++    mainLen = ReadMatchDistances(p, &numPairs);
++  else
++  {
++    mainLen = p->longestMatchLength;
++    numPairs = p->numPairs;
++  }
++
++  numAvail = p->numAvail;
++  *backRes = (UInt32)-1;
++  if (numAvail < 2)
++    return 1;
++  if (numAvail > LZMA_MATCH_LEN_MAX)
++    numAvail = LZMA_MATCH_LEN_MAX;
++  data = p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - 1;
++
++  repLen = repIndex = 0;
++  for (i = 0; i < LZMA_NUM_REPS; i++)
++  {
++    UInt32 len;
++    const Byte *data2 = data - (p->reps[i] + 1);
++    if (data[0] != data2[0] || data[1] != data2[1])
++      continue;
++    for (len = 2; len < numAvail && data[len] == data2[len]; len++);
++    if (len >= p->numFastBytes)
++    {
++      *backRes = i;
++      MovePos(p, len - 1);
++      return len;
++    }
++    if (len > repLen)
++    {
++      repIndex = i;
++      repLen = len;
++    }
++  }
++
++  matches = p->matches;
++  if (mainLen >= p->numFastBytes)
++  {
++    *backRes = matches[numPairs - 1] + LZMA_NUM_REPS;
++    MovePos(p, mainLen - 1);
++    return mainLen;
++  }
++
++  mainDist = 0; /* for GCC */
++  if (mainLen >= 2)
++  {
++    mainDist = matches[numPairs - 1];
++    while (numPairs > 2 && mainLen == matches[numPairs - 4] + 1)
++    {
++      if (!ChangePair(matches[numPairs - 3], mainDist))
++        break;
++      numPairs -= 2;
++      mainLen = matches[numPairs - 2];
++      mainDist = matches[numPairs - 1];
++    }
++    if (mainLen == 2 && mainDist >= 0x80)
++      mainLen = 1;
++  }
++
++  if (repLen >= 2 && (
++        (repLen + 1 >= mainLen) ||
++        (repLen + 2 >= mainLen && mainDist >= (1 << 9)) ||
++        (repLen + 3 >= mainLen && mainDist >= (1 << 15))))
++  {
++    *backRes = repIndex;
++    MovePos(p, repLen - 1);
++    return repLen;
++  }
++  
++  if (mainLen < 2 || numAvail <= 2)
++    return 1;
++
++  p->longestMatchLength = ReadMatchDistances(p, &p->numPairs);
++  if (p->longestMatchLength >= 2)
++  {
++    UInt32 newDistance = matches[p->numPairs - 1];
++    if ((p->longestMatchLength >= mainLen && newDistance < mainDist) ||
++        (p->longestMatchLength == mainLen + 1 && !ChangePair(mainDist, newDistance)) ||
++        (p->longestMatchLength > mainLen + 1) ||
++        (p->longestMatchLength + 1 >= mainLen && mainLen >= 3 && ChangePair(newDistance, mainDist)))
++      return 1;
++  }
++  
++  data = p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - 1;
++  for (i = 0; i < LZMA_NUM_REPS; i++)
++  {
++    UInt32 len, limit;
++    const Byte *data2 = data - (p->reps[i] + 1);
++    if (data[0] != data2[0] || data[1] != data2[1])
++      continue;
++    limit = mainLen - 1;
++    for (len = 2; len < limit && data[len] == data2[len]; len++);
++    if (len >= limit)
++      return 1;
++  }
++  *backRes = mainDist + LZMA_NUM_REPS;
++  MovePos(p, mainLen - 2);
++  return mainLen;
++}
++
++static void WriteEndMarker(CLzmaEnc *p, UInt32 posState)
++{
++  UInt32 len;
++  RangeEnc_EncodeBit(&p->rc, &p->isMatch[p->state][posState], 1);
++  RangeEnc_EncodeBit(&p->rc, &p->isRep[p->state], 0);
++  p->state = kMatchNextStates[p->state];
++  len = LZMA_MATCH_LEN_MIN;
++  LenEnc_Encode2(&p->lenEnc, &p->rc, len - LZMA_MATCH_LEN_MIN, posState, !p->fastMode, p->ProbPrices);
++  RcTree_Encode(&p->rc, p->posSlotEncoder[GetLenToPosState(len)], kNumPosSlotBits, (1 << kNumPosSlotBits) - 1);
++  RangeEnc_EncodeDirectBits(&p->rc, (((UInt32)1 << 30) - 1) >> kNumAlignBits, 30 - kNumAlignBits);
++  RcTree_ReverseEncode(&p->rc, p->posAlignEncoder, kNumAlignBits, kAlignMask);
++}
++
++static SRes CheckErrors(CLzmaEnc *p)
++{
++  if (p->result != SZ_OK)
++    return p->result;
++  if (p->rc.res != SZ_OK)
++    p->result = SZ_ERROR_WRITE;
++  if (p->matchFinderBase.result != SZ_OK)
++    p->result = SZ_ERROR_READ;
++  if (p->result != SZ_OK)
++    p->finished = True;
++  return p->result;
++}
++
++static SRes Flush(CLzmaEnc *p, UInt32 nowPos)
++{
++  /* ReleaseMFStream(); */
++  p->finished = True;
++  if (p->writeEndMark)
++    WriteEndMarker(p, nowPos & p->pbMask);
++  RangeEnc_FlushData(&p->rc);
++  RangeEnc_FlushStream(&p->rc);
++  return CheckErrors(p);
++}
++
++static void FillAlignPrices(CLzmaEnc *p)
++{
++  UInt32 i;
++  for (i = 0; i < kAlignTableSize; i++)
++    p->alignPrices[i] = RcTree_ReverseGetPrice(p->posAlignEncoder, kNumAlignBits, i, p->ProbPrices);
++  p->alignPriceCount = 0;
++}
++
++static void FillDistancesPrices(CLzmaEnc *p)
++{
++  UInt32 tempPrices[kNumFullDistances];
++  UInt32 i, lenToPosState;
++  for (i = kStartPosModelIndex; i < kNumFullDistances; i++)
++  {
++    UInt32 posSlot = GetPosSlot1(i);
++    UInt32 footerBits = ((posSlot >> 1) - 1);
++    UInt32 base = ((2 | (posSlot & 1)) << footerBits);
++    tempPrices[i] = RcTree_ReverseGetPrice(p->posEncoders + base - posSlot - 1, footerBits, i - base, p->ProbPrices);
++  }
++
++  for (lenToPosState = 0; lenToPosState < kNumLenToPosStates; lenToPosState++)
++  {
++    UInt32 posSlot;
++    const CLzmaProb *encoder = p->posSlotEncoder[lenToPosState];
++    UInt32 *posSlotPrices = p->posSlotPrices[lenToPosState];
++    for (posSlot = 0; posSlot < p->distTableSize; posSlot++)
++      posSlotPrices[posSlot] = RcTree_GetPrice(encoder, kNumPosSlotBits, posSlot, p->ProbPrices);
++    for (posSlot = kEndPosModelIndex; posSlot < p->distTableSize; posSlot++)
++      posSlotPrices[posSlot] += ((((posSlot >> 1) - 1) - kNumAlignBits) << kNumBitPriceShiftBits);
++
++    {
++      UInt32 *distancesPrices = p->distancesPrices[lenToPosState];
++      UInt32 i;
++      for (i = 0; i < kStartPosModelIndex; i++)
++        distancesPrices[i] = posSlotPrices[i];
++      for (; i < kNumFullDistances; i++)
++        distancesPrices[i] = posSlotPrices[GetPosSlot1(i)] + tempPrices[i];
++    }
++  }
++  p->matchPriceCount = 0;
++}
++
++void LzmaEnc_Construct(CLzmaEnc *p)
++{
++  RangeEnc_Construct(&p->rc);
++  MatchFinder_Construct(&p->matchFinderBase);
++  #ifndef _7ZIP_ST
++  MatchFinderMt_Construct(&p->matchFinderMt);
++  p->matchFinderMt.MatchFinder = &p->matchFinderBase;
++  #endif
++
++  {
++    CLzmaEncProps props;
++    LzmaEncProps_Init(&props);
++    LzmaEnc_SetProps(p, &props);
++  }
++
++  #ifndef LZMA_LOG_BSR
++  LzmaEnc_FastPosInit(p->g_FastPos);
++  #endif
++
++  LzmaEnc_InitPriceTables(p->ProbPrices);
++  p->litProbs = 0;
++  p->saveState.litProbs = 0;
++}
++
++CLzmaEncHandle LzmaEnc_Create(ISzAlloc *alloc)
++{
++  void *p;
++  p = alloc->Alloc(alloc, sizeof(CLzmaEnc));
++  if (p != 0)
++    LzmaEnc_Construct((CLzmaEnc *)p);
++  return p;
++}
++
++void LzmaEnc_FreeLits(CLzmaEnc *p, ISzAlloc *alloc)
++{
++  alloc->Free(alloc, p->litProbs);
++  alloc->Free(alloc, p->saveState.litProbs);
++  p->litProbs = 0;
++  p->saveState.litProbs = 0;
++}
++
++void LzmaEnc_Destruct(CLzmaEnc *p, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  #ifndef _7ZIP_ST
++  MatchFinderMt_Destruct(&p->matchFinderMt, allocBig);
++  #endif
++  MatchFinder_Free(&p->matchFinderBase, allocBig);
++  LzmaEnc_FreeLits(p, alloc);
++  RangeEnc_Free(&p->rc, alloc);
++}
++
++void LzmaEnc_Destroy(CLzmaEncHandle p, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  LzmaEnc_Destruct((CLzmaEnc *)p, alloc, allocBig);
++  alloc->Free(alloc, p);
++}
++
++static SRes LzmaEnc_CodeOneBlock(CLzmaEnc *p, Bool useLimits, UInt32 maxPackSize, UInt32 maxUnpackSize)
++{
++  UInt32 nowPos32, startPos32;
++  if (p->needInit)
++  {
++    p->matchFinder.Init(p->matchFinderObj);
++    p->needInit = 0;
++  }
++
++  if (p->finished)
++    return p->result;
++  RINOK(CheckErrors(p));
++
++  nowPos32 = (UInt32)p->nowPos64;
++  startPos32 = nowPos32;
++
++  if (p->nowPos64 == 0)
++  {
++    UInt32 numPairs;
++    Byte curByte;
++    if (p->matchFinder.GetNumAvailableBytes(p->matchFinderObj) == 0)
++      return Flush(p, nowPos32);
++    ReadMatchDistances(p, &numPairs);
++    RangeEnc_EncodeBit(&p->rc, &p->isMatch[p->state][0], 0);
++    p->state = kLiteralNextStates[p->state];
++    curByte = p->matchFinder.GetIndexByte(p->matchFinderObj, 0 - p->additionalOffset);
++    LitEnc_Encode(&p->rc, p->litProbs, curByte);
++    p->additionalOffset--;
++    nowPos32++;
++  }
++
++  if (p->matchFinder.GetNumAvailableBytes(p->matchFinderObj) != 0)
++  for (;;)
++  {
++    UInt32 pos, len, posState;
++
++    if (p->fastMode)
++      len = GetOptimumFast(p, &pos);
++    else
++      len = GetOptimum(p, nowPos32, &pos);
++
++    #ifdef SHOW_STAT2
++    printf("\n pos = %4X,   len = %d   pos = %d", nowPos32, len, pos);
++    #endif
++
++    posState = nowPos32 & p->pbMask;
++    if (len == 1 && pos == (UInt32)-1)
++    {
++      Byte curByte;
++      CLzmaProb *probs;
++      const Byte *data;
++
++      RangeEnc_EncodeBit(&p->rc, &p->isMatch[p->state][posState], 0);
++      data = p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - p->additionalOffset;
++      curByte = *data;
++      probs = LIT_PROBS(nowPos32, *(data - 1));
++      if (IsCharState(p->state))
++        LitEnc_Encode(&p->rc, probs, curByte);
++      else
++        LitEnc_EncodeMatched(&p->rc, probs, curByte, *(data - p->reps[0] - 1));
++      p->state = kLiteralNextStates[p->state];
++    }
++    else
++    {
++      RangeEnc_EncodeBit(&p->rc, &p->isMatch[p->state][posState], 1);
++      if (pos < LZMA_NUM_REPS)
++      {
++        RangeEnc_EncodeBit(&p->rc, &p->isRep[p->state], 1);
++        if (pos == 0)
++        {
++          RangeEnc_EncodeBit(&p->rc, &p->isRepG0[p->state], 0);
++          RangeEnc_EncodeBit(&p->rc, &p->isRep0Long[p->state][posState], ((len == 1) ? 0 : 1));
++        }
++        else
++        {
++          UInt32 distance = p->reps[pos];
++          RangeEnc_EncodeBit(&p->rc, &p->isRepG0[p->state], 1);
++          if (pos == 1)
++            RangeEnc_EncodeBit(&p->rc, &p->isRepG1[p->state], 0);
++          else
++          {
++            RangeEnc_EncodeBit(&p->rc, &p->isRepG1[p->state], 1);
++            RangeEnc_EncodeBit(&p->rc, &p->isRepG2[p->state], pos - 2);
++            if (pos == 3)
++              p->reps[3] = p->reps[2];
++            p->reps[2] = p->reps[1];
++          }
++          p->reps[1] = p->reps[0];
++          p->reps[0] = distance;
++        }
++        if (len == 1)
++          p->state = kShortRepNextStates[p->state];
++        else
++        {
++          LenEnc_Encode2(&p->repLenEnc, &p->rc, len - LZMA_MATCH_LEN_MIN, posState, !p->fastMode, p->ProbPrices);
++          p->state = kRepNextStates[p->state];
++        }
++      }
++      else
++      {
++        UInt32 posSlot;
++        RangeEnc_EncodeBit(&p->rc, &p->isRep[p->state], 0);
++        p->state = kMatchNextStates[p->state];
++        LenEnc_Encode2(&p->lenEnc, &p->rc, len - LZMA_MATCH_LEN_MIN, posState, !p->fastMode, p->ProbPrices);
++        pos -= LZMA_NUM_REPS;
++        GetPosSlot(pos, posSlot);
++        RcTree_Encode(&p->rc, p->posSlotEncoder[GetLenToPosState(len)], kNumPosSlotBits, posSlot);
++        
++        if (posSlot >= kStartPosModelIndex)
++        {
++          UInt32 footerBits = ((posSlot >> 1) - 1);
++          UInt32 base = ((2 | (posSlot & 1)) << footerBits);
++          UInt32 posReduced = pos - base;
++
++          if (posSlot < kEndPosModelIndex)
++            RcTree_ReverseEncode(&p->rc, p->posEncoders + base - posSlot - 1, footerBits, posReduced);
++          else
++          {
++            RangeEnc_EncodeDirectBits(&p->rc, posReduced >> kNumAlignBits, footerBits - kNumAlignBits);
++            RcTree_ReverseEncode(&p->rc, p->posAlignEncoder, kNumAlignBits, posReduced & kAlignMask);
++            p->alignPriceCount++;
++          }
++        }
++        p->reps[3] = p->reps[2];
++        p->reps[2] = p->reps[1];
++        p->reps[1] = p->reps[0];
++        p->reps[0] = pos;
++        p->matchPriceCount++;
++      }
++    }
++    p->additionalOffset -= len;
++    nowPos32 += len;
++    if (p->additionalOffset == 0)
++    {
++      UInt32 processed;
++      if (!p->fastMode)
++      {
++        if (p->matchPriceCount >= (1 << 7))
++          FillDistancesPrices(p);
++        if (p->alignPriceCount >= kAlignTableSize)
++          FillAlignPrices(p);
++      }
++      if (p->matchFinder.GetNumAvailableBytes(p->matchFinderObj) == 0)
++        break;
++      processed = nowPos32 - startPos32;
++      if (useLimits)
++      {
++        if (processed + kNumOpts + 300 >= maxUnpackSize ||
++            RangeEnc_GetProcessed(&p->rc) + kNumOpts * 2 >= maxPackSize)
++          break;
++      }
++      else if (processed >= (1 << 15))
++      {
++        p->nowPos64 += nowPos32 - startPos32;
++        return CheckErrors(p);
++      }
++    }
++  }
++  p->nowPos64 += nowPos32 - startPos32;
++  return Flush(p, nowPos32);
++}
++
++#define kBigHashDicLimit ((UInt32)1 << 24)
++
++static SRes LzmaEnc_Alloc(CLzmaEnc *p, UInt32 keepWindowSize, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  UInt32 beforeSize = kNumOpts;
++  Bool btMode;
++  if (!RangeEnc_Alloc(&p->rc, alloc))
++    return SZ_ERROR_MEM;
++  btMode = (p->matchFinderBase.btMode != 0);
++  #ifndef _7ZIP_ST
++  p->mtMode = (p->multiThread && !p->fastMode && btMode);
++  #endif
++
++  {
++    unsigned lclp = p->lc + p->lp;
++    if (p->litProbs == 0 || p->saveState.litProbs == 0 || p->lclp != lclp)
++    {
++      LzmaEnc_FreeLits(p, alloc);
++      p->litProbs = (CLzmaProb *)alloc->Alloc(alloc, (0x300 << lclp) * sizeof(CLzmaProb));
++      p->saveState.litProbs = (CLzmaProb *)alloc->Alloc(alloc, (0x300 << lclp) * sizeof(CLzmaProb));
++      if (p->litProbs == 0 || p->saveState.litProbs == 0)
++      {
++        LzmaEnc_FreeLits(p, alloc);
++        return SZ_ERROR_MEM;
++      }
++      p->lclp = lclp;
++    }
++  }
++
++  p->matchFinderBase.bigHash = (p->dictSize > kBigHashDicLimit);
++
++  if (beforeSize + p->dictSize < keepWindowSize)
++    beforeSize = keepWindowSize - p->dictSize;
++
++  #ifndef _7ZIP_ST
++  if (p->mtMode)
++  {
++    RINOK(MatchFinderMt_Create(&p->matchFinderMt, p->dictSize, beforeSize, p->numFastBytes, LZMA_MATCH_LEN_MAX, allocBig));
++    p->matchFinderObj = &p->matchFinderMt;
++    MatchFinderMt_CreateVTable(&p->matchFinderMt, &p->matchFinder);
++  }
++  else
++  #endif
++  {
++    if (!MatchFinder_Create(&p->matchFinderBase, p->dictSize, beforeSize, p->numFastBytes, LZMA_MATCH_LEN_MAX, allocBig))
++      return SZ_ERROR_MEM;
++    p->matchFinderObj = &p->matchFinderBase;
++    MatchFinder_CreateVTable(&p->matchFinderBase, &p->matchFinder);
++  }
++  return SZ_OK;
++}
++
++void LzmaEnc_Init(CLzmaEnc *p)
++{
++  UInt32 i;
++  p->state = 0;
++  for (i = 0 ; i < LZMA_NUM_REPS; i++)
++    p->reps[i] = 0;
++
++  RangeEnc_Init(&p->rc);
++
++
++  for (i = 0; i < kNumStates; i++)
++  {
++    UInt32 j;
++    for (j = 0; j < LZMA_NUM_PB_STATES_MAX; j++)
++    {
++      p->isMatch[i][j] = kProbInitValue;
++      p->isRep0Long[i][j] = kProbInitValue;
++    }
++    p->isRep[i] = kProbInitValue;
++    p->isRepG0[i] = kProbInitValue;
++    p->isRepG1[i] = kProbInitValue;
++    p->isRepG2[i] = kProbInitValue;
++  }
++
++  {
++    UInt32 num = 0x300 << (p->lp + p->lc);
++    for (i = 0; i < num; i++)
++      p->litProbs[i] = kProbInitValue;
++  }
++
++  {
++    for (i = 0; i < kNumLenToPosStates; i++)
++    {
++      CLzmaProb *probs = p->posSlotEncoder[i];
++      UInt32 j;
++      for (j = 0; j < (1 << kNumPosSlotBits); j++)
++        probs[j] = kProbInitValue;
++    }
++  }
++  {
++    for (i = 0; i < kNumFullDistances - kEndPosModelIndex; i++)
++      p->posEncoders[i] = kProbInitValue;
++  }
++
++  LenEnc_Init(&p->lenEnc.p);
++  LenEnc_Init(&p->repLenEnc.p);
++
++  for (i = 0; i < (1 << kNumAlignBits); i++)
++    p->posAlignEncoder[i] = kProbInitValue;
++
++  p->optimumEndIndex = 0;
++  p->optimumCurrentIndex = 0;
++  p->additionalOffset = 0;
++
++  p->pbMask = (1 << p->pb) - 1;
++  p->lpMask = (1 << p->lp) - 1;
++}
++
++void LzmaEnc_InitPrices(CLzmaEnc *p)
++{
++  if (!p->fastMode)
++  {
++    FillDistancesPrices(p);
++    FillAlignPrices(p);
++  }
++
++  p->lenEnc.tableSize =
++  p->repLenEnc.tableSize =
++      p->numFastBytes + 1 - LZMA_MATCH_LEN_MIN;
++  LenPriceEnc_UpdateTables(&p->lenEnc, 1 << p->pb, p->ProbPrices);
++  LenPriceEnc_UpdateTables(&p->repLenEnc, 1 << p->pb, p->ProbPrices);
++}
++
++static SRes LzmaEnc_AllocAndInit(CLzmaEnc *p, UInt32 keepWindowSize, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  UInt32 i;
++  for (i = 0; i < (UInt32)kDicLogSizeMaxCompress; i++)
++    if (p->dictSize <= ((UInt32)1 << i))
++      break;
++  p->distTableSize = i * 2;
++
++  p->finished = False;
++  p->result = SZ_OK;
++  RINOK(LzmaEnc_Alloc(p, keepWindowSize, alloc, allocBig));
++  LzmaEnc_Init(p);
++  LzmaEnc_InitPrices(p);
++  p->nowPos64 = 0;
++  return SZ_OK;
++}
++
++static SRes LzmaEnc_Prepare(CLzmaEncHandle pp, ISeqOutStream *outStream, ISeqInStream *inStream,
++    ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  p->matchFinderBase.stream = inStream;
++  p->needInit = 1;
++  p->rc.outStream = outStream;
++  return LzmaEnc_AllocAndInit(p, 0, alloc, allocBig);
++}
++
++SRes LzmaEnc_PrepareForLzma2(CLzmaEncHandle pp,
++    ISeqInStream *inStream, UInt32 keepWindowSize,
++    ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  p->matchFinderBase.stream = inStream;
++  p->needInit = 1;
++  return LzmaEnc_AllocAndInit(p, keepWindowSize, alloc, allocBig);
++}
++
++static void LzmaEnc_SetInputBuf(CLzmaEnc *p, const Byte *src, SizeT srcLen)
++{
++  p->matchFinderBase.directInput = 1;
++  p->matchFinderBase.bufferBase = (Byte *)src;
++  p->matchFinderBase.directInputRem = srcLen;
++}
++
++SRes LzmaEnc_MemPrepare(CLzmaEncHandle pp, const Byte *src, SizeT srcLen,
++    UInt32 keepWindowSize, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  LzmaEnc_SetInputBuf(p, src, srcLen);
++  p->needInit = 1;
++
++  return LzmaEnc_AllocAndInit(p, keepWindowSize, alloc, allocBig);
++}
++
++void LzmaEnc_Finish(CLzmaEncHandle pp)
++{
++  #ifndef _7ZIP_ST
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  if (p->mtMode)
++    MatchFinderMt_ReleaseStream(&p->matchFinderMt);
++  #else
++  pp = pp;
++  #endif
++}
++
++typedef struct
++{
++  ISeqOutStream funcTable;
++  Byte *data;
++  SizeT rem;
++  Bool overflow;
++} CSeqOutStreamBuf;
++
++static size_t MyWrite(void *pp, const void *data, size_t size)
++{
++  CSeqOutStreamBuf *p = (CSeqOutStreamBuf *)pp;
++  if (p->rem < size)
++  {
++    size = p->rem;
++    p->overflow = True;
++  }
++  memcpy(p->data, data, size);
++  p->rem -= size;
++  p->data += size;
++  return size;
++}
++
++
++UInt32 LzmaEnc_GetNumAvailableBytes(CLzmaEncHandle pp)
++{
++  const CLzmaEnc *p = (CLzmaEnc *)pp;
++  return p->matchFinder.GetNumAvailableBytes(p->matchFinderObj);
++}
++
++const Byte *LzmaEnc_GetCurBuf(CLzmaEncHandle pp)
++{
++  const CLzmaEnc *p = (CLzmaEnc *)pp;
++  return p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - p->additionalOffset;
++}
++
++SRes LzmaEnc_CodeOneMemBlock(CLzmaEncHandle pp, Bool reInit,
++    Byte *dest, size_t *destLen, UInt32 desiredPackSize, UInt32 *unpackSize)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  UInt64 nowPos64;
++  SRes res;
++  CSeqOutStreamBuf outStream;
++
++  outStream.funcTable.Write = MyWrite;
++  outStream.data = dest;
++  outStream.rem = *destLen;
++  outStream.overflow = False;
++
++  p->writeEndMark = False;
++  p->finished = False;
++  p->result = SZ_OK;
++
++  if (reInit)
++    LzmaEnc_Init(p);
++  LzmaEnc_InitPrices(p);
++  nowPos64 = p->nowPos64;
++  RangeEnc_Init(&p->rc);
++  p->rc.outStream = &outStream.funcTable;
++
++  res = LzmaEnc_CodeOneBlock(p, True, desiredPackSize, *unpackSize);
++  
++  *unpackSize = (UInt32)(p->nowPos64 - nowPos64);
++  *destLen -= outStream.rem;
++  if (outStream.overflow)
++    return SZ_ERROR_OUTPUT_EOF;
++
++  return res;
++}
++
++static SRes LzmaEnc_Encode2(CLzmaEnc *p, ICompressProgress *progress)
++{
++  SRes res = SZ_OK;
++
++  #ifndef _7ZIP_ST
++  Byte allocaDummy[0x300];
++  int i = 0;
++  for (i = 0; i < 16; i++)
++    allocaDummy[i] = (Byte)i;
++  #endif
++
++  for (;;)
++  {
++    res = LzmaEnc_CodeOneBlock(p, False, 0, 0);
++    if (res != SZ_OK || p->finished != 0)
++      break;
++    if (progress != 0)
++    {
++      res = progress->Progress(progress, p->nowPos64, RangeEnc_GetProcessed(&p->rc));
++      if (res != SZ_OK)
++      {
++        res = SZ_ERROR_PROGRESS;
++        break;
++      }
++    }
++  }
++  LzmaEnc_Finish(p);
++  return res;
++}
++
++SRes LzmaEnc_Encode(CLzmaEncHandle pp, ISeqOutStream *outStream, ISeqInStream *inStream, ICompressProgress *progress,
++    ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  RINOK(LzmaEnc_Prepare(pp, outStream, inStream, alloc, allocBig));
++  return LzmaEnc_Encode2((CLzmaEnc *)pp, progress);
++}
++
++SRes LzmaEnc_WriteProperties(CLzmaEncHandle pp, Byte *props, SizeT *size)
++{
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++  int i;
++  UInt32 dictSize = p->dictSize;
++  if (*size < LZMA_PROPS_SIZE)
++    return SZ_ERROR_PARAM;
++  *size = LZMA_PROPS_SIZE;
++  props[0] = (Byte)((p->pb * 5 + p->lp) * 9 + p->lc);
++
++  for (i = 11; i <= 30; i++)
++  {
++    if (dictSize <= ((UInt32)2 << i))
++    {
++      dictSize = (2 << i);
++      break;
++    }
++    if (dictSize <= ((UInt32)3 << i))
++    {
++      dictSize = (3 << i);
++      break;
++    }
++  }
++
++  for (i = 0; i < 4; i++)
++    props[1 + i] = (Byte)(dictSize >> (8 * i));
++  return SZ_OK;
++}
++
++SRes LzmaEnc_MemEncode(CLzmaEncHandle pp, Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
++    int writeEndMark, ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  SRes res;
++  CLzmaEnc *p = (CLzmaEnc *)pp;
++
++  CSeqOutStreamBuf outStream;
++
++  LzmaEnc_SetInputBuf(p, src, srcLen);
++
++  outStream.funcTable.Write = MyWrite;
++  outStream.data = dest;
++  outStream.rem = *destLen;
++  outStream.overflow = False;
++
++  p->writeEndMark = writeEndMark;
++
++  p->rc.outStream = &outStream.funcTable;
++  res = LzmaEnc_MemPrepare(pp, src, srcLen, 0, alloc, allocBig);
++  if (res == SZ_OK)
++    res = LzmaEnc_Encode2(p, progress);
++
++  *destLen -= outStream.rem;
++  if (outStream.overflow)
++    return SZ_ERROR_OUTPUT_EOF;
++  return res;
++}
++
++SRes LzmaEncode(Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
++    const CLzmaEncProps *props, Byte *propsEncoded, SizeT *propsSize, int writeEndMark,
++    ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig)
++{
++  CLzmaEnc *p = (CLzmaEnc *)LzmaEnc_Create(alloc);
++  SRes res;
++  if (p == 0)
++    return SZ_ERROR_MEM;
++
++  res = LzmaEnc_SetProps(p, props);
++  if (res == SZ_OK)
++  {
++    res = LzmaEnc_WriteProperties(p, propsEncoded, propsSize);
++    if (res == SZ_OK)
++      res = LzmaEnc_MemEncode(p, dest, destLen, src, srcLen,
++          writeEndMark, progress, alloc, allocBig);
++  }
++
++  LzmaEnc_Destroy(p, alloc, allocBig);
++  return res;
++}
+--- /dev/null
++++ b/lib/lzma/Makefile
+@@ -0,0 +1,7 @@
++lzma_compress-objs := LzFind.o LzmaEnc.o
++lzma_decompress-objs := LzmaDec.o
++
++obj-$(CONFIG_LZMA_COMPRESS) += lzma_compress.o
++obj-$(CONFIG_LZMA_DECOMPRESS) += lzma_decompress.o
++
++EXTRA_CFLAGS += -Iinclude/linux -Iinclude/linux/lzma -include types.h
diff --git a/trunk/target/linux/generic/patches-3.18/531-debloat_lzma.patch b/trunk/target/linux/generic/patches-3.18/531-debloat_lzma.patch
new file mode 100644 (file)
index 0000000..aa3c498
--- /dev/null
@@ -0,0 +1,1024 @@
+--- a/include/linux/lzma/LzmaDec.h
++++ b/include/linux/lzma/LzmaDec.h
+@@ -31,14 +31,6 @@ typedef struct _CLzmaProps
+   UInt32 dicSize;
+ } CLzmaProps;
+-/* LzmaProps_Decode - decodes properties
+-Returns:
+-  SZ_OK
+-  SZ_ERROR_UNSUPPORTED - Unsupported properties
+-*/
+-
+-SRes LzmaProps_Decode(CLzmaProps *p, const Byte *data, unsigned size);
+-
+ /* ---------- LZMA Decoder state ---------- */
+@@ -70,8 +62,6 @@ typedef struct
+ #define LzmaDec_Construct(p) { (p)->dic = 0; (p)->probs = 0; }
+-void LzmaDec_Init(CLzmaDec *p);
+-
+ /* There are two types of LZMA streams:
+      0) Stream with end mark. That end mark adds about 6 bytes to compressed size.
+      1) Stream without end mark. You must know exact uncompressed size to decompress such stream. */
+@@ -108,97 +98,6 @@ typedef enum
+ /* ELzmaStatus is used only as output value for function call */
+-
+-/* ---------- Interfaces ---------- */
+-
+-/* There are 3 levels of interfaces:
+-     1) Dictionary Interface
+-     2) Buffer Interface
+-     3) One Call Interface
+-   You can select any of these interfaces, but don't mix functions from different
+-   groups for same object. */
+-
+-
+-/* There are two variants to allocate state for Dictionary Interface:
+-     1) LzmaDec_Allocate / LzmaDec_Free
+-     2) LzmaDec_AllocateProbs / LzmaDec_FreeProbs
+-   You can use variant 2, if you set dictionary buffer manually.
+-   For Buffer Interface you must always use variant 1.
+-
+-LzmaDec_Allocate* can return:
+-  SZ_OK
+-  SZ_ERROR_MEM         - Memory allocation error
+-  SZ_ERROR_UNSUPPORTED - Unsupported properties
+-*/
+-   
+-SRes LzmaDec_AllocateProbs(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc);
+-void LzmaDec_FreeProbs(CLzmaDec *p, ISzAlloc *alloc);
+-
+-SRes LzmaDec_Allocate(CLzmaDec *state, const Byte *prop, unsigned propsSize, ISzAlloc *alloc);
+-void LzmaDec_Free(CLzmaDec *state, ISzAlloc *alloc);
+-
+-/* ---------- Dictionary Interface ---------- */
+-
+-/* You can use it, if you want to eliminate the overhead for data copying from
+-   dictionary to some other external buffer.
+-   You must work with CLzmaDec variables directly in this interface.
+-
+-   STEPS:
+-     LzmaDec_Constr()
+-     LzmaDec_Allocate()
+-     for (each new stream)
+-     {
+-       LzmaDec_Init()
+-       while (it needs more decompression)
+-       {
+-         LzmaDec_DecodeToDic()
+-         use data from CLzmaDec::dic and update CLzmaDec::dicPos
+-       }
+-     }
+-     LzmaDec_Free()
+-*/
+-
+-/* LzmaDec_DecodeToDic
+-   
+-   The decoding to internal dictionary buffer (CLzmaDec::dic).
+-   You must manually update CLzmaDec::dicPos, if it reaches CLzmaDec::dicBufSize !!!
+-
+-finishMode:
+-  It has meaning only if the decoding reaches output limit (dicLimit).
+-  LZMA_FINISH_ANY - Decode just dicLimit bytes.
+-  LZMA_FINISH_END - Stream must be finished after dicLimit.
+-
+-Returns:
+-  SZ_OK
+-    status:
+-      LZMA_STATUS_FINISHED_WITH_MARK
+-      LZMA_STATUS_NOT_FINISHED
+-      LZMA_STATUS_NEEDS_MORE_INPUT
+-      LZMA_STATUS_MAYBE_FINISHED_WITHOUT_MARK
+-  SZ_ERROR_DATA - Data error
+-*/
+-
+-SRes LzmaDec_DecodeToDic(CLzmaDec *p, SizeT dicLimit,
+-    const Byte *src, SizeT *srcLen, ELzmaFinishMode finishMode, ELzmaStatus *status);
+-
+-
+-/* ---------- Buffer Interface ---------- */
+-
+-/* It's zlib-like interface.
+-   See LzmaDec_DecodeToDic description for information about STEPS and return results,
+-   but you must use LzmaDec_DecodeToBuf instead of LzmaDec_DecodeToDic and you don't need
+-   to work with CLzmaDec variables manually.
+-
+-finishMode:
+-  It has meaning only if the decoding reaches output limit (*destLen).
+-  LZMA_FINISH_ANY - Decode just destLen bytes.
+-  LZMA_FINISH_END - Stream must be finished after (*destLen).
+-*/
+-
+-SRes LzmaDec_DecodeToBuf(CLzmaDec *p, Byte *dest, SizeT *destLen,
+-    const Byte *src, SizeT *srcLen, ELzmaFinishMode finishMode, ELzmaStatus *status);
+-
+-
+ /* ---------- One Call Interface ---------- */
+ /* LzmaDecode
+--- a/lib/lzma/LzmaDec.c
++++ b/lib/lzma/LzmaDec.c
+@@ -682,7 +682,7 @@ static void LzmaDec_InitRc(CLzmaDec *p,
+   p->needFlush = 0;
+ }
+-void LzmaDec_InitDicAndState(CLzmaDec *p, Bool initDic, Bool initState)
++static void LzmaDec_InitDicAndState(CLzmaDec *p, Bool initDic, Bool initState)
+ {
+   p->needFlush = 1;
+   p->remainLen = 0;
+@@ -698,7 +698,7 @@ void LzmaDec_InitDicAndState(CLzmaDec *p
+     p->needInitState = 1;
+ }
+-void LzmaDec_Init(CLzmaDec *p)
++static void LzmaDec_Init(CLzmaDec *p)
+ {
+   p->dicPos = 0;
+   LzmaDec_InitDicAndState(p, True, True);
+@@ -716,7 +716,7 @@ static void LzmaDec_InitStateReal(CLzmaD
+   p->needInitState = 0;
+ }
+-SRes LzmaDec_DecodeToDic(CLzmaDec *p, SizeT dicLimit, const Byte *src, SizeT *srcLen,
++static SRes LzmaDec_DecodeToDic(CLzmaDec *p, SizeT dicLimit, const Byte *src, SizeT *srcLen,
+     ELzmaFinishMode finishMode, ELzmaStatus *status)
+ {
+   SizeT inSize = *srcLen;
+@@ -837,65 +837,13 @@ SRes LzmaDec_DecodeToDic(CLzmaDec *p, Si
+   return (p->code == 0) ? SZ_OK : SZ_ERROR_DATA;
+ }
+-SRes LzmaDec_DecodeToBuf(CLzmaDec *p, Byte *dest, SizeT *destLen, const Byte *src, SizeT *srcLen, ELzmaFinishMode finishMode, ELzmaStatus *status)
+-{
+-  SizeT outSize = *destLen;
+-  SizeT inSize = *srcLen;
+-  *srcLen = *destLen = 0;
+-  for (;;)
+-  {
+-    SizeT inSizeCur = inSize, outSizeCur, dicPos;
+-    ELzmaFinishMode curFinishMode;
+-    SRes res;
+-    if (p->dicPos == p->dicBufSize)
+-      p->dicPos = 0;
+-    dicPos = p->dicPos;
+-    if (outSize > p->dicBufSize - dicPos)
+-    {
+-      outSizeCur = p->dicBufSize;
+-      curFinishMode = LZMA_FINISH_ANY;
+-    }
+-    else
+-    {
+-      outSizeCur = dicPos + outSize;
+-      curFinishMode = finishMode;
+-    }
+-
+-    res = LzmaDec_DecodeToDic(p, outSizeCur, src, &inSizeCur, curFinishMode, status);
+-    src += inSizeCur;
+-    inSize -= inSizeCur;
+-    *srcLen += inSizeCur;
+-    outSizeCur = p->dicPos - dicPos;
+-    memcpy(dest, p->dic + dicPos, outSizeCur);
+-    dest += outSizeCur;
+-    outSize -= outSizeCur;
+-    *destLen += outSizeCur;
+-    if (res != 0)
+-      return res;
+-    if (outSizeCur == 0 || outSize == 0)
+-      return SZ_OK;
+-  }
+-}
+-
+-void LzmaDec_FreeProbs(CLzmaDec *p, ISzAlloc *alloc)
++static void LzmaDec_FreeProbs(CLzmaDec *p, ISzAlloc *alloc)
+ {
+   alloc->Free(alloc, p->probs);
+   p->probs = 0;
+ }
+-static void LzmaDec_FreeDict(CLzmaDec *p, ISzAlloc *alloc)
+-{
+-  alloc->Free(alloc, p->dic);
+-  p->dic = 0;
+-}
+-
+-void LzmaDec_Free(CLzmaDec *p, ISzAlloc *alloc)
+-{
+-  LzmaDec_FreeProbs(p, alloc);
+-  LzmaDec_FreeDict(p, alloc);
+-}
+-
+-SRes LzmaProps_Decode(CLzmaProps *p, const Byte *data, unsigned size)
++static SRes LzmaProps_Decode(CLzmaProps *p, const Byte *data, unsigned size)
+ {
+   UInt32 dicSize;
+   Byte d;
+@@ -935,7 +883,7 @@ static SRes LzmaDec_AllocateProbs2(CLzma
+   return SZ_OK;
+ }
+-SRes LzmaDec_AllocateProbs(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc)
++static SRes LzmaDec_AllocateProbs(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc)
+ {
+   CLzmaProps propNew;
+   RINOK(LzmaProps_Decode(&propNew, props, propsSize));
+@@ -943,28 +891,6 @@ SRes LzmaDec_AllocateProbs(CLzmaDec *p,
+   p->prop = propNew;
+   return SZ_OK;
+ }
+-
+-SRes LzmaDec_Allocate(CLzmaDec *p, const Byte *props, unsigned propsSize, ISzAlloc *alloc)
+-{
+-  CLzmaProps propNew;
+-  SizeT dicBufSize;
+-  RINOK(LzmaProps_Decode(&propNew, props, propsSize));
+-  RINOK(LzmaDec_AllocateProbs2(p, &propNew, alloc));
+-  dicBufSize = propNew.dicSize;
+-  if (p->dic == 0 || dicBufSize != p->dicBufSize)
+-  {
+-    LzmaDec_FreeDict(p, alloc);
+-    p->dic = (Byte *)alloc->Alloc(alloc, dicBufSize);
+-    if (p->dic == 0)
+-    {
+-      LzmaDec_FreeProbs(p, alloc);
+-      return SZ_ERROR_MEM;
+-    }
+-  }
+-  p->dicBufSize = dicBufSize;
+-  p->prop = propNew;
+-  return SZ_OK;
+-}
+ SRes LzmaDecode(Byte *dest, SizeT *destLen, const Byte *src, SizeT *srcLen,
+     const Byte *propData, unsigned propSize, ELzmaFinishMode finishMode,
+--- a/include/linux/lzma/LzmaEnc.h
++++ b/include/linux/lzma/LzmaEnc.h
+@@ -31,9 +31,6 @@ typedef struct _CLzmaEncProps
+ } CLzmaEncProps;
+ void LzmaEncProps_Init(CLzmaEncProps *p);
+-void LzmaEncProps_Normalize(CLzmaEncProps *p);
+-UInt32 LzmaEncProps_GetDictSize(const CLzmaEncProps *props2);
+-
+ /* ---------- CLzmaEncHandle Interface ---------- */
+@@ -53,26 +50,9 @@ CLzmaEncHandle LzmaEnc_Create(ISzAlloc *
+ void LzmaEnc_Destroy(CLzmaEncHandle p, ISzAlloc *alloc, ISzAlloc *allocBig);
+ SRes LzmaEnc_SetProps(CLzmaEncHandle p, const CLzmaEncProps *props);
+ SRes LzmaEnc_WriteProperties(CLzmaEncHandle p, Byte *properties, SizeT *size);
+-SRes LzmaEnc_Encode(CLzmaEncHandle p, ISeqOutStream *outStream, ISeqInStream *inStream,
+-    ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig);
+ SRes LzmaEnc_MemEncode(CLzmaEncHandle p, Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
+     int writeEndMark, ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig);
+-/* ---------- One Call Interface ---------- */
+-
+-/* LzmaEncode
+-Return code:
+-  SZ_OK               - OK
+-  SZ_ERROR_MEM        - Memory allocation error
+-  SZ_ERROR_PARAM      - Incorrect paramater
+-  SZ_ERROR_OUTPUT_EOF - output buffer overflow
+-  SZ_ERROR_THREAD     - errors in multithreading functions (only for Mt version)
+-*/
+-
+-SRes LzmaEncode(Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
+-    const CLzmaEncProps *props, Byte *propsEncoded, SizeT *propsSize, int writeEndMark,
+-    ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig);
+-
+ #ifdef __cplusplus
+ }
+ #endif
+--- a/lib/lzma/LzmaEnc.c
++++ b/lib/lzma/LzmaEnc.c
+@@ -53,7 +53,7 @@ void LzmaEncProps_Init(CLzmaEncProps *p)
+   p->writeEndMark = 0;
+ }
+-void LzmaEncProps_Normalize(CLzmaEncProps *p)
++static void LzmaEncProps_Normalize(CLzmaEncProps *p)
+ {
+   int level = p->level;
+   if (level < 0) level = 5;
+@@ -76,7 +76,7 @@ void LzmaEncProps_Normalize(CLzmaEncProp
+       #endif
+ }
+-UInt32 LzmaEncProps_GetDictSize(const CLzmaEncProps *props2)
++static UInt32 __maybe_unused LzmaEncProps_GetDictSize(const CLzmaEncProps *props2)
+ {
+   CLzmaEncProps props = *props2;
+   LzmaEncProps_Normalize(&props);
+@@ -93,7 +93,7 @@ UInt32 LzmaEncProps_GetDictSize(const CL
+ #define BSR2_RET(pos, res) { unsigned long i; _BitScanReverse(&i, (pos)); res = (i + i) + ((pos >> (i - 1)) & 1); }
+-UInt32 GetPosSlot1(UInt32 pos)
++static UInt32 GetPosSlot1(UInt32 pos)
+ {
+   UInt32 res;
+   BSR2_RET(pos, res);
+@@ -107,7 +107,7 @@ UInt32 GetPosSlot1(UInt32 pos)
+ #define kNumLogBits (9 + (int)sizeof(size_t) / 2)
+ #define kDicLogSizeMaxCompress ((kNumLogBits - 1) * 2 + 7)
+-void LzmaEnc_FastPosInit(Byte *g_FastPos)
++static void LzmaEnc_FastPosInit(Byte *g_FastPos)
+ {
+   int c = 2, slotFast;
+   g_FastPos[0] = 0;
+@@ -339,58 +339,6 @@ typedef struct
+   CSaveState saveState;
+ } CLzmaEnc;
+-void LzmaEnc_SaveState(CLzmaEncHandle pp)
+-{
+-  CLzmaEnc *p = (CLzmaEnc *)pp;
+-  CSaveState *dest = &p->saveState;
+-  int i;
+-  dest->lenEnc = p->lenEnc;
+-  dest->repLenEnc = p->repLenEnc;
+-  dest->state = p->state;
+-
+-  for (i = 0; i < kNumStates; i++)
+-  {
+-    memcpy(dest->isMatch[i], p->isMatch[i], sizeof(p->isMatch[i]));
+-    memcpy(dest->isRep0Long[i], p->isRep0Long[i], sizeof(p->isRep0Long[i]));
+-  }
+-  for (i = 0; i < kNumLenToPosStates; i++)
+-    memcpy(dest->posSlotEncoder[i], p->posSlotEncoder[i], sizeof(p->posSlotEncoder[i]));
+-  memcpy(dest->isRep, p->isRep, sizeof(p->isRep));
+-  memcpy(dest->isRepG0, p->isRepG0, sizeof(p->isRepG0));
+-  memcpy(dest->isRepG1, p->isRepG1, sizeof(p->isRepG1));
+-  memcpy(dest->isRepG2, p->isRepG2, sizeof(p->isRepG2));
+-  memcpy(dest->posEncoders, p->posEncoders, sizeof(p->posEncoders));
+-  memcpy(dest->posAlignEncoder, p->posAlignEncoder, sizeof(p->posAlignEncoder));
+-  memcpy(dest->reps, p->reps, sizeof(p->reps));
+-  memcpy(dest->litProbs, p->litProbs, (0x300 << p->lclp) * sizeof(CLzmaProb));
+-}
+-
+-void LzmaEnc_RestoreState(CLzmaEncHandle pp)
+-{
+-  CLzmaEnc *dest = (CLzmaEnc *)pp;
+-  const CSaveState *p = &dest->saveState;
+-  int i;
+-  dest->lenEnc = p->lenEnc;
+-  dest->repLenEnc = p->repLenEnc;
+-  dest->state = p->state;
+-
+-  for (i = 0; i < kNumStates; i++)
+-  {
+-    memcpy(dest->isMatch[i], p->isMatch[i], sizeof(p->isMatch[i]));
+-    memcpy(dest->isRep0Long[i], p->isRep0Long[i], sizeof(p->isRep0Long[i]));
+-  }
+-  for (i = 0; i < kNumLenToPosStates; i++)
+-    memcpy(dest->posSlotEncoder[i], p->posSlotEncoder[i], sizeof(p->posSlotEncoder[i]));
+-  memcpy(dest->isRep, p->isRep, sizeof(p->isRep));
+-  memcpy(dest->isRepG0, p->isRepG0, sizeof(p->isRepG0));
+-  memcpy(dest->isRepG1, p->isRepG1, sizeof(p->isRepG1));
+-  memcpy(dest->isRepG2, p->isRepG2, sizeof(p->isRepG2));
+-  memcpy(dest->posEncoders, p->posEncoders, sizeof(p->posEncoders));
+-  memcpy(dest->posAlignEncoder, p->posAlignEncoder, sizeof(p->posAlignEncoder));
+-  memcpy(dest->reps, p->reps, sizeof(p->reps));
+-  memcpy(dest->litProbs, p->litProbs, (0x300 << dest->lclp) * sizeof(CLzmaProb));
+-}
+-
+ SRes LzmaEnc_SetProps(CLzmaEncHandle pp, const CLzmaEncProps *props2)
+ {
+   CLzmaEnc *p = (CLzmaEnc *)pp;
+@@ -600,7 +548,7 @@ static void LitEnc_EncodeMatched(CRangeE
+   while (symbol < 0x10000);
+ }
+-void LzmaEnc_InitPriceTables(UInt32 *ProbPrices)
++static void LzmaEnc_InitPriceTables(UInt32 *ProbPrices)
+ {
+   UInt32 i;
+   for (i = (1 << kNumMoveReducingBits) / 2; i < kBitModelTotal; i += (1 << kNumMoveReducingBits))
+@@ -1676,7 +1624,7 @@ static void FillDistancesPrices(CLzmaEnc
+   p->matchPriceCount = 0;
+ }
+-void LzmaEnc_Construct(CLzmaEnc *p)
++static void LzmaEnc_Construct(CLzmaEnc *p)
+ {
+   RangeEnc_Construct(&p->rc);
+   MatchFinder_Construct(&p->matchFinderBase);
+@@ -1709,7 +1657,7 @@ CLzmaEncHandle LzmaEnc_Create(ISzAlloc *
+   return p;
+ }
+-void LzmaEnc_FreeLits(CLzmaEnc *p, ISzAlloc *alloc)
++static void LzmaEnc_FreeLits(CLzmaEnc *p, ISzAlloc *alloc)
+ {
+   alloc->Free(alloc, p->litProbs);
+   alloc->Free(alloc, p->saveState.litProbs);
+@@ -1717,7 +1665,7 @@ void LzmaEnc_FreeLits(CLzmaEnc *p, ISzAl
+   p->saveState.litProbs = 0;
+ }
+-void LzmaEnc_Destruct(CLzmaEnc *p, ISzAlloc *alloc, ISzAlloc *allocBig)
++static void LzmaEnc_Destruct(CLzmaEnc *p, ISzAlloc *alloc, ISzAlloc *allocBig)
+ {
+   #ifndef _7ZIP_ST
+   MatchFinderMt_Destruct(&p->matchFinderMt, allocBig);
+@@ -1947,7 +1895,7 @@ static SRes LzmaEnc_Alloc(CLzmaEnc *p, U
+   return SZ_OK;
+ }
+-void LzmaEnc_Init(CLzmaEnc *p)
++static void LzmaEnc_Init(CLzmaEnc *p)
+ {
+   UInt32 i;
+   p->state = 0;
+@@ -2005,7 +1953,7 @@ void LzmaEnc_Init(CLzmaEnc *p)
+   p->lpMask = (1 << p->lp) - 1;
+ }
+-void LzmaEnc_InitPrices(CLzmaEnc *p)
++static void LzmaEnc_InitPrices(CLzmaEnc *p)
+ {
+   if (!p->fastMode)
+   {
+@@ -2037,26 +1985,6 @@ static SRes LzmaEnc_AllocAndInit(CLzmaEn
+   return SZ_OK;
+ }
+-static SRes LzmaEnc_Prepare(CLzmaEncHandle pp, ISeqOutStream *outStream, ISeqInStream *inStream,
+-    ISzAlloc *alloc, ISzAlloc *allocBig)
+-{
+-  CLzmaEnc *p = (CLzmaEnc *)pp;
+-  p->matchFinderBase.stream = inStream;
+-  p->needInit = 1;
+-  p->rc.outStream = outStream;
+-  return LzmaEnc_AllocAndInit(p, 0, alloc, allocBig);
+-}
+-
+-SRes LzmaEnc_PrepareForLzma2(CLzmaEncHandle pp,
+-    ISeqInStream *inStream, UInt32 keepWindowSize,
+-    ISzAlloc *alloc, ISzAlloc *allocBig)
+-{
+-  CLzmaEnc *p = (CLzmaEnc *)pp;
+-  p->matchFinderBase.stream = inStream;
+-  p->needInit = 1;
+-  return LzmaEnc_AllocAndInit(p, keepWindowSize, alloc, allocBig);
+-}
+-
+ static void LzmaEnc_SetInputBuf(CLzmaEnc *p, const Byte *src, SizeT srcLen)
+ {
+   p->matchFinderBase.directInput = 1;
+@@ -2064,7 +1992,7 @@ static void LzmaEnc_SetInputBuf(CLzmaEnc
+   p->matchFinderBase.directInputRem = srcLen;
+ }
+-SRes LzmaEnc_MemPrepare(CLzmaEncHandle pp, const Byte *src, SizeT srcLen,
++static SRes LzmaEnc_MemPrepare(CLzmaEncHandle pp, const Byte *src, SizeT srcLen,
+     UInt32 keepWindowSize, ISzAlloc *alloc, ISzAlloc *allocBig)
+ {
+   CLzmaEnc *p = (CLzmaEnc *)pp;
+@@ -2074,7 +2002,7 @@ SRes LzmaEnc_MemPrepare(CLzmaEncHandle p
+   return LzmaEnc_AllocAndInit(p, keepWindowSize, alloc, allocBig);
+ }
+-void LzmaEnc_Finish(CLzmaEncHandle pp)
++static void LzmaEnc_Finish(CLzmaEncHandle pp)
+ {
+   #ifndef _7ZIP_ST
+   CLzmaEnc *p = (CLzmaEnc *)pp;
+@@ -2107,53 +2035,6 @@ static size_t MyWrite(void *pp, const vo
+   return size;
+ }
+-
+-UInt32 LzmaEnc_GetNumAvailableBytes(CLzmaEncHandle pp)
+-{
+-  const CLzmaEnc *p = (CLzmaEnc *)pp;
+-  return p->matchFinder.GetNumAvailableBytes(p->matchFinderObj);
+-}
+-
+-const Byte *LzmaEnc_GetCurBuf(CLzmaEncHandle pp)
+-{
+-  const CLzmaEnc *p = (CLzmaEnc *)pp;
+-  return p->matchFinder.GetPointerToCurrentPos(p->matchFinderObj) - p->additionalOffset;
+-}
+-
+-SRes LzmaEnc_CodeOneMemBlock(CLzmaEncHandle pp, Bool reInit,
+-    Byte *dest, size_t *destLen, UInt32 desiredPackSize, UInt32 *unpackSize)
+-{
+-  CLzmaEnc *p = (CLzmaEnc *)pp;
+-  UInt64 nowPos64;
+-  SRes res;
+-  CSeqOutStreamBuf outStream;
+-
+-  outStream.funcTable.Write = MyWrite;
+-  outStream.data = dest;
+-  outStream.rem = *destLen;
+-  outStream.overflow = False;
+-
+-  p->writeEndMark = False;
+-  p->finished = False;
+-  p->result = SZ_OK;
+-
+-  if (reInit)
+-    LzmaEnc_Init(p);
+-  LzmaEnc_InitPrices(p);
+-  nowPos64 = p->nowPos64;
+-  RangeEnc_Init(&p->rc);
+-  p->rc.outStream = &outStream.funcTable;
+-
+-  res = LzmaEnc_CodeOneBlock(p, True, desiredPackSize, *unpackSize);
+-  
+-  *unpackSize = (UInt32)(p->nowPos64 - nowPos64);
+-  *destLen -= outStream.rem;
+-  if (outStream.overflow)
+-    return SZ_ERROR_OUTPUT_EOF;
+-
+-  return res;
+-}
+-
+ static SRes LzmaEnc_Encode2(CLzmaEnc *p, ICompressProgress *progress)
+ {
+   SRes res = SZ_OK;
+@@ -2184,13 +2065,6 @@ static SRes LzmaEnc_Encode2(CLzmaEnc *p,
+   return res;
+ }
+-SRes LzmaEnc_Encode(CLzmaEncHandle pp, ISeqOutStream *outStream, ISeqInStream *inStream, ICompressProgress *progress,
+-    ISzAlloc *alloc, ISzAlloc *allocBig)
+-{
+-  RINOK(LzmaEnc_Prepare(pp, outStream, inStream, alloc, allocBig));
+-  return LzmaEnc_Encode2((CLzmaEnc *)pp, progress);
+-}
+-
+ SRes LzmaEnc_WriteProperties(CLzmaEncHandle pp, Byte *props, SizeT *size)
+ {
+   CLzmaEnc *p = (CLzmaEnc *)pp;
+@@ -2247,25 +2121,3 @@ SRes LzmaEnc_MemEncode(CLzmaEncHandle pp
+     return SZ_ERROR_OUTPUT_EOF;
+   return res;
+ }
+-
+-SRes LzmaEncode(Byte *dest, SizeT *destLen, const Byte *src, SizeT srcLen,
+-    const CLzmaEncProps *props, Byte *propsEncoded, SizeT *propsSize, int writeEndMark,
+-    ICompressProgress *progress, ISzAlloc *alloc, ISzAlloc *allocBig)
+-{
+-  CLzmaEnc *p = (CLzmaEnc *)LzmaEnc_Create(alloc);
+-  SRes res;
+-  if (p == 0)
+-    return SZ_ERROR_MEM;
+-
+-  res = LzmaEnc_SetProps(p, props);
+-  if (res == SZ_OK)
+-  {
+-    res = LzmaEnc_WriteProperties(p, propsEncoded, propsSize);
+-    if (res == SZ_OK)
+-      res = LzmaEnc_MemEncode(p, dest, destLen, src, srcLen,
+-          writeEndMark, progress, alloc, allocBig);
+-  }
+-
+-  LzmaEnc_Destroy(p, alloc, allocBig);
+-  return res;
+-}
+--- a/include/linux/lzma/LzFind.h
++++ b/include/linux/lzma/LzFind.h
+@@ -55,11 +55,6 @@ typedef struct _CMatchFinder
+ #define Inline_MatchFinder_GetNumAvailableBytes(p) ((p)->streamPos - (p)->pos)
+-int MatchFinder_NeedMove(CMatchFinder *p);
+-Byte *MatchFinder_GetPointerToCurrentPos(CMatchFinder *p);
+-void MatchFinder_MoveBlock(CMatchFinder *p);
+-void MatchFinder_ReadIfRequired(CMatchFinder *p);
+-
+ void MatchFinder_Construct(CMatchFinder *p);
+ /* Conditions:
+@@ -70,12 +65,6 @@ int MatchFinder_Create(CMatchFinder *p,
+     UInt32 keepAddBufferBefore, UInt32 matchMaxLen, UInt32 keepAddBufferAfter,
+     ISzAlloc *alloc);
+ void MatchFinder_Free(CMatchFinder *p, ISzAlloc *alloc);
+-void MatchFinder_Normalize3(UInt32 subValue, CLzRef *items, UInt32 numItems);
+-void MatchFinder_ReduceOffsets(CMatchFinder *p, UInt32 subValue);
+-
+-UInt32 * GetMatchesSpec1(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *buffer, CLzRef *son,
+-    UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 _cutValue,
+-    UInt32 *distances, UInt32 maxLen);
+ /*
+ Conditions:
+@@ -102,12 +91,6 @@ typedef struct _IMatchFinder
+ void MatchFinder_CreateVTable(CMatchFinder *p, IMatchFinder *vTable);
+-void MatchFinder_Init(CMatchFinder *p);
+-UInt32 Bt3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances);
+-UInt32 Hc3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances);
+-void Bt3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num);
+-void Hc3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num);
+-
+ #ifdef __cplusplus
+ }
+ #endif
+--- a/lib/lzma/LzFind.c
++++ b/lib/lzma/LzFind.c
+@@ -14,9 +14,15 @@
+ #define kStartMaxLen 3
++#if 0
++#define DIRECT_INPUT  p->directInput
++#else
++#define DIRECT_INPUT  1
++#endif
++
+ static void LzInWindow_Free(CMatchFinder *p, ISzAlloc *alloc)
+ {
+-  if (!p->directInput)
++  if (!DIRECT_INPUT)
+   {
+     alloc->Free(alloc, p->bufferBase);
+     p->bufferBase = 0;
+@@ -28,7 +34,7 @@ static void LzInWindow_Free(CMatchFinder
+ static int LzInWindow_Create(CMatchFinder *p, UInt32 keepSizeReserv, ISzAlloc *alloc)
+ {
+   UInt32 blockSize = p->keepSizeBefore + p->keepSizeAfter + keepSizeReserv;
+-  if (p->directInput)
++  if (DIRECT_INPUT)
+   {
+     p->blockSize = blockSize;
+     return 1;
+@@ -42,12 +48,12 @@ static int LzInWindow_Create(CMatchFinde
+   return (p->bufferBase != 0);
+ }
+-Byte *MatchFinder_GetPointerToCurrentPos(CMatchFinder *p) { return p->buffer; }
+-Byte MatchFinder_GetIndexByte(CMatchFinder *p, Int32 index) { return p->buffer[index]; }
++static Byte *MatchFinder_GetPointerToCurrentPos(CMatchFinder *p) { return p->buffer; }
++static Byte MatchFinder_GetIndexByte(CMatchFinder *p, Int32 index) { return p->buffer[index]; }
+-UInt32 MatchFinder_GetNumAvailableBytes(CMatchFinder *p) { return p->streamPos - p->pos; }
++static UInt32 MatchFinder_GetNumAvailableBytes(CMatchFinder *p) { return p->streamPos - p->pos; }
+-void MatchFinder_ReduceOffsets(CMatchFinder *p, UInt32 subValue)
++static void MatchFinder_ReduceOffsets(CMatchFinder *p, UInt32 subValue)
+ {
+   p->posLimit -= subValue;
+   p->pos -= subValue;
+@@ -58,7 +64,7 @@ static void MatchFinder_ReadBlock(CMatch
+ {
+   if (p->streamEndWasReached || p->result != SZ_OK)
+     return;
+-  if (p->directInput)
++  if (DIRECT_INPUT)
+   {
+     UInt32 curSize = 0xFFFFFFFF - p->streamPos;
+     if (curSize > p->directInputRem)
+@@ -89,7 +95,7 @@ static void MatchFinder_ReadBlock(CMatch
+   }
+ }
+-void MatchFinder_MoveBlock(CMatchFinder *p)
++static void MatchFinder_MoveBlock(CMatchFinder *p)
+ {
+   memmove(p->bufferBase,
+     p->buffer - p->keepSizeBefore,
+@@ -97,22 +103,14 @@ void MatchFinder_MoveBlock(CMatchFinder
+   p->buffer = p->bufferBase + p->keepSizeBefore;
+ }
+-int MatchFinder_NeedMove(CMatchFinder *p)
++static int MatchFinder_NeedMove(CMatchFinder *p)
+ {
+-  if (p->directInput)
++  if (DIRECT_INPUT)
+     return 0;
+   /* if (p->streamEndWasReached) return 0; */
+   return ((size_t)(p->bufferBase + p->blockSize - p->buffer) <= p->keepSizeAfter);
+ }
+-void MatchFinder_ReadIfRequired(CMatchFinder *p)
+-{
+-  if (p->streamEndWasReached)
+-    return;
+-  if (p->keepSizeAfter >= p->streamPos - p->pos)
+-    MatchFinder_ReadBlock(p);
+-}
+-
+ static void MatchFinder_CheckAndMoveAndRead(CMatchFinder *p)
+ {
+   if (MatchFinder_NeedMove(p))
+@@ -268,7 +266,7 @@ static void MatchFinder_SetLimits(CMatch
+   p->posLimit = p->pos + limit;
+ }
+-void MatchFinder_Init(CMatchFinder *p)
++static void MatchFinder_Init(CMatchFinder *p)
+ {
+   UInt32 i;
+   for (i = 0; i < p->hashSizeSum; i++)
+@@ -287,7 +285,7 @@ static UInt32 MatchFinder_GetSubValue(CM
+   return (p->pos - p->historySize - 1) & kNormalizeMask;
+ }
+-void MatchFinder_Normalize3(UInt32 subValue, CLzRef *items, UInt32 numItems)
++static void MatchFinder_Normalize3(UInt32 subValue, CLzRef *items, UInt32 numItems)
+ {
+   UInt32 i;
+   for (i = 0; i < numItems; i++)
+@@ -319,38 +317,7 @@ static void MatchFinder_CheckLimits(CMat
+   MatchFinder_SetLimits(p);
+ }
+-static UInt32 * Hc_GetMatchesSpec(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *cur, CLzRef *son,
+-    UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 cutValue,
+-    UInt32 *distances, UInt32 maxLen)
+-{
+-  son[_cyclicBufferPos] = curMatch;
+-  for (;;)
+-  {
+-    UInt32 delta = pos - curMatch;
+-    if (cutValue-- == 0 || delta >= _cyclicBufferSize)
+-      return distances;
+-    {
+-      const Byte *pb = cur - delta;
+-      curMatch = son[_cyclicBufferPos - delta + ((delta > _cyclicBufferPos) ? _cyclicBufferSize : 0)];
+-      if (pb[maxLen] == cur[maxLen] && *pb == *cur)
+-      {
+-        UInt32 len = 0;
+-        while (++len != lenLimit)
+-          if (pb[len] != cur[len])
+-            break;
+-        if (maxLen < len)
+-        {
+-          *distances++ = maxLen = len;
+-          *distances++ = delta - 1;
+-          if (len == lenLimit)
+-            return distances;
+-        }
+-      }
+-    }
+-  }
+-}
+-
+-UInt32 * GetMatchesSpec1(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *cur, CLzRef *son,
++static UInt32 * GetMatchesSpec1(UInt32 lenLimit, UInt32 curMatch, UInt32 pos, const Byte *cur, CLzRef *son,
+     UInt32 _cyclicBufferPos, UInt32 _cyclicBufferSize, UInt32 cutValue,
+     UInt32 *distances, UInt32 maxLen)
+ {
+@@ -460,10 +427,10 @@ static void SkipMatchesSpec(UInt32 lenLi
+   p->buffer++; \
+   if (++p->pos == p->posLimit) MatchFinder_CheckLimits(p);
+-#define MOVE_POS_RET MOVE_POS return offset;
+-
+ static void MatchFinder_MovePos(CMatchFinder *p) { MOVE_POS; }
++#define MOVE_POS_RET MatchFinder_MovePos(p); return offset;
++
+ #define GET_MATCHES_HEADER2(minLen, ret_op) \
+   UInt32 lenLimit; UInt32 hashValue; const Byte *cur; UInt32 curMatch; \
+   lenLimit = p->lenLimit; { if (lenLimit < minLen) { MatchFinder_MovePos(p); ret_op; }} \
+@@ -479,62 +446,7 @@ static void MatchFinder_MovePos(CMatchFi
+   distances + offset, maxLen) - distances); MOVE_POS_RET;
+ #define SKIP_FOOTER \
+-  SkipMatchesSpec(lenLimit, curMatch, MF_PARAMS(p)); MOVE_POS;
+-
+-static UInt32 Bt2_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
+-{
+-  UInt32 offset;
+-  GET_MATCHES_HEADER(2)
+-  HASH2_CALC;
+-  curMatch = p->hash[hashValue];
+-  p->hash[hashValue] = p->pos;
+-  offset = 0;
+-  GET_MATCHES_FOOTER(offset, 1)
+-}
+-
+-UInt32 Bt3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
+-{
+-  UInt32 offset;
+-  GET_MATCHES_HEADER(3)
+-  HASH_ZIP_CALC;
+-  curMatch = p->hash[hashValue];
+-  p->hash[hashValue] = p->pos;
+-  offset = 0;
+-  GET_MATCHES_FOOTER(offset, 2)
+-}
+-
+-static UInt32 Bt3_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
+-{
+-  UInt32 hash2Value, delta2, maxLen, offset;
+-  GET_MATCHES_HEADER(3)
+-
+-  HASH3_CALC;
+-
+-  delta2 = p->pos - p->hash[hash2Value];
+-  curMatch = p->hash[kFix3HashSize + hashValue];
+-  
+-  p->hash[hash2Value] =
+-  p->hash[kFix3HashSize + hashValue] = p->pos;
+-
+-
+-  maxLen = 2;
+-  offset = 0;
+-  if (delta2 < p->cyclicBufferSize && *(cur - delta2) == *cur)
+-  {
+-    for (; maxLen != lenLimit; maxLen++)
+-      if (cur[(ptrdiff_t)maxLen - delta2] != cur[maxLen])
+-        break;
+-    distances[0] = maxLen;
+-    distances[1] = delta2 - 1;
+-    offset = 2;
+-    if (maxLen == lenLimit)
+-    {
+-      SkipMatchesSpec(lenLimit, curMatch, MF_PARAMS(p));
+-      MOVE_POS_RET;
+-    }
+-  }
+-  GET_MATCHES_FOOTER(offset, maxLen)
+-}
++  SkipMatchesSpec(lenLimit, curMatch, MF_PARAMS(p)); MatchFinder_MovePos(p);
+ static UInt32 Bt4_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
+ {
+@@ -583,108 +495,6 @@ static UInt32 Bt4_MatchFinder_GetMatches
+   GET_MATCHES_FOOTER(offset, maxLen)
+ }
+-static UInt32 Hc4_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
+-{
+-  UInt32 hash2Value, hash3Value, delta2, delta3, maxLen, offset;
+-  GET_MATCHES_HEADER(4)
+-
+-  HASH4_CALC;
+-
+-  delta2 = p->pos - p->hash[                hash2Value];
+-  delta3 = p->pos - p->hash[kFix3HashSize + hash3Value];
+-  curMatch = p->hash[kFix4HashSize + hashValue];
+-
+-  p->hash[                hash2Value] =
+-  p->hash[kFix3HashSize + hash3Value] =
+-  p->hash[kFix4HashSize + hashValue] = p->pos;
+-
+-  maxLen = 1;
+-  offset = 0;
+-  if (delta2 < p->cyclicBufferSize && *(cur - delta2) == *cur)
+-  {
+-    distances[0] = maxLen = 2;
+-    distances[1] = delta2 - 1;
+-    offset = 2;
+-  }
+-  if (delta2 != delta3 && delta3 < p->cyclicBufferSize && *(cur - delta3) == *cur)
+-  {
+-    maxLen = 3;
+-    distances[offset + 1] = delta3 - 1;
+-    offset += 2;
+-    delta2 = delta3;
+-  }
+-  if (offset != 0)
+-  {
+-    for (; maxLen != lenLimit; maxLen++)
+-      if (cur[(ptrdiff_t)maxLen - delta2] != cur[maxLen])
+-        break;
+-    distances[offset - 2] = maxLen;
+-    if (maxLen == lenLimit)
+-    {
+-      p->son[p->cyclicBufferPos] = curMatch;
+-      MOVE_POS_RET;
+-    }
+-  }
+-  if (maxLen < 3)
+-    maxLen = 3;
+-  offset = (UInt32)(Hc_GetMatchesSpec(lenLimit, curMatch, MF_PARAMS(p),
+-    distances + offset, maxLen) - (distances));
+-  MOVE_POS_RET
+-}
+-
+-UInt32 Hc3Zip_MatchFinder_GetMatches(CMatchFinder *p, UInt32 *distances)
+-{
+-  UInt32 offset;
+-  GET_MATCHES_HEADER(3)
+-  HASH_ZIP_CALC;
+-  curMatch = p->hash[hashValue];
+-  p->hash[hashValue] = p->pos;
+-  offset = (UInt32)(Hc_GetMatchesSpec(lenLimit, curMatch, MF_PARAMS(p),
+-    distances, 2) - (distances));
+-  MOVE_POS_RET
+-}
+-
+-static void Bt2_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
+-{
+-  do
+-  {
+-    SKIP_HEADER(2)
+-    HASH2_CALC;
+-    curMatch = p->hash[hashValue];
+-    p->hash[hashValue] = p->pos;
+-    SKIP_FOOTER
+-  }
+-  while (--num != 0);
+-}
+-
+-void Bt3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
+-{
+-  do
+-  {
+-    SKIP_HEADER(3)
+-    HASH_ZIP_CALC;
+-    curMatch = p->hash[hashValue];
+-    p->hash[hashValue] = p->pos;
+-    SKIP_FOOTER
+-  }
+-  while (--num != 0);
+-}
+-
+-static void Bt3_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
+-{
+-  do
+-  {
+-    UInt32 hash2Value;
+-    SKIP_HEADER(3)
+-    HASH3_CALC;
+-    curMatch = p->hash[kFix3HashSize + hashValue];
+-    p->hash[hash2Value] =
+-    p->hash[kFix3HashSize + hashValue] = p->pos;
+-    SKIP_FOOTER
+-  }
+-  while (--num != 0);
+-}
+-
+ static void Bt4_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
+ {
+   do
+@@ -701,61 +511,12 @@ static void Bt4_MatchFinder_Skip(CMatchF
+   while (--num != 0);
+ }
+-static void Hc4_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
+-{
+-  do
+-  {
+-    UInt32 hash2Value, hash3Value;
+-    SKIP_HEADER(4)
+-    HASH4_CALC;
+-    curMatch = p->hash[kFix4HashSize + hashValue];
+-    p->hash[                hash2Value] =
+-    p->hash[kFix3HashSize + hash3Value] =
+-    p->hash[kFix4HashSize + hashValue] = p->pos;
+-    p->son[p->cyclicBufferPos] = curMatch;
+-    MOVE_POS
+-  }
+-  while (--num != 0);
+-}
+-
+-void Hc3Zip_MatchFinder_Skip(CMatchFinder *p, UInt32 num)
+-{
+-  do
+-  {
+-    SKIP_HEADER(3)
+-    HASH_ZIP_CALC;
+-    curMatch = p->hash[hashValue];
+-    p->hash[hashValue] = p->pos;
+-    p->son[p->cyclicBufferPos] = curMatch;
+-    MOVE_POS
+-  }
+-  while (--num != 0);
+-}
+-
+ void MatchFinder_CreateVTable(CMatchFinder *p, IMatchFinder *vTable)
+ {
+   vTable->Init = (Mf_Init_Func)MatchFinder_Init;
+   vTable->GetIndexByte = (Mf_GetIndexByte_Func)MatchFinder_GetIndexByte;
+   vTable->GetNumAvailableBytes = (Mf_GetNumAvailableBytes_Func)MatchFinder_GetNumAvailableBytes;
+   vTable->GetPointerToCurrentPos = (Mf_GetPointerToCurrentPos_Func)MatchFinder_GetPointerToCurrentPos;
+-  if (!p->btMode)
+-  {
+-    vTable->GetMatches = (Mf_GetMatches_Func)Hc4_MatchFinder_GetMatches;
+-    vTable->Skip = (Mf_Skip_Func)Hc4_MatchFinder_Skip;
+-  }
+-  else if (p->numHashBytes == 2)
+-  {
+-    vTable->GetMatches = (Mf_GetMatches_Func)Bt2_MatchFinder_GetMatches;
+-    vTable->Skip = (Mf_Skip_Func)Bt2_MatchFinder_Skip;
+-  }
+-  else if (p->numHashBytes == 3)
+-  {
+-    vTable->GetMatches = (Mf_GetMatches_Func)Bt3_MatchFinder_GetMatches;
+-    vTable->Skip = (Mf_Skip_Func)Bt3_MatchFinder_Skip;
+-  }
+-  else
+-  {
+-    vTable->GetMatches = (Mf_GetMatches_Func)Bt4_MatchFinder_GetMatches;
+-    vTable->Skip = (Mf_Skip_Func)Bt4_MatchFinder_Skip;
+-  }
++  vTable->GetMatches = (Mf_GetMatches_Func)Bt4_MatchFinder_GetMatches;
++  vTable->Skip = (Mf_Skip_Func)Bt4_MatchFinder_Skip;
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/532-jffs2_eofdetect.patch b/trunk/target/linux/generic/patches-3.18/532-jffs2_eofdetect.patch
new file mode 100644 (file)
index 0000000..9cbe183
--- /dev/null
@@ -0,0 +1,56 @@
+--- a/fs/jffs2/build.c
++++ b/fs/jffs2/build.c
+@@ -114,6 +114,16 @@ static int jffs2_build_filesystem(struct
+       dbg_fsbuild("scanned flash completely\n");
+       jffs2_dbg_dump_block_lists_nolock(c);
++      if (c->flags & (1 << 7)) {
++              printk("%s(): unlocking the mtd device... ", __func__);
++              mtd_unlock(c->mtd, 0, c->mtd->size);
++              printk("done.\n");
++
++              printk("%s(): erasing all blocks after the end marker... ", __func__);
++              jffs2_erase_pending_blocks(c, -1);
++              printk("done.\n");
++      }
++
+       dbg_fsbuild("pass 1 starting\n");
+       c->flags |= JFFS2_SB_FLAG_BUILDING;
+       /* Now scan the directory tree, increasing nlink according to every dirent found. */
+--- a/fs/jffs2/scan.c
++++ b/fs/jffs2/scan.c
+@@ -148,8 +148,14 @@ int jffs2_scan_medium(struct jffs2_sb_in
+               /* reset summary info for next eraseblock scan */
+               jffs2_sum_reset_collected(s);
+-              ret = jffs2_scan_eraseblock(c, jeb, buf_size?flashbuf:(flashbuf+jeb->offset),
+-                                              buf_size, s);
++              if (c->flags & (1 << 7)) {
++                      if (mtd_block_isbad(c->mtd, jeb->offset))
++                              ret = BLK_STATE_BADBLOCK;
++                      else
++                              ret = BLK_STATE_ALLFF;
++              } else
++                      ret = jffs2_scan_eraseblock(c, jeb, buf_size?flashbuf:(flashbuf+jeb->offset),
++                                                      buf_size, s);
+               if (ret < 0)
+                       goto out;
+@@ -561,6 +567,17 @@ full_scan:
+                       return err;
+       }
++      if ((buf[0] == 0xde) &&
++              (buf[1] == 0xad) &&
++              (buf[2] == 0xc0) &&
++              (buf[3] == 0xde)) {
++              /* end of filesystem. erase everything after this point */
++              printk("%s(): End of filesystem marker found at 0x%x\n", __func__, jeb->offset);
++              c->flags |= (1 << 7);
++
++              return BLK_STATE_ALLFF;
++      }
++
+       /* We temporarily use 'ofs' as a pointer into the buffer/jeb */
+       ofs = 0;
+       max_ofs = EMPTY_SCAN_SIZE(c->sector_size);
diff --git a/trunk/target/linux/generic/patches-3.18/540-crypto-xz-decompression-support.patch b/trunk/target/linux/generic/patches-3.18/540-crypto-xz-decompression-support.patch
new file mode 100644 (file)
index 0000000..00b0b7c
--- /dev/null
@@ -0,0 +1,146 @@
+--- a/crypto/Kconfig
++++ b/crypto/Kconfig
+@@ -1437,6 +1437,13 @@ config CRYPTO_LZ4HC
+       help
+         This is the LZ4 high compression mode algorithm.
++config CRYPTO_XZ
++      tristate "XZ compression algorithm"
++      select CRYPTO_ALGAPI
++      select XZ_DEC
++      help
++        This is the XZ algorithm. Only decompression is supported for now.
++
+ comment "Random Number Generation"
+ config CRYPTO_ANSI_CPRNG
+--- a/crypto/Makefile
++++ b/crypto/Makefile
+@@ -89,6 +89,7 @@ obj-$(CONFIG_CRYPTO_AUTHENC) += authenc.
+ obj-$(CONFIG_CRYPTO_LZO) += lzo.o
+ obj-$(CONFIG_CRYPTO_LZ4) += lz4.o
+ obj-$(CONFIG_CRYPTO_LZ4HC) += lz4hc.o
++obj-$(CONFIG_CRYPTO_XZ) += xz.o
+ obj-$(CONFIG_CRYPTO_842) += 842.o
+ obj-$(CONFIG_CRYPTO_RNG2) += rng.o
+ obj-$(CONFIG_CRYPTO_RNG2) += krng.o
+--- /dev/null
++++ b/crypto/xz.c
+@@ -0,0 +1,117 @@
++/*
++ * Cryptographic API.
++ *
++ * XZ decompression support.
++ *
++ * Copyright (c) 2012 Gabor Juhos <juhosg@openwrt.org>
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms of the GNU General Public License version 2 as published by
++ * the Free Software Foundation.
++ *
++ */
++#include <linux/init.h>
++#include <linux/module.h>
++#include <linux/crypto.h>
++#include <linux/xz.h>
++#include <linux/interrupt.h>
++#include <linux/mm.h>
++#include <linux/net.h>
++
++struct xz_comp_ctx {
++      struct xz_dec   *decomp_state;
++      struct xz_buf   decomp_buf;
++};
++
++static int crypto_xz_decomp_init(struct xz_comp_ctx *ctx)
++{
++      ctx->decomp_state = xz_dec_init(XZ_SINGLE, 0);
++      if (!ctx->decomp_state)
++              return -ENOMEM;
++
++      return 0;
++}
++
++static void crypto_xz_decomp_exit(struct xz_comp_ctx *ctx)
++{
++      xz_dec_end(ctx->decomp_state);
++}
++
++static int crypto_xz_init(struct crypto_tfm *tfm)
++{
++      struct xz_comp_ctx *ctx = crypto_tfm_ctx(tfm);
++
++      return crypto_xz_decomp_init(ctx);
++}
++
++static void crypto_xz_exit(struct crypto_tfm *tfm)
++{
++      struct xz_comp_ctx *ctx = crypto_tfm_ctx(tfm);
++
++      crypto_xz_decomp_exit(ctx);
++}
++
++static int crypto_xz_compress(struct crypto_tfm *tfm, const u8 *src,
++                            unsigned int slen, u8 *dst, unsigned int *dlen)
++{
++      return -EOPNOTSUPP;
++}
++
++static int crypto_xz_decompress(struct crypto_tfm *tfm, const u8 *src,
++                              unsigned int slen, u8 *dst, unsigned int *dlen)
++{
++      struct xz_comp_ctx *dctx = crypto_tfm_ctx(tfm);
++      struct xz_buf *xz_buf = &dctx->decomp_buf;
++      int ret;
++
++      memset(xz_buf, '\0', sizeof(struct xz_buf));
++
++      xz_buf->in = (u8 *) src;
++      xz_buf->in_pos = 0;
++      xz_buf->in_size = slen;
++      xz_buf->out = (u8 *) dst;
++      xz_buf->out_pos = 0;
++      xz_buf->out_size = *dlen;
++
++      ret = xz_dec_run(dctx->decomp_state, xz_buf);
++      if (ret != XZ_STREAM_END) {
++              ret = -EINVAL;
++              goto out;
++      }
++
++      *dlen = xz_buf->out_pos;
++      ret = 0;
++
++out:
++      return ret;
++}
++
++static struct crypto_alg crypto_xz_alg = {
++      .cra_name               = "xz",
++      .cra_flags              = CRYPTO_ALG_TYPE_COMPRESS,
++      .cra_ctxsize            = sizeof(struct xz_comp_ctx),
++      .cra_module             = THIS_MODULE,
++      .cra_list               = LIST_HEAD_INIT(crypto_xz_alg.cra_list),
++      .cra_init               = crypto_xz_init,
++      .cra_exit               = crypto_xz_exit,
++      .cra_u                  = { .compress = {
++      .coa_compress           = crypto_xz_compress,
++      .coa_decompress         = crypto_xz_decompress } }
++};
++
++static int __init crypto_xz_mod_init(void)
++{
++      return crypto_register_alg(&crypto_xz_alg);
++}
++
++static void __exit crypto_xz_mod_exit(void)
++{
++      crypto_unregister_alg(&crypto_xz_alg);
++}
++
++module_init(crypto_xz_mod_init);
++module_exit(crypto_xz_mod_exit);
++
++MODULE_LICENSE("GPL v2");
++MODULE_DESCRIPTION("Crypto XZ decompression support");
++MODULE_AUTHOR("Gabor Juhos <juhosg@openwrt.org>");
diff --git a/trunk/target/linux/generic/patches-3.18/541-ubifs-xz-decompression-support.patch b/trunk/target/linux/generic/patches-3.18/541-ubifs-xz-decompression-support.patch
new file mode 100644 (file)
index 0000000..f85689c
--- /dev/null
@@ -0,0 +1,92 @@
+--- a/fs/ubifs/Kconfig
++++ b/fs/ubifs/Kconfig
+@@ -5,8 +5,10 @@ config UBIFS_FS
+       select CRYPTO if UBIFS_FS_ADVANCED_COMPR
+       select CRYPTO if UBIFS_FS_LZO
+       select CRYPTO if UBIFS_FS_ZLIB
++      select CRYPTO if UBIFS_FS_XZ
+       select CRYPTO_LZO if UBIFS_FS_LZO
+       select CRYPTO_DEFLATE if UBIFS_FS_ZLIB
++      select CRYPTO_XZ if UBIFS_FS_XZ
+       depends on MTD_UBI
+       help
+         UBIFS is a file system for flash devices which works on top of UBI.
+@@ -35,3 +37,12 @@ config UBIFS_FS_ZLIB
+       default y
+       help
+         Zlib compresses better than LZO but it is slower. Say 'Y' if unsure.
++
++config UBIFS_FS_XZ
++      bool "XZ decompression support" if UBIFS_FS_ADVANCED_COMPR
++      depends on UBIFS_FS
++      default y
++      help
++        XZ compresses better the ZLIB but it is slower..
++        Say 'Y' if unsure.
++
+--- a/fs/ubifs/compress.c
++++ b/fs/ubifs/compress.c
+@@ -71,6 +71,24 @@ static struct ubifs_compressor zlib_comp
+ };
+ #endif
++#ifdef CONFIG_UBIFS_FS_XZ
++static DEFINE_MUTEX(xz_enc_mutex);
++static DEFINE_MUTEX(xz_dec_mutex);
++
++static struct ubifs_compressor xz_compr = {
++      .compr_type = UBIFS_COMPR_XZ,
++      .comp_mutex = &xz_enc_mutex,
++      .decomp_mutex = &xz_dec_mutex,
++      .name = "xz",
++      .capi_name = "xz",
++};
++#else
++static struct ubifs_compressor xz_compr = {
++      .compr_type = UBIFS_COMPR_XZ,
++      .name = "xz",
++};
++#endif
++
+ /* All UBIFS compressors */
+ struct ubifs_compressor *ubifs_compressors[UBIFS_COMPR_TYPES_CNT];
+@@ -232,9 +250,15 @@ int __init ubifs_compressors_init(void)
+       if (err)
+               goto out_lzo;
++      err = compr_init(&xz_compr);
++      if (err)
++              goto out_zlib;
++
+       ubifs_compressors[UBIFS_COMPR_NONE] = &none_compr;
+       return 0;
++out_zlib:
++      compr_exit(&zlib_compr);
+ out_lzo:
+       compr_exit(&lzo_compr);
+       return err;
+@@ -247,4 +271,5 @@ void ubifs_compressors_exit(void)
+ {
+       compr_exit(&lzo_compr);
+       compr_exit(&zlib_compr);
++      compr_exit(&xz_compr);
+ }
+--- a/fs/ubifs/ubifs-media.h
++++ b/fs/ubifs/ubifs-media.h
+@@ -332,12 +332,14 @@ enum {
+  * UBIFS_COMPR_NONE: no compression
+  * UBIFS_COMPR_LZO: LZO compression
+  * UBIFS_COMPR_ZLIB: ZLIB compression
++ * UBIFS_COMPR_XZ: XZ compression
+  * UBIFS_COMPR_TYPES_CNT: count of supported compression types
+  */
+ enum {
+       UBIFS_COMPR_NONE,
+       UBIFS_COMPR_LZO,
+       UBIFS_COMPR_ZLIB,
++      UBIFS_COMPR_XZ,
+       UBIFS_COMPR_TYPES_CNT,
+ };
diff --git a/trunk/target/linux/generic/patches-3.18/550-ubifs-symlink-xattr-support.patch b/trunk/target/linux/generic/patches-3.18/550-ubifs-symlink-xattr-support.patch
new file mode 100644 (file)
index 0000000..d3f2ccc
--- /dev/null
@@ -0,0 +1,55 @@
+--- a/fs/ubifs/file.c
++++ b/fs/ubifs/file.c
+@@ -1573,6 +1573,10 @@ const struct inode_operations ubifs_syml
+       .follow_link = ubifs_follow_link,
+       .setattr     = ubifs_setattr,
+       .getattr     = ubifs_getattr,
++      .setxattr    = ubifs_setxattr,
++      .getxattr    = ubifs_getxattr,
++      .listxattr   = ubifs_listxattr,
++      .removexattr = ubifs_removexattr,
+ };
+ const struct file_operations ubifs_file_operations = {
+--- a/fs/ubifs/journal.c
++++ b/fs/ubifs/journal.c
+@@ -572,6 +572,13 @@ int ubifs_jnl_update(struct ubifs_info *
+       aligned_dlen = ALIGN(dlen, 8);
+       aligned_ilen = ALIGN(ilen, 8);
+       len = aligned_dlen + aligned_ilen + UBIFS_INO_NODE_SZ;
++      if (xent) {
++              /*
++               * Make sure to account for host_ui->data_len in
++               * length calculation in case there is extended attribute.
++               */
++              len += host_ui->data_len;
++      }
+       dent = kmalloc(len, GFP_NOFS);
+       if (!dent)
+               return -ENOMEM;
+@@ -648,7 +655,8 @@ int ubifs_jnl_update(struct ubifs_info *
+       ino_key_init(c, &ino_key, dir->i_ino);
+       ino_offs += aligned_ilen;
+-      err = ubifs_tnc_add(c, &ino_key, lnum, ino_offs, UBIFS_INO_NODE_SZ);
++      err = ubifs_tnc_add(c, &ino_key, lnum, ino_offs,
++                          UBIFS_INO_NODE_SZ + host_ui->data_len);
+       if (err)
+               goto out_ro;
+--- a/fs/ubifs/xattr.c
++++ b/fs/ubifs/xattr.c
+@@ -209,12 +209,12 @@ static int change_xattr(struct ubifs_inf
+               goto out_free;
+       }
+       inode->i_size = ui->ui_size = size;
+-      ui->data_len = size;
+       mutex_lock(&host_ui->ui_mutex);
+       host->i_ctime = ubifs_current_time(host);
+       host_ui->xattr_size -= CALC_XATTR_BYTES(ui->data_len);
+       host_ui->xattr_size += CALC_XATTR_BYTES(size);
++      ui->data_len = size;
+       /*
+        * It is important to write the host inode after the xattr inode
diff --git a/trunk/target/linux/generic/patches-3.18/551-ubifs-fix-default-compression-selection.patch b/trunk/target/linux/generic/patches-3.18/551-ubifs-fix-default-compression-selection.patch
new file mode 100644 (file)
index 0000000..1b0f307
--- /dev/null
@@ -0,0 +1,29 @@
+--- a/fs/ubifs/sb.c
++++ b/fs/ubifs/sb.c
+@@ -63,6 +63,17 @@
+ /* Default time granularity in nanoseconds */
+ #define DEFAULT_TIME_GRAN 1000000000
++static int get_default_compressor(void)
++{
++      if (ubifs_compr_present(UBIFS_COMPR_LZO))
++              return UBIFS_COMPR_LZO;
++
++      if (ubifs_compr_present(UBIFS_COMPR_ZLIB))
++              return UBIFS_COMPR_ZLIB;
++
++      return UBIFS_COMPR_NONE;
++}
++
+ /**
+  * create_default_filesystem - format empty UBI volume.
+  * @c: UBIFS file-system description object
+@@ -183,7 +194,7 @@ static int create_default_filesystem(str
+       if (c->mount_opts.override_compr)
+               sup->default_compr = cpu_to_le16(c->mount_opts.compr_type);
+       else
+-              sup->default_compr = cpu_to_le16(UBIFS_COMPR_LZO);
++              sup->default_compr = cpu_to_le16(get_default_compressor());
+       generate_random_uuid(sup->uuid);
diff --git a/trunk/target/linux/generic/patches-3.18/600-netfilter_conntrack_flush.patch b/trunk/target/linux/generic/patches-3.18/600-netfilter_conntrack_flush.patch
new file mode 100644 (file)
index 0000000..cc42858
--- /dev/null
@@ -0,0 +1,86 @@
+--- a/net/netfilter/nf_conntrack_standalone.c
++++ b/net/netfilter/nf_conntrack_standalone.c
+@@ -17,6 +17,7 @@
+ #include <linux/percpu.h>
+ #include <linux/netdevice.h>
+ #include <linux/security.h>
++#include <linux/inet.h>
+ #include <net/net_namespace.h>
+ #ifdef CONFIG_SYSCTL
+ #include <linux/sysctl.h>
+@@ -262,10 +263,66 @@ static int ct_open(struct inode *inode, 
+                       sizeof(struct ct_iter_state));
+ }
++struct kill_request {
++      u16 family;
++      union nf_inet_addr addr;
++};
++
++static int kill_matching(struct nf_conn *i, void *data)
++{
++      struct kill_request *kr = data;
++      struct nf_conntrack_tuple *t1 = &i->tuplehash[IP_CT_DIR_ORIGINAL].tuple;
++      struct nf_conntrack_tuple *t2 = &i->tuplehash[IP_CT_DIR_REPLY].tuple;
++
++      if (!kr->family)
++              return 1;
++
++      if (t1->src.l3num != kr->family)
++              return 0;
++
++      return (nf_inet_addr_cmp(&kr->addr, &t1->src.u3) ||
++              nf_inet_addr_cmp(&kr->addr, &t1->dst.u3) ||
++              nf_inet_addr_cmp(&kr->addr, &t2->src.u3) ||
++              nf_inet_addr_cmp(&kr->addr, &t2->dst.u3));
++}
++
++static ssize_t ct_file_write(struct file *file, const char __user *buf,
++                           size_t count, loff_t *ppos)
++{
++      struct seq_file *seq = file->private_data;
++      struct net *net = seq_file_net(seq);
++      struct kill_request kr = { };
++      char req[INET6_ADDRSTRLEN] = { };
++
++      if (count == 0)
++              return 0;
++
++      if (count >= INET6_ADDRSTRLEN)
++              count = INET6_ADDRSTRLEN - 1;
++
++      if (copy_from_user(req, buf, count))
++              return -EFAULT;
++
++      if (strnchr(req, count, ':')) {
++              kr.family = AF_INET6;
++              if (!in6_pton(req, count, (void *)&kr.addr, '\n', NULL))
++                      return -EINVAL;
++      } else if (strnchr(req, count, '.')) {
++              kr.family = AF_INET;
++              if (!in4_pton(req, count, (void *)&kr.addr, '\n', NULL))
++                      return -EINVAL;
++      }
++
++      nf_ct_iterate_cleanup(net, kill_matching, &kr, 0, 0);
++
++      return count;
++}
++
+ static const struct file_operations ct_file_ops = {
+       .owner   = THIS_MODULE,
+       .open    = ct_open,
+       .read    = seq_read,
++      .write   = ct_file_write,
+       .llseek  = seq_lseek,
+       .release = seq_release_net,
+ };
+@@ -367,7 +424,7 @@ static int nf_conntrack_standalone_init_
+ {
+       struct proc_dir_entry *pde;
+-      pde = proc_create("nf_conntrack", 0440, net->proc_net, &ct_file_ops);
++      pde = proc_create("nf_conntrack", 0660, net->proc_net, &ct_file_ops);
+       if (!pde)
+               goto out_nf_conntrack;
diff --git a/trunk/target/linux/generic/patches-3.18/610-netfilter_match_bypass_default_checks.patch b/trunk/target/linux/generic/patches-3.18/610-netfilter_match_bypass_default_checks.patch
new file mode 100644 (file)
index 0000000..f652daf
--- /dev/null
@@ -0,0 +1,93 @@
+--- a/include/uapi/linux/netfilter_ipv4/ip_tables.h
++++ b/include/uapi/linux/netfilter_ipv4/ip_tables.h
+@@ -87,6 +87,7 @@ struct ipt_ip {
+ #define IPT_F_FRAG            0x01    /* Set if rule is a fragment rule */
+ #define IPT_F_GOTO            0x02    /* Set if jump is a goto */
+ #define IPT_F_MASK            0x03    /* All possible flag bits mask. */
++#define IPT_F_NO_DEF_MATCH    0x80    /* Internal: no default match rules present */
+ /* Values for "inv" field in struct ipt_ip. */
+ #define IPT_INV_VIA_IN                0x01    /* Invert the sense of IN IFACE. */
+--- a/net/ipv4/netfilter/ip_tables.c
++++ b/net/ipv4/netfilter/ip_tables.c
+@@ -82,6 +82,9 @@ ip_packet_match(const struct iphdr *ip,
+ #define FWINV(bool, invflg) ((bool) ^ !!(ipinfo->invflags & (invflg)))
++      if (ipinfo->flags & IPT_F_NO_DEF_MATCH)
++              return true;
++
+       if (FWINV((ip->saddr&ipinfo->smsk.s_addr) != ipinfo->src.s_addr,
+                 IPT_INV_SRCIP) ||
+           FWINV((ip->daddr&ipinfo->dmsk.s_addr) != ipinfo->dst.s_addr,
+@@ -135,6 +138,29 @@ ip_packet_match(const struct iphdr *ip,
+       return true;
+ }
++static void
++ip_checkdefault(struct ipt_ip *ip)
++{
++      static const char iface_mask[IFNAMSIZ] = {};
++
++      if (ip->invflags || ip->flags & IPT_F_FRAG)
++              return;
++
++      if (memcmp(ip->iniface_mask, iface_mask, IFNAMSIZ) != 0)
++              return;
++
++      if (memcmp(ip->outiface_mask, iface_mask, IFNAMSIZ) != 0)
++              return;
++
++      if (ip->smsk.s_addr || ip->dmsk.s_addr)
++              return;
++
++      if (ip->proto)
++              return;
++
++      ip->flags |= IPT_F_NO_DEF_MATCH;
++}
++
+ static bool
+ ip_checkentry(const struct ipt_ip *ip)
+ {
+@@ -565,7 +591,7 @@ static void cleanup_match(struct xt_entr
+ }
+ static int
+-check_entry(const struct ipt_entry *e, const char *name)
++check_entry(struct ipt_entry *e, const char *name)
+ {
+       const struct xt_entry_target *t;
+@@ -574,6 +600,8 @@ check_entry(const struct ipt_entry *e, c
+               return -EINVAL;
+       }
++      ip_checkdefault(&e->ip);
++
+       if (e->target_offset + sizeof(struct xt_entry_target) >
+           e->next_offset)
+               return -EINVAL;
+@@ -935,6 +963,7 @@ copy_entries_to_user(unsigned int total_
+       const struct xt_table_info *private = table->private;
+       int ret = 0;
+       const void *loc_cpu_entry;
++      u8 flags;
+       counters = alloc_counters(table);
+       if (IS_ERR(counters))
+@@ -966,6 +995,14 @@ copy_entries_to_user(unsigned int total_
+                       goto free_counters;
+               }
++              flags = e->ip.flags & IPT_F_MASK;
++              if (copy_to_user(userptr + off
++                               + offsetof(struct ipt_entry, ip.flags),
++                               &flags, sizeof(flags)) != 0) {
++                      ret = -EFAULT;
++                      goto free_counters;
++              }
++
+               for (i = sizeof(struct ipt_entry);
+                    i < e->target_offset;
+                    i += m->u.match_size) {
diff --git a/trunk/target/linux/generic/patches-3.18/611-netfilter_match_bypass_default_table.patch b/trunk/target/linux/generic/patches-3.18/611-netfilter_match_bypass_default_table.patch
new file mode 100644 (file)
index 0000000..ef993c8
--- /dev/null
@@ -0,0 +1,94 @@
+--- a/net/ipv4/netfilter/ip_tables.c
++++ b/net/ipv4/netfilter/ip_tables.c
+@@ -310,6 +310,33 @@ struct ipt_entry *ipt_next_entry(const s
+       return (void *)entry + entry->next_offset;
+ }
++static bool
++ipt_handle_default_rule(struct ipt_entry *e, unsigned int *verdict)
++{
++      struct xt_entry_target *t;
++      struct xt_standard_target *st;
++
++      if (e->target_offset != sizeof(struct ipt_entry))
++              return false;
++
++      if (!(e->ip.flags & IPT_F_NO_DEF_MATCH))
++              return false;
++
++      t = ipt_get_target(e);
++      if (t->u.kernel.target->target)
++              return false;
++
++      st = (struct xt_standard_target *) t;
++      if (st->verdict == XT_RETURN)
++              return false;
++
++      if (st->verdict >= 0)
++              return false;
++
++      *verdict = (unsigned)(-st->verdict) - 1;
++      return true;
++}
++
+ /* Returns one of the generic firewall policies, like NF_ACCEPT. */
+ unsigned int
+ ipt_do_table(struct sk_buff *skb,
+@@ -331,9 +358,33 @@ ipt_do_table(struct sk_buff *skb,
+       unsigned int addend;
+       /* Initialization */
++      IP_NF_ASSERT(table->valid_hooks & (1 << hook));
++      local_bh_disable();
++      private = table->private;
++      cpu        = smp_processor_id();
++      /*
++       * Ensure we load private-> members after we've fetched the base
++       * pointer.
++       */
++      smp_read_barrier_depends();
++      table_base = private->entries[cpu];
++
++      e = get_entry(table_base, private->hook_entry[hook]);
++      if (ipt_handle_default_rule(e, &verdict)) {
++              ADD_COUNTER(e->counters, skb->len, 1);
++              local_bh_enable();
++              return verdict;
++      }
++
+       ip = ip_hdr(skb);
+       indev = in ? in->name : nulldevname;
+       outdev = out ? out->name : nulldevname;
++
++      addend = xt_write_recseq_begin();
++      jumpstack  = (struct ipt_entry **)private->jumpstack[cpu];
++      stackptr   = per_cpu_ptr(private->stackptr, cpu);
++      origptr    = *stackptr;
++
+       /* We handle fragments by dealing with the first fragment as
+        * if it was a normal packet.  All other fragments are treated
+        * normally, except that they will NEVER match rules that ask
+@@ -348,23 +399,6 @@ ipt_do_table(struct sk_buff *skb,
+       acpar.family  = NFPROTO_IPV4;
+       acpar.hooknum = hook;
+-      IP_NF_ASSERT(table->valid_hooks & (1 << hook));
+-      local_bh_disable();
+-      addend = xt_write_recseq_begin();
+-      private = table->private;
+-      cpu        = smp_processor_id();
+-      /*
+-       * Ensure we load private-> members after we've fetched the base
+-       * pointer.
+-       */
+-      smp_read_barrier_depends();
+-      table_base = private->entries[cpu];
+-      jumpstack  = (struct ipt_entry **)private->jumpstack[cpu];
+-      stackptr   = per_cpu_ptr(private->stackptr, cpu);
+-      origptr    = *stackptr;
+-
+-      e = get_entry(table_base, private->hook_entry[hook]);
+-
+       pr_debug("Entering %s(hook %u); sp at %u (UF %p)\n",
+                table->name, hook, origptr,
+                get_entry(table_base, private->underflow[hook]));
diff --git a/trunk/target/linux/generic/patches-3.18/612-netfilter_match_reduce_memory_access.patch b/trunk/target/linux/generic/patches-3.18/612-netfilter_match_reduce_memory_access.patch
new file mode 100644 (file)
index 0000000..72172d8
--- /dev/null
@@ -0,0 +1,16 @@
+--- a/net/ipv4/netfilter/ip_tables.c
++++ b/net/ipv4/netfilter/ip_tables.c
+@@ -85,9 +85,11 @@ ip_packet_match(const struct iphdr *ip,
+       if (ipinfo->flags & IPT_F_NO_DEF_MATCH)
+               return true;
+-      if (FWINV((ip->saddr&ipinfo->smsk.s_addr) != ipinfo->src.s_addr,
++      if (FWINV(ipinfo->smsk.s_addr &&
++                (ip->saddr&ipinfo->smsk.s_addr) != ipinfo->src.s_addr,
+                 IPT_INV_SRCIP) ||
+-          FWINV((ip->daddr&ipinfo->dmsk.s_addr) != ipinfo->dst.s_addr,
++          FWINV(ipinfo->dmsk.s_addr &&
++                (ip->daddr&ipinfo->dmsk.s_addr) != ipinfo->dst.s_addr,
+                 IPT_INV_DSTIP)) {
+               dprintf("Source or dest mismatch.\n");
diff --git a/trunk/target/linux/generic/patches-3.18/613-netfilter_optional_tcp_window_check.patch b/trunk/target/linux/generic/patches-3.18/613-netfilter_optional_tcp_window_check.patch
new file mode 100644 (file)
index 0000000..1d3b37c
--- /dev/null
@@ -0,0 +1,36 @@
+--- a/net/netfilter/nf_conntrack_proto_tcp.c
++++ b/net/netfilter/nf_conntrack_proto_tcp.c
+@@ -33,6 +33,9 @@
+ #include <net/netfilter/ipv4/nf_conntrack_ipv4.h>
+ #include <net/netfilter/ipv6/nf_conntrack_ipv6.h>
++/* Do not check the TCP window for incoming packets  */
++static int nf_ct_tcp_no_window_check __read_mostly = 1;
++
+ /* "Be conservative in what you do,
+     be liberal in what you accept from others."
+     If it's non-zero, we mark only out of window RST segments as INVALID. */
+@@ -515,6 +518,9 @@ static bool tcp_in_window(const struct n
+       s32 receiver_offset;
+       bool res, in_recv_win;
++      if (nf_ct_tcp_no_window_check)
++              return true;
++
+       /*
+        * Get the required data from the packet.
+        */
+@@ -1452,6 +1458,13 @@ static struct ctl_table tcp_sysctl_table
+               .mode           = 0644,
+               .proc_handler   = proc_dointvec,
+       },
++      {
++              .procname       = "nf_conntrack_tcp_no_window_check",
++              .data           = &nf_ct_tcp_no_window_check,
++              .maxlen         = sizeof(unsigned int),
++              .mode           = 0644,
++              .proc_handler   = proc_dointvec,
++      },
+       { }
+ };
diff --git a/trunk/target/linux/generic/patches-3.18/615-netfilter_add_xt_id_match.patch b/trunk/target/linux/generic/patches-3.18/615-netfilter_add_xt_id_match.patch
new file mode 100644 (file)
index 0000000..cbb9b2b
--- /dev/null
@@ -0,0 +1,95 @@
+--- a/include/uapi/linux/netfilter/Kbuild
++++ b/include/uapi/linux/netfilter/Kbuild
+@@ -55,6 +55,7 @@ header-y += xt_ecn.h
+ header-y += xt_esp.h
+ header-y += xt_hashlimit.h
+ header-y += xt_helper.h
++header-y += xt_id.h
+ header-y += xt_ipcomp.h
+ header-y += xt_iprange.h
+ header-y += xt_ipvs.h
+--- /dev/null
++++ b/include/uapi/linux/netfilter/xt_id.h
+@@ -0,0 +1,8 @@
++#ifndef _XT_ID_H
++#define _XT_ID_H
++
++struct xt_id_info {
++      u32 id;
++};
++
++#endif /* XT_ID_H */
+--- a/net/netfilter/Kconfig
++++ b/net/netfilter/Kconfig
+@@ -1157,6 +1157,13 @@ config NETFILTER_XT_MATCH_IPCOMP
+         To compile it as a module, choose M here.  If unsure, say N.
++config NETFILTER_XT_MATCH_ID
++      tristate '"id" match support'
++      depends on NETFILTER_ADVANCED
++      ---help---
++      This option adds a `id' dummy-match, which allows you to put
++      numeric IDs into your iptables ruleset.
++
+ config NETFILTER_XT_MATCH_IPRANGE
+       tristate '"iprange" address range match support'
+       depends on NETFILTER_ADVANCED
+--- a/net/netfilter/Makefile
++++ b/net/netfilter/Makefile
+@@ -143,6 +143,7 @@ obj-$(CONFIG_NETFILTER_XT_MATCH_ESP) += 
+ obj-$(CONFIG_NETFILTER_XT_MATCH_HASHLIMIT) += xt_hashlimit.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_HELPER) += xt_helper.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_HL) += xt_hl.o
++obj-$(CONFIG_NETFILTER_XT_MATCH_ID) += xt_id.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_IPCOMP) += xt_ipcomp.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_IPRANGE) += xt_iprange.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_IPVS) += xt_ipvs.o
+--- /dev/null
++++ b/net/netfilter/xt_id.c
+@@ -0,0 +1,45 @@
++/*
++ * Implements a dummy match to allow attaching IDs to rules
++ *
++ * 2014-08-01 Jo-Philipp Wich <jow@openwrt.org>
++ */
++
++#include <linux/module.h>
++#include <linux/skbuff.h>
++#include <linux/netfilter/x_tables.h>
++#include <linux/netfilter/xt_id.h>
++
++MODULE_AUTHOR("Jo-Philipp Wich <jow@openwrt.org>");
++MODULE_DESCRIPTION("Xtables: No-op match which can be tagged with a 32bit ID");
++MODULE_LICENSE("GPL");
++MODULE_ALIAS("ipt_id");
++MODULE_ALIAS("ip6t_id");
++
++static bool
++id_mt(const struct sk_buff *skb, struct xt_action_param *par)
++{
++      /* We always match */
++      return true;
++}
++
++static struct xt_match id_mt_reg __read_mostly = {
++      .name      = "id",
++      .revision  = 0,
++      .family    = NFPROTO_UNSPEC,
++      .match     = id_mt,
++      .matchsize = sizeof(struct xt_id_info),
++      .me        = THIS_MODULE,
++};
++
++static int __init id_mt_init(void)
++{
++      return xt_register_match(&id_mt_reg);
++}
++
++static void __exit id_mt_exit(void)
++{
++      xt_unregister_match(&id_mt_reg);
++}
++
++module_init(id_mt_init);
++module_exit(id_mt_exit);
diff --git a/trunk/target/linux/generic/patches-3.18/616-net_optimize_xfrm_calls.patch b/trunk/target/linux/generic/patches-3.18/616-net_optimize_xfrm_calls.patch
new file mode 100644 (file)
index 0000000..2a64d54
--- /dev/null
@@ -0,0 +1,12 @@
+--- a/net/netfilter/nf_nat_core.c
++++ b/net/netfilter/nf_nat_core.c
+@@ -90,6 +90,9 @@ int nf_xfrm_me_harder(struct sk_buff *sk
+       struct dst_entry *dst;
+       int err;
++      if (skb->dev && !dev_net(skb->dev)->xfrm.policy_count[XFRM_POLICY_OUT])
++              return 0;
++
+       err = xfrm_decode_session(skb, &fl, family);
+       if (err < 0)
+               return err;
diff --git a/trunk/target/linux/generic/patches-3.18/620-sched_esfq.patch b/trunk/target/linux/generic/patches-3.18/620-sched_esfq.patch
new file mode 100644 (file)
index 0000000..9726e4a
--- /dev/null
@@ -0,0 +1,791 @@
+--- a/include/uapi/linux/pkt_sched.h
++++ b/include/uapi/linux/pkt_sched.h
+@@ -226,6 +226,33 @@ struct tc_sfq_xstats {
+       __s32           allot;
+ };
++/* ESFQ section */
++
++enum
++{
++        /* traditional */
++      TCA_SFQ_HASH_CLASSIC,
++      TCA_SFQ_HASH_DST,
++      TCA_SFQ_HASH_SRC,
++      TCA_SFQ_HASH_FWMARK,
++      /* conntrack */
++      TCA_SFQ_HASH_CTORIGDST,
++      TCA_SFQ_HASH_CTORIGSRC,
++      TCA_SFQ_HASH_CTREPLDST,
++      TCA_SFQ_HASH_CTREPLSRC,
++      TCA_SFQ_HASH_CTNATCHG,
++};
++
++struct tc_esfq_qopt
++{
++      unsigned        quantum;        /* Bytes per round allocated to flow */
++      int             perturb_period; /* Period of hash perturbation */
++      __u32           limit;          /* Maximal packets in queue */
++      unsigned        divisor;        /* Hash divisor  */
++      unsigned        flows;          /* Maximal number of flows  */
++      unsigned        hash_kind;      /* Hash function to use for flow identification */
++};
++
+ /* RED section */
+ enum {
+--- a/net/sched/Kconfig
++++ b/net/sched/Kconfig
+@@ -148,6 +148,37 @@ config NET_SCH_SFQ
+         To compile this code as a module, choose M here: the
+         module will be called sch_sfq.
++config NET_SCH_ESFQ
++      tristate "Enhanced Stochastic Fairness Queueing (ESFQ)"
++      ---help---
++        Say Y here if you want to use the Enhanced Stochastic Fairness
++        Queueing (ESFQ) packet scheduling algorithm for some of your network
++        devices or as a leaf discipline for a classful qdisc such as HTB or
++        CBQ (see the top of <file:net/sched/sch_esfq.c> for details and
++        references to the SFQ algorithm).
++
++        This is an enchanced SFQ version which allows you to control some
++        hardcoded values in the SFQ scheduler.
++
++        ESFQ also adds control of the hash function used to identify packet
++        flows. The original SFQ discipline hashes by connection; ESFQ add
++        several other hashing methods, such as by src IP or by dst IP, which
++        can be more fair to users in some networking situations.
++
++        To compile this code as a module, choose M here: the
++        module will be called sch_esfq.
++
++config NET_SCH_ESFQ_NFCT
++      bool "Connection Tracking Hash Types"
++      depends on NET_SCH_ESFQ && NF_CONNTRACK
++      ---help---
++        Say Y here to enable support for hashing based on netfilter connection
++        tracking information. This is useful for a router that is also using
++        NAT to connect privately-addressed hosts to the Internet. If you want
++        to provide fair distribution of upstream bandwidth, ESFQ must use
++        connection tracking information, since all outgoing packets will share
++        the same source address.
++
+ config NET_SCH_TEQL
+       tristate "True Link Equalizer (TEQL)"
+       ---help---
+--- a/net/sched/Makefile
++++ b/net/sched/Makefile
+@@ -26,6 +26,7 @@ obj-$(CONFIG_NET_SCH_INGRESS)        += sch_ing
+ obj-$(CONFIG_NET_SCH_DSMARK)  += sch_dsmark.o
+ obj-$(CONFIG_NET_SCH_SFB)     += sch_sfb.o
+ obj-$(CONFIG_NET_SCH_SFQ)     += sch_sfq.o
++obj-$(CONFIG_NET_SCH_ESFQ)    += sch_esfq.o
+ obj-$(CONFIG_NET_SCH_TBF)     += sch_tbf.o
+ obj-$(CONFIG_NET_SCH_TEQL)    += sch_teql.o
+ obj-$(CONFIG_NET_SCH_PRIO)    += sch_prio.o
+--- /dev/null
++++ b/net/sched/sch_esfq.c
+@@ -0,0 +1,702 @@
++/*
++ * net/sched/sch_esfq.c       Extended Stochastic Fairness Queueing discipline.
++ *
++ *            This program is free software; you can redistribute it and/or
++ *            modify it under the terms of the GNU General Public License
++ *            as published by the Free Software Foundation; either version
++ *            2 of the License, or (at your option) any later version.
++ *
++ * Authors:   Alexey Kuznetsov, <kuznet@ms2.inr.ac.ru>
++ *
++ * Changes:   Alexander Atanasov, <alex@ssi.bg>
++ *            Added dynamic depth,limit,divisor,hash_kind options.
++ *            Added dst and src hashes.
++ *
++ *            Alexander Clouter, <alex@digriz.org.uk>
++ *            Ported ESFQ to Linux 2.6.
++ *
++ *            Corey Hickey, <bugfood-c@fatooh.org>
++ *            Maintenance of the Linux 2.6 port.
++ *            Added fwmark hash (thanks to Robert Kurjata).
++ *            Added usage of jhash.
++ *            Added conntrack support.
++ *            Added ctnatchg hash (thanks to Ben Pfountz).
++ */
++
++#include <linux/module.h>
++#include <asm/uaccess.h>
++#include <linux/bitops.h>
++#include <linux/types.h>
++#include <linux/kernel.h>
++#include <linux/jiffies.h>
++#include <linux/string.h>
++#include <linux/mm.h>
++#include <linux/socket.h>
++#include <linux/sockios.h>
++#include <linux/in.h>
++#include <linux/errno.h>
++#include <linux/interrupt.h>
++#include <linux/if_ether.h>
++#include <linux/inet.h>
++#include <linux/netdevice.h>
++#include <linux/etherdevice.h>
++#include <linux/notifier.h>
++#include <linux/init.h>
++#include <net/ip.h>
++#include <net/netlink.h>
++#include <linux/ipv6.h>
++#include <net/route.h>
++#include <linux/skbuff.h>
++#include <net/sock.h>
++#include <net/pkt_sched.h>
++#include <linux/jhash.h>
++#ifdef CONFIG_NET_SCH_ESFQ_NFCT
++#include <net/netfilter/nf_conntrack.h>
++#endif
++
++/*    Stochastic Fairness Queuing algorithm.
++      For more comments look at sch_sfq.c.
++      The difference is that you can change limit, depth,
++      hash table size and choose alternate hash types.
++
++      classic:        same as in sch_sfq.c
++      dst:            destination IP address
++      src:            source IP address
++      fwmark:         netfilter mark value
++      ctorigdst:      original destination IP address
++      ctorigsrc:      original source IP address
++      ctrepldst:      reply destination IP address
++      ctreplsrc:      reply source IP
++
++*/
++
++#define ESFQ_HEAD 0
++#define ESFQ_TAIL 1
++
++/* This type should contain at least SFQ_DEPTH*2 values */
++typedef unsigned int esfq_index;
++
++struct esfq_head
++{
++      esfq_index      next;
++      esfq_index      prev;
++};
++
++struct esfq_sched_data
++{
++/* Parameters */
++      int             perturb_period;
++      unsigned        quantum;        /* Allotment per round: MUST BE >= MTU */
++      int             limit;
++      unsigned        depth;
++      unsigned        hash_divisor;
++      unsigned        hash_kind;
++/* Variables */
++      struct timer_list perturb_timer;
++      int             perturbation;
++      esfq_index      tail;           /* Index of current slot in round */
++      esfq_index      max_depth;      /* Maximal depth */
++
++      esfq_index      *ht;                    /* Hash table */
++      esfq_index      *next;                  /* Active slots link */
++      short           *allot;                 /* Current allotment per slot */
++      unsigned short  *hash;                  /* Hash value indexed by slots */
++      struct sk_buff_head     *qs;            /* Slot queue */
++      struct esfq_head        *dep;           /* Linked list of slots, indexed by depth */
++};
++
++/* This contains the info we will hash. */
++struct esfq_packet_info
++{
++      u32     proto;          /* protocol or port */
++      u32     src;            /* source from packet header */
++      u32     dst;            /* destination from packet header */
++      u32     ctorigsrc;      /* original source from conntrack */
++      u32     ctorigdst;      /* original destination from conntrack */
++      u32     ctreplsrc;      /* reply source from conntrack */
++      u32     ctrepldst;      /* reply destination from conntrack */
++      u32     mark;           /* netfilter mark (fwmark) */
++};
++
++static __inline__ unsigned esfq_jhash_1word(struct esfq_sched_data *q,u32 a)
++{
++      return jhash_1word(a, q->perturbation) & (q->hash_divisor-1);
++}
++
++static __inline__ unsigned esfq_jhash_2words(struct esfq_sched_data *q, u32 a, u32 b)
++{
++      return jhash_2words(a, b, q->perturbation) & (q->hash_divisor-1);
++}
++
++static __inline__ unsigned esfq_jhash_3words(struct esfq_sched_data *q, u32 a, u32 b, u32 c)
++{
++      return jhash_3words(a, b, c, q->perturbation) & (q->hash_divisor-1);
++}
++
++static unsigned esfq_hash(struct esfq_sched_data *q, struct sk_buff *skb)
++{
++      struct esfq_packet_info info;
++#ifdef CONFIG_NET_SCH_ESFQ_NFCT
++      enum ip_conntrack_info ctinfo;
++      struct nf_conn *ct = nf_ct_get(skb, &ctinfo);
++#endif
++
++      switch (skb->protocol) {
++      case __constant_htons(ETH_P_IP):
++      {
++              struct iphdr *iph = ip_hdr(skb);
++              info.dst = iph->daddr;
++              info.src = iph->saddr;
++              if (!(iph->frag_off&htons(IP_MF|IP_OFFSET)) &&
++                  (iph->protocol == IPPROTO_TCP ||
++                   iph->protocol == IPPROTO_UDP ||
++                   iph->protocol == IPPROTO_SCTP ||
++                   iph->protocol == IPPROTO_DCCP ||
++                   iph->protocol == IPPROTO_ESP))
++                      info.proto = *(((u32*)iph) + iph->ihl);
++              else
++                      info.proto = iph->protocol;
++              break;
++      }
++      case __constant_htons(ETH_P_IPV6):
++      {
++              struct ipv6hdr *iph = ipv6_hdr(skb);
++              /* Hash ipv6 addresses into a u32. This isn't ideal,
++               * but the code is simple. */
++              info.dst = jhash2(iph->daddr.s6_addr32, 4, q->perturbation);
++              info.src = jhash2(iph->saddr.s6_addr32, 4, q->perturbation);
++              if (iph->nexthdr == IPPROTO_TCP ||
++                  iph->nexthdr == IPPROTO_UDP ||
++                  iph->nexthdr == IPPROTO_SCTP ||
++                  iph->nexthdr == IPPROTO_DCCP ||
++                  iph->nexthdr == IPPROTO_ESP)
++                      info.proto = *(u32*)&iph[1];
++              else
++                      info.proto = iph->nexthdr;
++              break;
++      }
++      default:
++              info.dst   = (u32)(unsigned long)skb_dst(skb);
++              info.src   = (u32)(unsigned long)skb->sk;
++              info.proto = skb->protocol;
++      }
++
++      info.mark = skb->mark;
++
++#ifdef CONFIG_NET_SCH_ESFQ_NFCT
++      /* defaults if there is no conntrack info */
++      info.ctorigsrc = info.src;
++      info.ctorigdst = info.dst;
++      info.ctreplsrc = info.dst;
++      info.ctrepldst = info.src;
++      /* collect conntrack info */
++      if (ct && ct != &nf_conntrack_untracked) {
++              if (skb->protocol == __constant_htons(ETH_P_IP)) {
++                      info.ctorigsrc = ct->tuplehash[IP_CT_DIR_ORIGINAL].tuple.src.u3.ip;
++                      info.ctorigdst = ct->tuplehash[IP_CT_DIR_ORIGINAL].tuple.dst.u3.ip;
++                      info.ctreplsrc = ct->tuplehash[IP_CT_DIR_REPLY].tuple.src.u3.ip;
++                      info.ctrepldst = ct->tuplehash[IP_CT_DIR_REPLY].tuple.dst.u3.ip;
++              }
++              else if (skb->protocol == __constant_htons(ETH_P_IPV6)) {
++                      /* Again, hash ipv6 addresses into a single u32. */
++                      info.ctorigsrc = jhash2(ct->tuplehash[IP_CT_DIR_ORIGINAL].tuple.src.u3.ip6, 4, q->perturbation);
++                      info.ctorigdst = jhash2(ct->tuplehash[IP_CT_DIR_ORIGINAL].tuple.dst.u3.ip6, 4, q->perturbation);
++                      info.ctreplsrc = jhash2(ct->tuplehash[IP_CT_DIR_REPLY].tuple.src.u3.ip6, 4, q->perturbation);
++                      info.ctrepldst = jhash2(ct->tuplehash[IP_CT_DIR_REPLY].tuple.dst.u3.ip6, 4, q->perturbation);
++              }
++
++      }
++#endif
++
++      switch(q->hash_kind) {
++      case TCA_SFQ_HASH_CLASSIC:
++              return esfq_jhash_3words(q, info.dst, info.src, info.proto);
++      case TCA_SFQ_HASH_DST:
++              return esfq_jhash_1word(q, info.dst);
++      case TCA_SFQ_HASH_SRC:
++              return esfq_jhash_1word(q, info.src);
++      case TCA_SFQ_HASH_FWMARK:
++              return esfq_jhash_1word(q, info.mark);
++#ifdef CONFIG_NET_SCH_ESFQ_NFCT
++      case TCA_SFQ_HASH_CTORIGDST:
++              return esfq_jhash_1word(q, info.ctorigdst);
++      case TCA_SFQ_HASH_CTORIGSRC:
++              return esfq_jhash_1word(q, info.ctorigsrc);
++      case TCA_SFQ_HASH_CTREPLDST:
++              return esfq_jhash_1word(q, info.ctrepldst);
++      case TCA_SFQ_HASH_CTREPLSRC:
++              return esfq_jhash_1word(q, info.ctreplsrc);
++      case TCA_SFQ_HASH_CTNATCHG:
++      {
++              if (info.ctorigdst == info.ctreplsrc)
++                      return esfq_jhash_1word(q, info.ctorigsrc);
++              return esfq_jhash_1word(q, info.ctreplsrc);
++      }
++#endif
++      default:
++              if (net_ratelimit())
++                      printk(KERN_WARNING "ESFQ: Unknown hash method. Falling back to classic.\n");
++      }
++      return esfq_jhash_3words(q, info.dst, info.src, info.proto);
++}
++
++static inline void esfq_link(struct esfq_sched_data *q, esfq_index x)
++{
++      esfq_index p, n;
++      int d = q->qs[x].qlen + q->depth;
++
++      p = d;
++      n = q->dep[d].next;
++      q->dep[x].next = n;
++      q->dep[x].prev = p;
++      q->dep[p].next = q->dep[n].prev = x;
++}
++
++static inline void esfq_dec(struct esfq_sched_data *q, esfq_index x)
++{
++      esfq_index p, n;
++
++      n = q->dep[x].next;
++      p = q->dep[x].prev;
++      q->dep[p].next = n;
++      q->dep[n].prev = p;
++
++      if (n == p && q->max_depth == q->qs[x].qlen + 1)
++              q->max_depth--;
++
++      esfq_link(q, x);
++}
++
++static inline void esfq_inc(struct esfq_sched_data *q, esfq_index x)
++{
++      esfq_index p, n;
++      int d;
++
++      n = q->dep[x].next;
++      p = q->dep[x].prev;
++      q->dep[p].next = n;
++      q->dep[n].prev = p;
++      d = q->qs[x].qlen;
++      if (q->max_depth < d)
++              q->max_depth = d;
++
++      esfq_link(q, x);
++}
++
++static unsigned int esfq_drop(struct Qdisc *sch)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      esfq_index d = q->max_depth;
++      struct sk_buff *skb;
++      unsigned int len;
++
++      /* Queue is full! Find the longest slot and
++         drop a packet from it */
++
++      if (d > 1) {
++              esfq_index x = q->dep[d+q->depth].next;
++              skb = q->qs[x].prev;
++              len = skb->len;
++              __skb_unlink(skb, &q->qs[x]);
++              kfree_skb(skb);
++              esfq_dec(q, x);
++              sch->q.qlen--;
++              sch->qstats.drops++;
++              sch->qstats.backlog -= len;
++              return len;
++      }
++
++      if (d == 1) {
++              /* It is difficult to believe, but ALL THE SLOTS HAVE LENGTH 1. */
++              d = q->next[q->tail];
++              q->next[q->tail] = q->next[d];
++              q->allot[q->next[d]] += q->quantum;
++              skb = q->qs[d].prev;
++              len = skb->len;
++              __skb_unlink(skb, &q->qs[d]);
++              kfree_skb(skb);
++              esfq_dec(q, d);
++              sch->q.qlen--;
++              q->ht[q->hash[d]] = q->depth;
++              sch->qstats.drops++;
++              sch->qstats.backlog -= len;
++              return len;
++      }
++
++      return 0;
++}
++
++static void esfq_q_enqueue(struct sk_buff *skb, struct esfq_sched_data *q, unsigned int end)
++{
++      unsigned hash = esfq_hash(q, skb);
++      unsigned depth = q->depth;
++      esfq_index x;
++
++      x = q->ht[hash];
++      if (x == depth) {
++              q->ht[hash] = x = q->dep[depth].next;
++              q->hash[x] = hash;
++      }
++
++      if (end == ESFQ_TAIL)
++              __skb_queue_tail(&q->qs[x], skb);
++      else
++              __skb_queue_head(&q->qs[x], skb);
++
++      esfq_inc(q, x);
++      if (q->qs[x].qlen == 1) {               /* The flow is new */
++              if (q->tail == depth) { /* It is the first flow */
++                      q->tail = x;
++                      q->next[x] = x;
++                      q->allot[x] = q->quantum;
++              } else {
++                      q->next[x] = q->next[q->tail];
++                      q->next[q->tail] = x;
++                      q->tail = x;
++              }
++      }
++}
++
++static int esfq_enqueue(struct sk_buff *skb, struct Qdisc* sch)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      esfq_q_enqueue(skb, q, ESFQ_TAIL);
++      sch->qstats.backlog += skb->len;
++      if (++sch->q.qlen < q->limit-1) {
++              sch->bstats.bytes += skb->len;
++              sch->bstats.packets++;
++              return 0;
++      }
++
++      sch->qstats.drops++;
++      esfq_drop(sch);
++      return NET_XMIT_CN;
++}
++
++static struct sk_buff *esfq_peek(struct Qdisc* sch)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      esfq_index a;
++
++      /* No active slots */
++      if (q->tail == q->depth)
++              return NULL;
++
++      a = q->next[q->tail];
++      return skb_peek(&q->qs[a]);
++}
++
++static struct sk_buff *esfq_q_dequeue(struct esfq_sched_data *q)
++{
++      struct sk_buff *skb;
++      unsigned depth = q->depth;
++      esfq_index a, old_a;
++
++      /* No active slots */
++      if (q->tail == depth)
++              return NULL;
++
++      a = old_a = q->next[q->tail];
++
++      /* Grab packet */
++      skb = __skb_dequeue(&q->qs[a]);
++      esfq_dec(q, a);
++
++      /* Is the slot empty? */
++      if (q->qs[a].qlen == 0) {
++              q->ht[q->hash[a]] = depth;
++              a = q->next[a];
++              if (a == old_a) {
++                      q->tail = depth;
++                      return skb;
++              }
++              q->next[q->tail] = a;
++              q->allot[a] += q->quantum;
++      } else if ((q->allot[a] -= skb->len) <= 0) {
++              q->tail = a;
++              a = q->next[a];
++              q->allot[a] += q->quantum;
++      }
++
++      return skb;
++}
++
++static struct sk_buff *esfq_dequeue(struct Qdisc* sch)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      struct sk_buff *skb;
++
++      skb = esfq_q_dequeue(q);
++      if (skb == NULL)
++              return NULL;
++      sch->q.qlen--;
++      sch->qstats.backlog -= skb->len;
++      return skb;
++}
++
++static void esfq_q_destroy(struct esfq_sched_data *q)
++{
++      del_timer(&q->perturb_timer);
++      if(q->ht)
++              kfree(q->ht);
++      if(q->dep)
++              kfree(q->dep);
++      if(q->next)
++              kfree(q->next);
++      if(q->allot)
++              kfree(q->allot);
++      if(q->hash)
++              kfree(q->hash);
++      if(q->qs)
++              kfree(q->qs);
++}
++
++static void esfq_destroy(struct Qdisc *sch)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      esfq_q_destroy(q);
++}
++
++
++static void esfq_reset(struct Qdisc* sch)
++{
++      struct sk_buff *skb;
++
++      while ((skb = esfq_dequeue(sch)) != NULL)
++              kfree_skb(skb);
++}
++
++static void esfq_perturbation(unsigned long arg)
++{
++      struct Qdisc *sch = (struct Qdisc*)arg;
++      struct esfq_sched_data *q = qdisc_priv(sch);
++
++      q->perturbation = prandom_u32()&0x1F;
++
++      if (q->perturb_period) {
++              q->perturb_timer.expires = jiffies + q->perturb_period;
++              add_timer(&q->perturb_timer);
++      }
++}
++
++static unsigned int esfq_check_hash(unsigned int kind)
++{
++      switch (kind) {
++      case TCA_SFQ_HASH_CTORIGDST:
++      case TCA_SFQ_HASH_CTORIGSRC:
++      case TCA_SFQ_HASH_CTREPLDST:
++      case TCA_SFQ_HASH_CTREPLSRC:
++      case TCA_SFQ_HASH_CTNATCHG:
++#ifndef CONFIG_NET_SCH_ESFQ_NFCT
++      {
++              if (net_ratelimit())
++                      printk(KERN_WARNING "ESFQ: Conntrack hash types disabled in kernel config. Falling back to classic.\n");
++              return TCA_SFQ_HASH_CLASSIC;
++      }
++#endif
++      case TCA_SFQ_HASH_CLASSIC:
++      case TCA_SFQ_HASH_DST:
++      case TCA_SFQ_HASH_SRC:
++      case TCA_SFQ_HASH_FWMARK:
++              return kind;
++      default:
++      {
++              if (net_ratelimit())
++                      printk(KERN_WARNING "ESFQ: Unknown hash type. Falling back to classic.\n");
++              return TCA_SFQ_HASH_CLASSIC;
++      }
++      }
++}
++
++static int esfq_q_init(struct esfq_sched_data *q, struct nlattr *opt)
++{
++      struct tc_esfq_qopt *ctl = nla_data(opt);
++      esfq_index p = ~0U/2;
++      int i;
++
++      if (opt && opt->nla_len < nla_attr_size(sizeof(*ctl)))
++              return -EINVAL;
++
++      q->perturbation = 0;
++      q->hash_kind = TCA_SFQ_HASH_CLASSIC;
++      q->max_depth = 0;
++      if (opt == NULL) {
++              q->perturb_period = 0;
++              q->hash_divisor = 1024;
++              q->tail = q->limit = q->depth = 128;
++
++      } else {
++              struct tc_esfq_qopt *ctl = nla_data(opt);
++              if (ctl->quantum)
++                      q->quantum = ctl->quantum;
++              q->perturb_period = ctl->perturb_period*HZ;
++              q->hash_divisor = ctl->divisor ? : 1024;
++              q->tail = q->limit = q->depth = ctl->flows ? : 128;
++
++              if ( q->depth > p - 1 )
++                      return -EINVAL;
++
++              if (ctl->limit)
++                      q->limit = min_t(u32, ctl->limit, q->depth);
++
++              if (ctl->hash_kind) {
++                      q->hash_kind = esfq_check_hash(ctl->hash_kind);
++              }
++      }
++
++      q->ht = kmalloc(q->hash_divisor*sizeof(esfq_index), GFP_KERNEL);
++      if (!q->ht)
++              goto err_case;
++      q->dep = kmalloc((1+q->depth*2)*sizeof(struct esfq_head), GFP_KERNEL);
++      if (!q->dep)
++              goto err_case;
++      q->next = kmalloc(q->depth*sizeof(esfq_index), GFP_KERNEL);
++      if (!q->next)
++              goto err_case;
++      q->allot = kmalloc(q->depth*sizeof(short), GFP_KERNEL);
++      if (!q->allot)
++              goto err_case;
++      q->hash = kmalloc(q->depth*sizeof(unsigned short), GFP_KERNEL);
++      if (!q->hash)
++              goto err_case;
++      q->qs = kmalloc(q->depth*sizeof(struct sk_buff_head), GFP_KERNEL);
++      if (!q->qs)
++              goto err_case;
++
++      for (i=0; i< q->hash_divisor; i++)
++              q->ht[i] = q->depth;
++      for (i=0; i<q->depth; i++) {
++              skb_queue_head_init(&q->qs[i]);
++              q->dep[i+q->depth].next = i+q->depth;
++              q->dep[i+q->depth].prev = i+q->depth;
++      }
++
++      for (i=0; i<q->depth; i++)
++              esfq_link(q, i);
++      return 0;
++err_case:
++      esfq_q_destroy(q);
++      return -ENOBUFS;
++}
++
++static int esfq_init(struct Qdisc *sch, struct nlattr *opt)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      int err;
++
++      q->quantum = psched_mtu(qdisc_dev(sch)); /* default */
++      if ((err = esfq_q_init(q, opt)))
++              return err;
++
++      init_timer(&q->perturb_timer);
++      q->perturb_timer.data = (unsigned long)sch;
++      q->perturb_timer.function = esfq_perturbation;
++      if (q->perturb_period) {
++              q->perturb_timer.expires = jiffies + q->perturb_period;
++              add_timer(&q->perturb_timer);
++      }
++
++      return 0;
++}
++
++static int esfq_change(struct Qdisc *sch, struct nlattr *opt)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      struct esfq_sched_data new;
++      struct sk_buff *skb;
++      int err;
++
++      /* set up new queue */
++      memset(&new, 0, sizeof(struct esfq_sched_data));
++      new.quantum = psched_mtu(qdisc_dev(sch)); /* default */
++      if ((err = esfq_q_init(&new, opt)))
++              return err;
++
++      /* copy all packets from the old queue to the new queue */
++      sch_tree_lock(sch);
++      while ((skb = esfq_q_dequeue(q)) != NULL)
++              esfq_q_enqueue(skb, &new, ESFQ_TAIL);
++
++      /* clean up the old queue */
++      esfq_q_destroy(q);
++
++      /* copy elements of the new queue into the old queue */
++      q->perturb_period = new.perturb_period;
++      q->quantum        = new.quantum;
++      q->limit          = new.limit;
++      q->depth          = new.depth;
++      q->hash_divisor   = new.hash_divisor;
++      q->hash_kind      = new.hash_kind;
++      q->tail           = new.tail;
++      q->max_depth      = new.max_depth;
++      q->ht    = new.ht;
++      q->dep   = new.dep;
++      q->next  = new.next;
++      q->allot = new.allot;
++      q->hash  = new.hash;
++      q->qs    = new.qs;
++
++      /* finish up */
++      if (q->perturb_period) {
++              q->perturb_timer.expires = jiffies + q->perturb_period;
++              add_timer(&q->perturb_timer);
++      } else {
++              q->perturbation = 0;
++      }
++      sch_tree_unlock(sch);
++      return 0;
++}
++
++static int esfq_dump(struct Qdisc *sch, struct sk_buff *skb)
++{
++      struct esfq_sched_data *q = qdisc_priv(sch);
++      unsigned char *b = skb_tail_pointer(skb);
++      struct tc_esfq_qopt opt;
++
++      opt.quantum = q->quantum;
++      opt.perturb_period = q->perturb_period/HZ;
++
++      opt.limit = q->limit;
++      opt.divisor = q->hash_divisor;
++      opt.flows = q->depth;
++      opt.hash_kind = q->hash_kind;
++
++      if (nla_put(skb, TCA_OPTIONS, sizeof(opt), &opt))
++              goto nla_put_failure;
++
++      return skb->len;
++
++nla_put_failure:
++      nlmsg_trim(skb, b);
++      return -1;
++}
++
++static struct Qdisc_ops esfq_qdisc_ops =
++{
++      .next           =       NULL,
++      .cl_ops         =       NULL,
++      .id             =       "esfq",
++      .priv_size      =       sizeof(struct esfq_sched_data),
++      .enqueue        =       esfq_enqueue,
++      .dequeue        =       esfq_dequeue,
++      .peek           =       esfq_peek,
++      .drop           =       esfq_drop,
++      .init           =       esfq_init,
++      .reset          =       esfq_reset,
++      .destroy        =       esfq_destroy,
++      .change         =       esfq_change,
++      .dump           =       esfq_dump,
++      .owner          =       THIS_MODULE,
++};
++
++static int __init esfq_module_init(void)
++{
++      return register_qdisc(&esfq_qdisc_ops);
++}
++static void __exit esfq_module_exit(void)
++{
++      unregister_qdisc(&esfq_qdisc_ops);
++}
++module_init(esfq_module_init)
++module_exit(esfq_module_exit)
++MODULE_LICENSE("GPL");
diff --git a/trunk/target/linux/generic/patches-3.18/621-sched_act_connmark.patch b/trunk/target/linux/generic/patches-3.18/621-sched_act_connmark.patch
new file mode 100644 (file)
index 0000000..9459749
--- /dev/null
@@ -0,0 +1,161 @@
+--- /dev/null
++++ b/net/sched/act_connmark.c
+@@ -0,0 +1,126 @@
++/*
++ * Copyright (c) 2011 Felix Fietkau <nbd@openwrt.org>
++ *
++ * This program is free software; you can redistribute it and/or modify it
++ * under the terms and conditions of the GNU General Public License,
++ * version 2, as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope it will be useful, but WITHOUT
++ * ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or
++ * FITNESS FOR A PARTICULAR PURPOSE.  See the GNU General Public License for
++ * more details.
++ *
++ * You should have received a copy of the GNU General Public License along with
++ * this program; if not, write to the Free Software Foundation, Inc., 59 Temple
++ * Place - Suite 330, Boston, MA 02111-1307 USA.
++ */
++
++#include <linux/module.h>
++#include <linux/init.h>
++#include <linux/kernel.h>
++#include <linux/skbuff.h>
++#include <linux/rtnetlink.h>
++#include <linux/pkt_cls.h>
++#include <linux/ip.h>
++#include <linux/ipv6.h>
++#include <net/netlink.h>
++#include <net/pkt_sched.h>
++#include <net/act_api.h>
++
++#include <net/netfilter/nf_conntrack.h>
++#include <net/netfilter/nf_conntrack_core.h>
++
++#define TCA_ACT_CONNMARK      20
++
++#define CONNMARK_TAB_MASK     3
++
++static int tcf_connmark(struct sk_buff *skb, const struct tc_action *a,
++                     struct tcf_result *res)
++{
++      struct nf_conn *c;
++      enum ip_conntrack_info ctinfo;
++      int proto;
++      int r;
++
++      if (skb->protocol == htons(ETH_P_IP)) {
++              if (skb->len < sizeof(struct iphdr))
++                      goto out;
++              proto = PF_INET;
++      } else if (skb->protocol == htons(ETH_P_IPV6)) {
++              if (skb->len < sizeof(struct ipv6hdr))
++                      goto out;
++              proto = PF_INET6;
++      } else
++              goto out;
++
++      r = nf_conntrack_in(dev_net(skb->dev), proto, NF_INET_PRE_ROUTING, skb);
++      if (r != NF_ACCEPT)
++              goto out;
++
++      c = nf_ct_get(skb, &ctinfo);
++      if (!c)
++              goto out;
++
++      skb->mark = c->mark;
++      nf_conntrack_put(skb->nfct);
++      skb->nfct = NULL;
++
++out:
++      return TC_ACT_PIPE;
++}
++
++static int tcf_connmark_init(struct net *net, struct nlattr *nla,
++                           struct nlattr *est, struct tc_action *a,
++                           int ovr, int bind)
++{
++      int ret = 0;
++
++      if (!tcf_hash_check(0, a, bind)) {
++              ret = tcf_hash_create(0, est, a, sizeof(struct tcf_common), bind);
++              if (ret)
++                  return ret;
++
++              tcf_hash_insert(a);
++              ret = ACT_P_CREATED;
++      } else {
++              if (!ovr) {
++                      tcf_hash_release(a, bind);
++                      return -EEXIST;
++              }
++      }
++
++      return ret;
++}
++
++static inline int tcf_connmark_dump(struct sk_buff *skb, struct tc_action *a,
++                              int bind, int ref)
++{
++      return skb->len;
++}
++
++static struct tc_action_ops act_connmark_ops = {
++      .kind           =       "connmark",
++      .type           =       TCA_ACT_CONNMARK,
++      .owner          =       THIS_MODULE,
++      .act            =       tcf_connmark,
++      .dump           =       tcf_connmark_dump,
++      .init           =       tcf_connmark_init,
++};
++
++MODULE_AUTHOR("Felix Fietkau <nbd@openwrt.org>");
++MODULE_DESCRIPTION("Connection tracking mark restoring");
++MODULE_LICENSE("GPL");
++
++static int __init connmark_init_module(void)
++{
++
++      return tcf_register_action(&act_connmark_ops, CONNMARK_TAB_MASK);
++}
++
++static void __exit connmark_cleanup_module(void)
++{
++      tcf_unregister_action(&act_connmark_ops);
++}
++
++module_init(connmark_init_module);
++module_exit(connmark_cleanup_module);
+--- a/net/sched/Kconfig
++++ b/net/sched/Kconfig
+@@ -717,6 +717,19 @@ config NET_ACT_CSUM
+         To compile this code as a module, choose M here: the
+         module will be called act_csum.
++config NET_ACT_CONNMARK
++        tristate "Connection Tracking Marking"
++        depends on NET_CLS_ACT
++        depends on NF_CONNTRACK
++       depends on NF_CONNTRACK_MARK
++        ---help---
++        Say Y here to restore the connmark from a scheduler action
++
++        If unsure, say N.
++
++        To compile this code as a module, choose M here: the
++        module will be called act_connmark.
++
+ config NET_CLS_IND
+       bool "Incoming device classification"
+       depends on NET_CLS_U32 || NET_CLS_FW
+--- a/net/sched/Makefile
++++ b/net/sched/Makefile
+@@ -16,6 +16,7 @@ obj-$(CONFIG_NET_ACT_PEDIT)  += act_pedit
+ obj-$(CONFIG_NET_ACT_SIMP)    += act_simple.o
+ obj-$(CONFIG_NET_ACT_SKBEDIT) += act_skbedit.o
+ obj-$(CONFIG_NET_ACT_CSUM)    += act_csum.o
++obj-$(CONFIG_NET_ACT_CONNMARK)        += act_connmark.o
+ obj-$(CONFIG_NET_SCH_FIFO)    += sch_fifo.o
+ obj-$(CONFIG_NET_SCH_CBQ)     += sch_cbq.o
+ obj-$(CONFIG_NET_SCH_HTB)     += sch_htb.o
diff --git a/trunk/target/linux/generic/patches-3.18/630-packet_socket_type.patch b/trunk/target/linux/generic/patches-3.18/630-packet_socket_type.patch
new file mode 100644 (file)
index 0000000..06bd167
--- /dev/null
@@ -0,0 +1,134 @@
+This patch allows the user to specify desired packet types (outgoing,
+broadcast, unicast, etc.) on packet sockets via setsockopt.
+This can reduce the load in situations where only a limited number
+of packet types are necessary
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+
+--- a/include/uapi/linux/if_packet.h
++++ b/include/uapi/linux/if_packet.h
+@@ -31,6 +31,8 @@ struct sockaddr_ll {
+ #define PACKET_KERNEL         7               /* To kernel space      */
+ /* Unused, PACKET_FASTROUTE and PACKET_LOOPBACK are invisible to user space */
+ #define PACKET_FASTROUTE      6               /* Fastrouted frame     */
++#define PACKET_MASK_ANY               0xffffffff      /* mask for packet type bits */
++
+ /* Packet socket options */
+@@ -54,6 +56,7 @@ struct sockaddr_ll {
+ #define PACKET_FANOUT                 18
+ #define PACKET_TX_HAS_OFF             19
+ #define PACKET_QDISC_BYPASS           20
++#define PACKET_RECV_TYPE              21
+ #define PACKET_FANOUT_HASH            0
+ #define PACKET_FANOUT_LB              1
+--- a/net/packet/af_packet.c
++++ b/net/packet/af_packet.c
+@@ -1530,6 +1530,7 @@ static int packet_rcv_spkt(struct sk_buf
+ {
+       struct sock *sk;
+       struct sockaddr_pkt *spkt;
++      struct packet_sock *po;
+       /*
+        *      When we registered the protocol we saved the socket in the data
+@@ -1537,6 +1538,7 @@ static int packet_rcv_spkt(struct sk_buf
+        */
+       sk = pt->af_packet_priv;
++      po = pkt_sk(sk);
+       /*
+        *      Yank back the headers [hope the device set this
+@@ -1549,7 +1551,7 @@ static int packet_rcv_spkt(struct sk_buf
+        *      so that this procedure is noop.
+        */
+-      if (skb->pkt_type == PACKET_LOOPBACK)
++      if (!(po->pkt_type & (1 << skb->pkt_type)))
+               goto out;
+       if (!net_eq(dev_net(dev), sock_net(sk)))
+@@ -1756,12 +1758,12 @@ static int packet_rcv(struct sk_buff *sk
+       int skb_len = skb->len;
+       unsigned int snaplen, res;
+-      if (skb->pkt_type == PACKET_LOOPBACK)
+-              goto drop;
+-
+       sk = pt->af_packet_priv;
+       po = pkt_sk(sk);
++      if (!(po->pkt_type & (1 << skb->pkt_type)))
++              goto drop;
++
+       if (!net_eq(dev_net(dev), sock_net(sk)))
+               goto drop;
+@@ -1881,12 +1883,12 @@ static int tpacket_rcv(struct sk_buff *s
+       BUILD_BUG_ON(TPACKET_ALIGN(sizeof(*h.h2)) != 32);
+       BUILD_BUG_ON(TPACKET_ALIGN(sizeof(*h.h3)) != 48);
+-      if (skb->pkt_type == PACKET_LOOPBACK)
+-              goto drop;
+-
+       sk = pt->af_packet_priv;
+       po = pkt_sk(sk);
++      if (!(po->pkt_type & (1 << skb->pkt_type)))
++              goto drop;
++
+       if (!net_eq(dev_net(dev), sock_net(sk)))
+               goto drop;
+@@ -2823,6 +2825,7 @@ static int packet_create(struct net *net
+       spin_lock_init(&po->bind_lock);
+       mutex_init(&po->pg_vec_lock);
+       po->prot_hook.func = packet_rcv;
++      po->pkt_type = PACKET_MASK_ANY & ~(1 << PACKET_LOOPBACK);
+       if (sock->type == SOCK_PACKET)
+               po->prot_hook.func = packet_rcv_spkt;
+@@ -3403,6 +3406,16 @@ packet_setsockopt(struct socket *sock, i
+               po->xmit = val ? packet_direct_xmit : dev_queue_xmit;
+               return 0;
+       }
++        case PACKET_RECV_TYPE:
++        {
++                unsigned int val;
++                if (optlen != sizeof(val))
++                        return -EINVAL;
++                if (copy_from_user(&val, optval, sizeof(val)))
++                        return -EFAULT;
++                po->pkt_type = val & ~BIT(PACKET_LOOPBACK);
++                return 0;
++        }
+       default:
+               return -ENOPROTOOPT;
+       }
+@@ -3454,6 +3467,13 @@ static int packet_getsockopt(struct sock
+       case PACKET_VNET_HDR:
+               val = po->has_vnet_hdr;
+               break;
++      case PACKET_RECV_TYPE:
++              if (len > sizeof(unsigned int))
++                      len = sizeof(unsigned int);
++              val = po->pkt_type;
++
++              data = &val;
++              break;
+       case PACKET_VERSION:
+               val = po->tp_version;
+               break;
+--- a/net/packet/internal.h
++++ b/net/packet/internal.h
+@@ -117,6 +117,7 @@ struct packet_sock {
+       struct net_device __rcu *cached_dev;
+       int                     (*xmit)(struct sk_buff *skb);
+       struct packet_type      prot_hook ____cacheline_aligned_in_smp;
++      unsigned int            pkt_type;
+ };
+ static struct packet_sock *pkt_sk(struct sock *sk)
diff --git a/trunk/target/linux/generic/patches-3.18/640-bridge_no_eap_forward.patch b/trunk/target/linux/generic/patches-3.18/640-bridge_no_eap_forward.patch
new file mode 100644 (file)
index 0000000..acbf1e2
--- /dev/null
@@ -0,0 +1,15 @@
+--- a/net/bridge/br_input.c
++++ b/net/bridge/br_input.c
+@@ -97,7 +97,11 @@ int br_handle_frame_finish(struct sk_buf
+       dst = NULL;
+-      if (is_broadcast_ether_addr(dest)) {
++      if (skb->protocol == htons(ETH_P_PAE)) {
++              skb2 = skb;
++              /* Do not forward 802.1x/EAP frames */
++
++      } else if (is_broadcast_ether_addr(dest)) {
+               skb2 = skb;
+               unicast = false;
+       } else if (is_multicast_ether_addr(dest)) {
diff --git a/trunk/target/linux/generic/patches-3.18/641-bridge_always_accept_eap.patch b/trunk/target/linux/generic/patches-3.18/641-bridge_always_accept_eap.patch
new file mode 100644 (file)
index 0000000..d20773a
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/net/bridge/br_input.c
++++ b/net/bridge/br_input.c
+@@ -84,7 +84,7 @@ int br_handle_frame_finish(struct sk_buf
+           br_multicast_rcv(br, p, skb, vid))
+               goto drop;
+-      if (p->state == BR_STATE_LEARNING)
++      if ((p->state == BR_STATE_LEARNING) && skb->protocol != htons(ETH_P_PAE))
+               goto drop;
+       BR_INPUT_SKB_CB(skb)->brdev = br->dev;
diff --git a/trunk/target/linux/generic/patches-3.18/642-bridge_port_isolate.patch b/trunk/target/linux/generic/patches-3.18/642-bridge_port_isolate.patch
new file mode 100644 (file)
index 0000000..c98b947
--- /dev/null
@@ -0,0 +1,102 @@
+--- a/net/bridge/br_private.h
++++ b/net/bridge/br_private.h
+@@ -172,6 +172,7 @@ struct net_bridge_port
+ #define BR_FLOOD              0x00000040
+ #define BR_AUTO_MASK (BR_FLOOD | BR_LEARNING)
+ #define BR_PROMISC            0x00000080
++#define BR_ISOLATE_MODE               0x00000100
+ #ifdef CONFIG_BRIDGE_IGMP_SNOOPING
+       struct bridge_mcast_own_query   ip4_own_query;
+--- a/net/bridge/br_sysfs_if.c
++++ b/net/bridge/br_sysfs_if.c
+@@ -171,6 +171,22 @@ BRPORT_ATTR_FLAG(root_block, BR_ROOT_BLO
+ BRPORT_ATTR_FLAG(learning, BR_LEARNING);
+ BRPORT_ATTR_FLAG(unicast_flood, BR_FLOOD);
++static ssize_t show_isolate_mode(struct net_bridge_port *p, char *buf)
++{
++      int isolate_mode = (p->flags & BR_ISOLATE_MODE) ? 1 : 0;
++      return sprintf(buf, "%d\n", isolate_mode);
++}
++static ssize_t store_isolate_mode(struct net_bridge_port *p, unsigned long v)
++{
++      if (v)
++              p->flags |= BR_ISOLATE_MODE;
++      else
++              p->flags &= ~BR_ISOLATE_MODE;
++      return 0;
++}
++static BRPORT_ATTR(isolate_mode, S_IRUGO | S_IWUSR,
++                 show_isolate_mode, store_isolate_mode);
++
+ #ifdef CONFIG_BRIDGE_IGMP_SNOOPING
+ static ssize_t show_multicast_router(struct net_bridge_port *p, char *buf)
+ {
+@@ -213,6 +229,7 @@ static const struct brport_attribute *br
+       &brport_attr_multicast_router,
+       &brport_attr_multicast_fast_leave,
+ #endif
++      &brport_attr_isolate_mode,
+       NULL
+ };
+--- a/net/bridge/br_input.c
++++ b/net/bridge/br_input.c
+@@ -120,8 +120,8 @@ int br_handle_frame_finish(struct sk_buf
+               unicast = false;
+               br->dev->stats.multicast++;
+-      } else if ((dst = __br_fdb_get(br, dest, vid)) &&
+-                      dst->is_local) {
++      } else if ((p->flags & BR_ISOLATE_MODE) ||
++                 ((dst = __br_fdb_get(br, dest, vid)) && dst->is_local)) {
+               skb2 = skb;
+               /* Do not forward the packet since it's local. */
+               skb = NULL;
+--- a/net/bridge/br_forward.c
++++ b/net/bridge/br_forward.c
+@@ -117,7 +117,7 @@ EXPORT_SYMBOL_GPL(br_deliver);
+ /* called with rcu_read_lock */
+ void br_forward(const struct net_bridge_port *to, struct sk_buff *skb, struct sk_buff *skb0)
+ {
+-      if (should_deliver(to, skb)) {
++      if (should_deliver(to, skb) && !(to->flags & BR_ISOLATE_MODE)) {
+               if (skb0)
+                       deliver_clone(to, skb, __br_forward);
+               else
+@@ -173,7 +173,7 @@ static void br_flood(struct net_bridge *
+                    struct sk_buff *skb0,
+                    void (*__packet_hook)(const struct net_bridge_port *p,
+                                          struct sk_buff *skb),
+-                   bool unicast)
++                                              bool unicast, bool forward)
+ {
+       struct net_bridge_port *p;
+       struct net_bridge_port *prev;
+@@ -181,6 +181,8 @@ static void br_flood(struct net_bridge *
+       prev = NULL;
+       list_for_each_entry_rcu(p, &br->port_list, list) {
++              if (forward && (p->flags & BR_ISOLATE_MODE))
++                      continue;
+               /* Do not flood unicast traffic to ports that turn it off */
+               if (unicast && !(p->flags & BR_FLOOD))
+                       continue;
+@@ -207,14 +209,14 @@ out:
+ /* called with rcu_read_lock */
+ void br_flood_deliver(struct net_bridge *br, struct sk_buff *skb, bool unicast)
+ {
+-      br_flood(br, skb, NULL, __br_deliver, unicast);
++      br_flood(br, skb, NULL, __br_deliver, unicast, false);
+ }
+ /* called under bridge lock */
+ void br_flood_forward(struct net_bridge *br, struct sk_buff *skb,
+                     struct sk_buff *skb2, bool unicast)
+ {
+-      br_flood(br, skb, skb2, __br_forward, unicast);
++      br_flood(br, skb, skb2, __br_forward, unicast, true);
+ }
+ #ifdef CONFIG_BRIDGE_IGMP_SNOOPING
diff --git a/trunk/target/linux/generic/patches-3.18/643-bridge_remove_ipv6_dependency.patch b/trunk/target/linux/generic/patches-3.18/643-bridge_remove_ipv6_dependency.patch
new file mode 100644 (file)
index 0000000..b1a4015
--- /dev/null
@@ -0,0 +1,110 @@
+--- a/include/net/addrconf.h
++++ b/include/net/addrconf.h
+@@ -88,6 +88,12 @@ int ipv6_rcv_saddr_equal(const struct so
+ void addrconf_join_solict(struct net_device *dev, const struct in6_addr *addr);
+ void addrconf_leave_solict(struct inet6_dev *idev, const struct in6_addr *addr);
++extern int                    (*ipv6_dev_get_saddr_hook)(struct net *net,
++                                              const struct net_device *dev,
++                                              const struct in6_addr *daddr,
++                                              unsigned int prefs,
++                                              struct in6_addr *saddr);
++
+ static inline unsigned long addrconf_timeout_fixup(u32 timeout,
+                                                  unsigned int unit)
+ {
+--- a/net/bridge/Kconfig
++++ b/net/bridge/Kconfig
+@@ -6,7 +6,6 @@ config BRIDGE
+       tristate "802.1d Ethernet Bridging"
+       select LLC
+       select STP
+-      depends on IPV6 || IPV6=n
+       ---help---
+         If you say Y here, then your Linux box will be able to act as an
+         Ethernet bridge, which means that the different Ethernet segments it
+--- a/net/ipv6/Makefile
++++ b/net/ipv6/Makefile
+@@ -45,6 +45,7 @@ obj-y += addrconf_core.o exthdrs_core.o 
+ obj-$(CONFIG_INET) += output_core.o protocol.o $(ipv6-offload)
+ obj-$(subst m,y,$(CONFIG_IPV6)) += inet6_hashtables.o
++obj-$(subst m,y,$(CONFIG_IPV6)) += inet6_stubs.o
+ ifneq ($(CONFIG_IPV6),)
+ obj-$(CONFIG_NET_UDP_TUNNEL) += ip6_udp_tunnel.o
+--- a/net/ipv6/addrconf.c
++++ b/net/ipv6/addrconf.c
+@@ -1317,7 +1317,7 @@ out:
+       return ret;
+ }
+-int ipv6_dev_get_saddr(struct net *net, const struct net_device *dst_dev,
++static int __ipv6_dev_get_saddr(struct net *net, const struct net_device *dst_dev,
+                      const struct in6_addr *daddr, unsigned int prefs,
+                      struct in6_addr *saddr)
+ {
+@@ -1442,7 +1442,6 @@ try_nextdev:
+       in6_ifa_put(hiscore->ifa);
+       return 0;
+ }
+-EXPORT_SYMBOL(ipv6_dev_get_saddr);
+ int __ipv6_get_lladdr(struct inet6_dev *idev, struct in6_addr *addr,
+                     u32 banned_flags)
+@@ -5451,6 +5450,9 @@ int __init addrconf_init(void)
+       ipv6_addr_label_rtnl_register();
++      BUG_ON(ipv6_dev_get_saddr_hook != NULL);
++      rcu_assign_pointer(ipv6_dev_get_saddr_hook, __ipv6_dev_get_saddr);
++
+       return 0;
+ errout:
+       rtnl_af_unregister(&inet6_ops);
+@@ -5470,6 +5472,9 @@ void addrconf_cleanup(void)
+       struct net_device *dev;
+       int i;
++      rcu_assign_pointer(ipv6_dev_get_saddr_hook, NULL);
++      synchronize_rcu();
++
+       unregister_netdevice_notifier(&ipv6_dev_notf);
+       unregister_pernet_subsys(&addrconf_ops);
+       ipv6_addr_label_cleanup();
+--- /dev/null
++++ b/net/ipv6/inet6_stubs.c
+@@ -0,0 +1,33 @@
++/*
++ *      This program is free software; you can redistribute it and/or
++ *      modify it under the terms of the GNU General Public License
++ *      as published by the Free Software Foundation; either version
++ *      2 of the License, or (at your option) any later version.
++ */
++#include <linux/export.h>
++#include <net/ipv6.h>
++
++int (*ipv6_dev_get_saddr_hook)(struct net *net, const struct net_device *dev,
++                      const struct in6_addr *daddr, unsigned int prefs,
++                      struct in6_addr *saddr);
++
++EXPORT_SYMBOL(ipv6_dev_get_saddr_hook);
++
++int ipv6_dev_get_saddr(struct net *net, const struct net_device *dst_dev,
++                      const struct in6_addr *daddr, unsigned int prefs,
++                      struct in6_addr *saddr)
++{
++      int ret = -EADDRNOTAVAIL;
++      typeof(ipv6_dev_get_saddr_hook) dev_get_saddr;
++
++      rcu_read_lock();
++      dev_get_saddr = rcu_dereference(ipv6_dev_get_saddr_hook);
++
++      if (dev_get_saddr)
++              ret = dev_get_saddr(net, dst_dev, daddr, prefs, saddr);
++
++      rcu_read_unlock();
++      return ret;
++}
++EXPORT_SYMBOL(ipv6_dev_get_saddr);
++
diff --git a/trunk/target/linux/generic/patches-3.18/644-bridge_optimize_netfilter_hooks.patch b/trunk/target/linux/generic/patches-3.18/644-bridge_optimize_netfilter_hooks.patch
new file mode 100644 (file)
index 0000000..4df94ca
--- /dev/null
@@ -0,0 +1,172 @@
+--- a/net/bridge/br_forward.c
++++ b/net/bridge/br_forward.c
+@@ -53,7 +53,7 @@ EXPORT_SYMBOL_GPL(br_dev_queue_push_xmit
+ int br_forward_finish(struct sk_buff *skb)
+ {
+-      return NF_HOOK(NFPROTO_BRIDGE, NF_BR_POST_ROUTING, skb, NULL, skb->dev,
++      return BR_HOOK(NFPROTO_BRIDGE, NF_BR_POST_ROUTING, skb, NULL, skb->dev,
+                      br_dev_queue_push_xmit);
+ }
+@@ -77,7 +77,7 @@ static void __br_deliver(const struct ne
+               return;
+       }
+-      NF_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_OUT, skb, NULL, skb->dev,
++      BR_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_OUT, skb, NULL, skb->dev,
+               br_forward_finish);
+ }
+@@ -98,7 +98,7 @@ static void __br_forward(const struct ne
+       skb->dev = to->dev;
+       skb_forward_csum(skb);
+-      NF_HOOK(NFPROTO_BRIDGE, NF_BR_FORWARD, skb, indev, skb->dev,
++      BR_HOOK(NFPROTO_BRIDGE, NF_BR_FORWARD, skb, indev, skb->dev,
+               br_forward_finish);
+ }
+--- a/net/bridge/br_input.c
++++ b/net/bridge/br_input.c
+@@ -53,7 +53,7 @@ static int br_pass_frame_up(struct sk_bu
+       if (!skb)
+               return NET_RX_DROP;
+-      return NF_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_IN, skb, indev, NULL,
++      return BR_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_IN, skb, indev, NULL,
+                      netif_receive_skb);
+ }
+@@ -219,7 +219,7 @@ rx_handler_result_t br_handle_frame(stru
+               }
+               /* Deliver packet to local host only */
+-              if (NF_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_IN, skb, skb->dev,
++              if (BR_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_IN, skb, skb->dev,
+                           NULL, br_handle_local_finish)) {
+                       return RX_HANDLER_CONSUMED; /* consumed by filter */
+               } else {
+@@ -234,7 +234,7 @@ forward:
+               if (ether_addr_equal(p->br->dev->dev_addr, dest))
+                       skb->pkt_type = PACKET_HOST;
+-              if (NF_HOOK(NFPROTO_BRIDGE, NF_BR_PRE_ROUTING, skb, skb->dev, NULL,
++              if (BR_HOOK(NFPROTO_BRIDGE, NF_BR_PRE_ROUTING, skb, skb->dev, NULL,
+                       br_handle_local_finish))
+                       break;
+@@ -256,7 +256,7 @@ forward:
+               if (ether_addr_equal(p->br->dev->dev_addr, dest))
+                       skb->pkt_type = PACKET_HOST;
+-              NF_HOOK(NFPROTO_BRIDGE, NF_BR_PRE_ROUTING, skb, skb->dev, NULL,
++              BR_HOOK(NFPROTO_BRIDGE, NF_BR_PRE_ROUTING, skb, skb->dev, NULL,
+                       br_handle_frame_finish);
+               break;
+       default:
+--- a/net/bridge/br_multicast.c
++++ b/net/bridge/br_multicast.c
+@@ -814,7 +814,7 @@ static void __br_multicast_send_query(st
+       if (port) {
+               skb->dev = port->dev;
+-              NF_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_OUT, skb, NULL, skb->dev,
++              BR_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_OUT, skb, NULL, skb->dev,
+                       br_dev_queue_push_xmit);
+       } else {
+               br_multicast_select_own_querier(br, ip, skb);
+--- a/net/bridge/br_netfilter.c
++++ b/net/bridge/br_netfilter.c
+@@ -73,6 +73,15 @@ static int brnf_pass_vlan_indev __read_m
+ #define IS_ARP(skb) \
+       (!vlan_tx_tag_present(skb) && skb->protocol == htons(ETH_P_ARP))
++int brnf_call_ebtables __read_mostly = 0;
++EXPORT_SYMBOL_GPL(brnf_call_ebtables);
++
++bool br_netfilter_run_hooks(void)
++{
++      return brnf_call_iptables | brnf_call_ip6tables | brnf_call_arptables |
++             brnf_call_ebtables;
++}
++
+ static inline __be16 vlan_proto(const struct sk_buff *skb)
+ {
+       if (vlan_tx_tag_present(skb))
+--- a/net/bridge/br_private.h
++++ b/net/bridge/br_private.h
+@@ -778,6 +778,24 @@ static inline void br_nf_core_fini(void)
+ #define br_netfilter_rtable_init(x)
+ #endif
++#if IS_BUILTIN(CONFIG_BRIDGE_NETFILTER)
++extern int brnf_call_ebtables;
++bool br_netfilter_run_hooks(void);
++#else
++#define br_netfilter_run_hooks()      false
++#endif
++
++static inline int
++BR_HOOK(uint8_t pf, unsigned int hook, struct sk_buff *skb,
++      struct net_device *in, struct net_device *out,
++      int (*okfn)(struct sk_buff *))
++{
++      if (!br_netfilter_run_hooks())
++              return okfn(skb);
++
++      return NF_HOOK(pf, hook, skb, in, out, okfn);
++}
++
+ /* br_stp.c */
+ void br_log_state(const struct net_bridge_port *p);
+ void br_set_state(struct net_bridge_port *p, unsigned int state);
+--- a/net/bridge/br_stp_bpdu.c
++++ b/net/bridge/br_stp_bpdu.c
+@@ -54,7 +54,7 @@ static void br_send_bpdu(struct net_brid
+       skb_reset_mac_header(skb);
+-      NF_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_OUT, skb, NULL, skb->dev,
++      BR_HOOK(NFPROTO_BRIDGE, NF_BR_LOCAL_OUT, skb, NULL, skb->dev,
+               dev_queue_xmit);
+ }
+--- a/net/bridge/netfilter/ebtables.c
++++ b/net/bridge/netfilter/ebtables.c
+@@ -2414,11 +2414,19 @@ static int __init ebtables_init(void)
+       }
+       printk(KERN_INFO "Ebtables v2.0 registered\n");
++
++#if IS_BUILTIN(CONFIG_BRIDGE_NETFILTER)
++      brnf_call_ebtables = 1;
++#endif
++
+       return 0;
+ }
+ static void __exit ebtables_fini(void)
+ {
++#if IS_BUILTIN(CONFIG_BRIDGE_NETFILTER)
++      brnf_call_ebtables = 0;
++#endif
+       nf_unregister_sockopt(&ebt_sockopts);
+       xt_unregister_target(&ebt_standard_target);
+       printk(KERN_INFO "Ebtables v2.0 unregistered\n");
+--- a/net/Kconfig
++++ b/net/Kconfig
+@@ -177,11 +177,11 @@ config NETFILTER_ADVANCED
+         If unsure, say Y.
+ config BRIDGE_NETFILTER
+-      tristate "Bridged IP/ARP packets filtering"
++      bool "Bridged IP/ARP packets filtering"
+       depends on BRIDGE
+       depends on NETFILTER && INET
+       depends on NETFILTER_ADVANCED
+-      default m
++      default y
+       ---help---
+         Enabling this option will let arptables resp. iptables see bridged
+         ARP resp. IP traffic. If you want a bridging firewall, you probably
diff --git a/trunk/target/linux/generic/patches-3.18/645-bridge_multicast_to_unicast.patch b/trunk/target/linux/generic/patches-3.18/645-bridge_multicast_to_unicast.patch
new file mode 100644 (file)
index 0000000..d870dc5
--- /dev/null
@@ -0,0 +1,376 @@
+--- a/net/bridge/br_multicast.c
++++ b/net/bridge/br_multicast.c
+@@ -635,7 +635,8 @@ struct net_bridge_port_group *br_multica
+                       struct net_bridge_port *port,
+                       struct br_ip *group,
+                       struct net_bridge_port_group __rcu *next,
+-                      unsigned char state)
++                      unsigned char state,
++                      const unsigned char *src)
+ {
+       struct net_bridge_port_group *p;
+@@ -650,12 +651,33 @@ struct net_bridge_port_group *br_multica
+       hlist_add_head(&p->mglist, &port->mglist);
+       setup_timer(&p->timer, br_multicast_port_group_expired,
+                   (unsigned long)p);
++      if ((port->flags & BR_MULTICAST_TO_UCAST) && src) {
++              memcpy(p->eth_addr, src, ETH_ALEN);
++              p->unicast = true;
++      }
+       return p;
+ }
++static bool br_port_group_equal(struct net_bridge_port_group *p,
++                              struct net_bridge_port *port,
++                              const unsigned char *src)
++{
++      if (p->port != port)
++              return false;
++
++      if (!p->unicast)
++              return true;
++
++      if (!src)
++              return false;
++
++      return ether_addr_equal(src, p->eth_addr);
++}
++
+ static int br_multicast_add_group(struct net_bridge *br,
+                                 struct net_bridge_port *port,
+-                                struct br_ip *group)
++                                struct br_ip *group,
++                                const unsigned char *src)
+ {
+       struct net_bridge_mdb_entry *mp;
+       struct net_bridge_port_group *p;
+@@ -682,13 +704,13 @@ static int br_multicast_add_group(struct
+       for (pp = &mp->ports;
+            (p = mlock_dereference(*pp, br)) != NULL;
+            pp = &p->next) {
+-              if (p->port == port)
++              if (br_port_group_equal(p, port, src))
+                       goto found;
+               if ((unsigned long)p->port < (unsigned long)port)
+                       break;
+       }
+-      p = br_multicast_new_port_group(port, group, *pp, MDB_TEMPORARY);
++      p = br_multicast_new_port_group(port, group, *pp, MDB_TEMPORARY, src);
+       if (unlikely(!p))
+               goto err;
+       rcu_assign_pointer(*pp, p);
+@@ -707,7 +729,7 @@ err:
+ static int br_ip4_multicast_add_group(struct net_bridge *br,
+                                     struct net_bridge_port *port,
+                                     __be32 group,
+-                                    __u16 vid)
++                                    __u16 vid, const unsigned char *src)
+ {
+       struct br_ip br_group;
+@@ -718,14 +740,14 @@ static int br_ip4_multicast_add_group(st
+       br_group.proto = htons(ETH_P_IP);
+       br_group.vid = vid;
+-      return br_multicast_add_group(br, port, &br_group);
++      return br_multicast_add_group(br, port, &br_group, src);
+ }
+ #if IS_ENABLED(CONFIG_IPV6)
+ static int br_ip6_multicast_add_group(struct net_bridge *br,
+                                     struct net_bridge_port *port,
+                                     const struct in6_addr *group,
+-                                    __u16 vid)
++                                    __u16 vid, const unsigned char *src)
+ {
+       struct br_ip br_group;
+@@ -736,7 +758,10 @@ static int br_ip6_multicast_add_group(st
+       br_group.proto = htons(ETH_P_IPV6);
+       br_group.vid = vid;
+-      return br_multicast_add_group(br, port, &br_group);
++      if (ipv6_addr_is_solict_mult(group))
++              src = NULL;
++
++      return br_multicast_add_group(br, port, &br_group, src);
+ }
+ #endif
+@@ -965,6 +990,7 @@ static int br_ip4_multicast_igmp3_report
+                                        struct sk_buff *skb,
+                                        u16 vid)
+ {
++      const unsigned char *src = eth_hdr(skb)->h_source;
+       struct igmpv3_report *ih;
+       struct igmpv3_grec *grec;
+       int i;
+@@ -1008,7 +1034,7 @@ static int br_ip4_multicast_igmp3_report
+                       continue;
+               }
+-              err = br_ip4_multicast_add_group(br, port, group, vid);
++              err = br_ip4_multicast_add_group(br, port, group, vid, src);
+               if (err)
+                       break;
+       }
+@@ -1022,6 +1048,7 @@ static int br_ip6_multicast_mld2_report(
+                                       struct sk_buff *skb,
+                                       u16 vid)
+ {
++      const unsigned char *src = eth_hdr(skb)->h_source;
+       struct icmp6hdr *icmp6h;
+       struct mld2_grec *grec;
+       int i;
+@@ -1070,7 +1097,7 @@ static int br_ip6_multicast_mld2_report(
+               }
+               err = br_ip6_multicast_add_group(br, port, &grec->grec_mca,
+-                                               vid);
++                                               vid, src);
+               if (!err)
+                       break;
+       }
+@@ -1407,7 +1434,8 @@ br_multicast_leave_group(struct net_brid
+                        struct net_bridge_port *port,
+                        struct br_ip *group,
+                        struct bridge_mcast_other_query *other_query,
+-                       struct bridge_mcast_own_query *own_query)
++                       struct bridge_mcast_own_query *own_query,
++                       const unsigned char *src)
+ {
+       struct net_bridge_mdb_htable *mdb;
+       struct net_bridge_mdb_entry *mp;
+@@ -1457,7 +1485,7 @@ br_multicast_leave_group(struct net_brid
+               for (pp = &mp->ports;
+                    (p = mlock_dereference(*pp, br)) != NULL;
+                    pp = &p->next) {
+-                      if (p->port != port)
++                      if (!br_port_group_equal(p, port, src))
+                               continue;
+                       rcu_assign_pointer(*pp, p->next);
+@@ -1491,7 +1519,7 @@ br_multicast_leave_group(struct net_brid
+       for (p = mlock_dereference(mp->ports, br);
+            p != NULL;
+            p = mlock_dereference(p->next, br)) {
+-              if (p->port != port)
++              if (!br_port_group_equal(p, port, src))
+                       continue;
+               if (!hlist_unhashed(&p->mglist) &&
+@@ -1509,8 +1537,8 @@ out:
+ static void br_ip4_multicast_leave_group(struct net_bridge *br,
+                                        struct net_bridge_port *port,
+-                                       __be32 group,
+-                                       __u16 vid)
++                                       __be32 group, __u16 vid,
++                                       const unsigned char *src)
+ {
+       struct br_ip br_group;
+       struct bridge_mcast_own_query *own_query;
+@@ -1525,14 +1553,14 @@ static void br_ip4_multicast_leave_group
+       br_group.vid = vid;
+       br_multicast_leave_group(br, port, &br_group, &br->ip4_other_query,
+-                               own_query);
++                               own_query, src);
+ }
+ #if IS_ENABLED(CONFIG_IPV6)
+ static void br_ip6_multicast_leave_group(struct net_bridge *br,
+                                        struct net_bridge_port *port,
+                                        const struct in6_addr *group,
+-                                       __u16 vid)
++                                       __u16 vid, const unsigned char *src)
+ {
+       struct br_ip br_group;
+       struct bridge_mcast_own_query *own_query;
+@@ -1547,7 +1575,7 @@ static void br_ip6_multicast_leave_group
+       br_group.vid = vid;
+       br_multicast_leave_group(br, port, &br_group, &br->ip6_other_query,
+-                               own_query);
++                               own_query, src);
+ }
+ #endif
+@@ -1556,6 +1584,7 @@ static int br_multicast_ipv4_rcv(struct 
+                                struct sk_buff *skb,
+                                u16 vid)
+ {
++      const unsigned char *src = eth_hdr(skb)->h_source;
+       struct sk_buff *skb2 = skb;
+       const struct iphdr *iph;
+       struct igmphdr *ih;
+@@ -1629,7 +1658,7 @@ static int br_multicast_ipv4_rcv(struct 
+       case IGMP_HOST_MEMBERSHIP_REPORT:
+       case IGMPV2_HOST_MEMBERSHIP_REPORT:
+               BR_INPUT_SKB_CB(skb)->mrouters_only = 1;
+-              err = br_ip4_multicast_add_group(br, port, ih->group, vid);
++              err = br_ip4_multicast_add_group(br, port, ih->group, vid, src);
+               break;
+       case IGMPV3_HOST_MEMBERSHIP_REPORT:
+               err = br_ip4_multicast_igmp3_report(br, port, skb2, vid);
+@@ -1638,7 +1667,7 @@ static int br_multicast_ipv4_rcv(struct 
+               err = br_ip4_multicast_query(br, port, skb2, vid);
+               break;
+       case IGMP_HOST_LEAVE_MESSAGE:
+-              br_ip4_multicast_leave_group(br, port, ih->group, vid);
++              br_ip4_multicast_leave_group(br, port, ih->group, vid, src);
+               break;
+       }
+@@ -1656,6 +1685,7 @@ static int br_multicast_ipv6_rcv(struct 
+                                struct sk_buff *skb,
+                                u16 vid)
+ {
++      const unsigned char *src = eth_hdr(skb)->h_source;
+       struct sk_buff *skb2;
+       const struct ipv6hdr *ip6h;
+       u8 icmp6_type;
+@@ -1765,7 +1795,8 @@ static int br_multicast_ipv6_rcv(struct 
+               }
+               mld = (struct mld_msg *)skb_transport_header(skb2);
+               BR_INPUT_SKB_CB(skb)->mrouters_only = 1;
+-              err = br_ip6_multicast_add_group(br, port, &mld->mld_mca, vid);
++              err = br_ip6_multicast_add_group(br, port, &mld->mld_mca, vid,
++                                               src);
+               break;
+           }
+       case ICMPV6_MLD2_REPORT:
+@@ -1782,7 +1813,7 @@ static int br_multicast_ipv6_rcv(struct 
+                       goto out;
+               }
+               mld = (struct mld_msg *)skb_transport_header(skb2);
+-              br_ip6_multicast_leave_group(br, port, &mld->mld_mca, vid);
++              br_ip6_multicast_leave_group(br, port, &mld->mld_mca, vid, src);
+           }
+       }
+--- a/net/bridge/br_private.h
++++ b/net/bridge/br_private.h
+@@ -112,6 +112,9 @@ struct net_bridge_port_group {
+       struct timer_list               timer;
+       struct br_ip                    addr;
+       unsigned char                   state;
++
++      unsigned char                   eth_addr[ETH_ALEN];
++      bool                            unicast;
+ };
+ struct net_bridge_mdb_entry
+@@ -173,6 +176,7 @@ struct net_bridge_port
+ #define BR_AUTO_MASK (BR_FLOOD | BR_LEARNING)
+ #define BR_PROMISC            0x00000080
+ #define BR_ISOLATE_MODE               0x00000100
++#define BR_MULTICAST_TO_UCAST 0x00000200
+ #ifdef CONFIG_BRIDGE_IGMP_SNOOPING
+       struct bridge_mcast_own_query   ip4_own_query;
+@@ -485,7 +489,8 @@ void br_multicast_free_pg(struct rcu_hea
+ struct net_bridge_port_group *
+ br_multicast_new_port_group(struct net_bridge_port *port, struct br_ip *group,
+                           struct net_bridge_port_group __rcu *next,
+-                          unsigned char state);
++                          unsigned char state,
++                     const unsigned char *src);
+ void br_mdb_init(void);
+ void br_mdb_uninit(void);
+ void br_mdb_notify(struct net_device *dev, struct net_bridge_port *port,
+--- a/net/bridge/br_mdb.c
++++ b/net/bridge/br_mdb.c
+@@ -342,7 +342,7 @@ static int br_mdb_add_group(struct net_b
+                       break;
+       }
+-      p = br_multicast_new_port_group(port, group, *pp, state);
++      p = br_multicast_new_port_group(port, group, *pp, state, NULL);
+       if (unlikely(!p))
+               return -ENOMEM;
+       rcu_assign_pointer(*pp, p);
+--- a/net/bridge/br_forward.c
++++ b/net/bridge/br_forward.c
+@@ -168,6 +168,29 @@ out:
+       return p;
+ }
++static struct net_bridge_port *maybe_deliver_addr(
++      struct net_bridge_port *prev, struct net_bridge_port *p,
++      struct sk_buff *skb, const unsigned char *addr,
++      void (*__packet_hook)(const struct net_bridge_port *p,
++                            struct sk_buff *skb))
++{
++      struct net_device *dev = BR_INPUT_SKB_CB(skb)->brdev;
++
++      if (!should_deliver(p, skb))
++              return prev;
++
++      skb = skb_copy(skb, GFP_ATOMIC);
++      if (!skb) {
++              dev->stats.tx_dropped++;
++              return prev;
++      }
++
++      memcpy(eth_hdr(skb)->h_dest, addr, ETH_ALEN);
++      __packet_hook(p, skb);
++
++      return prev;
++}
++
+ /* called under bridge lock */
+ static void br_flood(struct net_bridge *br, struct sk_buff *skb,
+                    struct sk_buff *skb0,
+@@ -232,6 +255,7 @@ static void br_multicast_flood(struct ne
+       struct net_bridge_port *prev = NULL;
+       struct net_bridge_port_group *p;
+       struct hlist_node *rp;
++      const unsigned char *addr;
+       rp = rcu_dereference(hlist_first_rcu(&br->router_list));
+       p = mdst ? rcu_dereference(mdst->ports) : NULL;
+@@ -242,10 +266,19 @@ static void br_multicast_flood(struct ne
+               rport = rp ? hlist_entry(rp, struct net_bridge_port, rlist) :
+                            NULL;
+-              port = (unsigned long)lport > (unsigned long)rport ?
+-                     lport : rport;
+-
+-              prev = maybe_deliver(prev, port, skb, __packet_hook);
++              if ((unsigned long)lport > (unsigned long)rport) {
++                      port = lport;
++                      addr = p->unicast ? p->eth_addr : NULL;
++              } else {
++                      port = rport;
++                      addr = NULL;
++              }
++
++              if (addr)
++                      prev = maybe_deliver_addr(prev, port, skb, addr,
++                                                __packet_hook);
++              else
++                      prev = maybe_deliver(prev, port, skb, __packet_hook);
+               if (IS_ERR(prev))
+                       goto out;
+--- a/net/bridge/br_sysfs_if.c
++++ b/net/bridge/br_sysfs_if.c
+@@ -202,6 +202,7 @@ static BRPORT_ATTR(multicast_router, S_I
+                  store_multicast_router);
+ BRPORT_ATTR_FLAG(multicast_fast_leave, BR_MULTICAST_FAST_LEAVE);
++BRPORT_ATTR_FLAG(multicast_to_unicast, BR_MULTICAST_TO_UCAST);
+ #endif
+ static const struct brport_attribute *brport_attrs[] = {
+@@ -228,6 +229,7 @@ static const struct brport_attribute *br
+ #ifdef CONFIG_BRIDGE_IGMP_SNOOPING
+       &brport_attr_multicast_router,
+       &brport_attr_multicast_fast_leave,
++      &brport_attr_multicast_to_unicast,
+ #endif
+       &brport_attr_isolate_mode,
+       NULL
diff --git a/trunk/target/linux/generic/patches-3.18/650-pppoe_header_pad.patch b/trunk/target/linux/generic/patches-3.18/650-pppoe_header_pad.patch
new file mode 100644 (file)
index 0000000..a89a9f3
--- /dev/null
@@ -0,0 +1,20 @@
+--- a/drivers/net/ppp/pppoe.c
++++ b/drivers/net/ppp/pppoe.c
+@@ -850,7 +850,7 @@ static int pppoe_sendmsg(struct kiocb *i
+               goto end;
+-      skb = sock_wmalloc(sk, total_len + dev->hard_header_len + 32,
++      skb = sock_wmalloc(sk, total_len + dev->hard_header_len + 32 + NET_SKB_PAD,
+                          0, GFP_KERNEL);
+       if (!skb) {
+               error = -ENOMEM;
+@@ -858,7 +858,7 @@ static int pppoe_sendmsg(struct kiocb *i
+       }
+       /* Reserve space for headers. */
+-      skb_reserve(skb, dev->hard_header_len);
++      skb_reserve(skb, dev->hard_header_len + NET_SKB_PAD);
+       skb_reset_network_header(skb);
+       skb->dev = dev;
diff --git a/trunk/target/linux/generic/patches-3.18/651-wireless_mesh_header.patch b/trunk/target/linux/generic/patches-3.18/651-wireless_mesh_header.patch
new file mode 100644 (file)
index 0000000..16da5cd
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/include/linux/netdevice.h
++++ b/include/linux/netdevice.h
+@@ -130,7 +130,7 @@ static inline bool dev_xmit_complete(int
+  */
+ #if defined(CONFIG_WLAN) || IS_ENABLED(CONFIG_AX25)
+-# if defined(CONFIG_MAC80211_MESH)
++# if 1 || defined(CONFIG_MAC80211_MESH)
+ #  define LL_MAX_HEADER 128
+ # else
+ #  define LL_MAX_HEADER 96
diff --git a/trunk/target/linux/generic/patches-3.18/652-atm_header_changes.patch b/trunk/target/linux/generic/patches-3.18/652-atm_header_changes.patch
new file mode 100644 (file)
index 0000000..7e56859
--- /dev/null
@@ -0,0 +1,12 @@
+--- a/include/uapi/linux/atm.h
++++ b/include/uapi/linux/atm.h
+@@ -139,6 +139,9 @@ struct atm_trafprm {
+       int             min_pcr;        /* minimum PCR in cells per second */
+       int             max_cdv;        /* maximum CDV in microseconds */
+       int             max_sdu;        /* maximum SDU in bytes */
++      int             scr;            /* sustained rate in cells per second */
++      int             mbs;            /* maximum burst size (MBS) in cells */
++      int             cdv;            /* Cell delay varition */
+         /* extra params for ABR */
+         unsigned int  icr;            /* Initial Cell Rate (24-bit) */
+         unsigned int  tbe;            /* Transient Buffer Exposure (24-bit) */ 
diff --git a/trunk/target/linux/generic/patches-3.18/653-disable_netlink_trim.patch b/trunk/target/linux/generic/patches-3.18/653-disable_netlink_trim.patch
new file mode 100644 (file)
index 0000000..dfe9c2f
--- /dev/null
@@ -0,0 +1,30 @@
+--- a/net/netlink/af_netlink.c
++++ b/net/netlink/af_netlink.c
+@@ -1695,27 +1695,7 @@ void netlink_detachskb(struct sock *sk, 
+ static struct sk_buff *netlink_trim(struct sk_buff *skb, gfp_t allocation)
+ {
+-      int delta;
+-
+       WARN_ON(skb->sk != NULL);
+-      if (netlink_skb_is_mmaped(skb))
+-              return skb;
+-
+-      delta = skb->end - skb->tail;
+-      if (is_vmalloc_addr(skb->head) || delta * 2 < skb->truesize)
+-              return skb;
+-
+-      if (skb_shared(skb)) {
+-              struct sk_buff *nskb = skb_clone(skb, allocation);
+-              if (!nskb)
+-                      return skb;
+-              consume_skb(skb);
+-              skb = nskb;
+-      }
+-
+-      if (!pskb_expand_head(skb, 0, -delta, allocation))
+-              skb->truesize -= delta;
+-
+       return skb;
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/655-increase_skb_pad.patch b/trunk/target/linux/generic/patches-3.18/655-increase_skb_pad.patch
new file mode 100644 (file)
index 0000000..96da167
--- /dev/null
@@ -0,0 +1,11 @@
+--- a/include/linux/skbuff.h
++++ b/include/linux/skbuff.h
+@@ -2022,7 +2022,7 @@ static inline int pskb_network_may_pull(
+  * NET_IP_ALIGN(2) + ethernet_header(14) + IP_header(20/40) + ports(8)
+  */
+ #ifndef NET_SKB_PAD
+-#define NET_SKB_PAD   max(32, L1_CACHE_BYTES)
++#define NET_SKB_PAD   max(64, L1_CACHE_BYTES)
+ #endif
+ int ___pskb_trim(struct sk_buff *skb, unsigned int len);
diff --git a/trunk/target/linux/generic/patches-3.18/656-skb_reduce_truesize-helper.patch b/trunk/target/linux/generic/patches-3.18/656-skb_reduce_truesize-helper.patch
new file mode 100644 (file)
index 0000000..4827793
--- /dev/null
@@ -0,0 +1,41 @@
+From 4593a806e31119c5bd3faa00c7210ad862d515af Mon Sep 17 00:00:00 2001
+From: Dave Taht <dave.taht@bufferbloat.net>
+Date: Mon, 31 Dec 2012 10:02:21 -0800
+Subject: [PATCH 3/7] skb_reduce_truesize: helper function for shrinking skbs
+ whenever needed
+
+On embedded devices in particular, large queues of small packets from the rx
+path with a large truesize can exist. Reducing their size can reduce
+memory pressure. skb_reduce_truesize is a helper function for doing this,
+when needed.
+---
+ include/linux/skbuff.h |   18 ++++++++++++++++++
+ 1 file changed, 18 insertions(+)
+
+--- a/include/linux/skbuff.h
++++ b/include/linux/skbuff.h
+@@ -2067,6 +2067,24 @@ static inline void pskb_trim_unique(stru
+       BUG_ON(err);
+ }
++/*
++ * Caller wants to reduce memory needs before queueing skb
++ * The (expensive) copy should not be be done in fast path.
++ */
++static inline struct sk_buff *skb_reduce_truesize(struct sk_buff *skb)
++{
++      if (skb->truesize > 2 * SKB_TRUESIZE(skb->len)) {
++              struct sk_buff *nskb;
++              nskb = skb_copy_expand(skb, skb_headroom(skb), 0,
++                      GFP_ATOMIC | __GFP_NOWARN);
++              if (nskb) {
++                      __kfree_skb(skb);
++                      skb = nskb;
++              }
++      }
++      return skb;
++}
++
+ /**
+  *    skb_orphan - orphan a buffer
+  *    @skb: buffer to orphan
diff --git a/trunk/target/linux/generic/patches-3.18/657-qdisc_reduce_truesize.patch b/trunk/target/linux/generic/patches-3.18/657-qdisc_reduce_truesize.patch
new file mode 100644 (file)
index 0000000..72b3dfc
--- /dev/null
@@ -0,0 +1,63 @@
+From bc9fec2f87d57bdbff30d296605e24504513f65c Mon Sep 17 00:00:00 2001
+From: =?UTF-8?q?Dave=20T=C3=A4ht?= <dave.taht@bufferbloat.net>
+Date: Mon, 17 Sep 2012 19:20:22 -0700
+Subject: [PATCH 4/7] net: add skb_reduce_truesize support to common qdiscs
+
+Reduce skb size under load when queues begin to fill on the
+commont qdiscs.
+---
+ net/sched/sch_codel.c    |    2 ++
+ net/sched/sch_fifo.c     |   12 ++++++++----
+ net/sched/sch_fq_codel.c |    2 ++
+ 3 files changed, 12 insertions(+), 4 deletions(-)
+
+--- a/net/sched/sch_codel.c
++++ b/net/sched/sch_codel.c
+@@ -96,6 +96,8 @@ static int codel_qdisc_enqueue(struct sk
+       struct codel_sched_data *q;
+       if (likely(qdisc_qlen(sch) < sch->limit)) {
++              if(qdisc_qlen(sch) > 128)
++                      skb = skb_reduce_truesize(skb);
+               codel_set_enqueue_time(skb);
+               return qdisc_enqueue_tail(skb, sch);
+       }
+--- a/net/sched/sch_fifo.c
++++ b/net/sched/sch_fifo.c
+@@ -29,17 +29,21 @@ static int bfifo_enqueue(struct sk_buff 
+ static int pfifo_enqueue(struct sk_buff *skb, struct Qdisc *sch)
+ {
+-      if (likely(skb_queue_len(&sch->q) < sch->limit))
++      if (likely(skb_queue_len(&sch->q) < sch->limit)) {
++              if (skb_queue_len(&sch->q) > 128)
++                      skb = skb_reduce_truesize(skb);
+               return qdisc_enqueue_tail(skb, sch);
+-
++      }
+       return qdisc_reshape_fail(skb, sch);
+ }
+ static int pfifo_tail_enqueue(struct sk_buff *skb, struct Qdisc *sch)
+ {
+-      if (likely(skb_queue_len(&sch->q) < sch->limit))
++      if (likely(skb_queue_len(&sch->q) < sch->limit)) {
++              if (skb_queue_len(&sch->q) > 128)
++                      skb = skb_reduce_truesize(skb);
+               return qdisc_enqueue_tail(skb, sch);
+-
++      }
+       /* queue full, remove one skb to fulfill the limit */
+       __qdisc_queue_drop_head(sch, &sch->q);
+       qdisc_qstats_drop(sch);
+--- a/net/sched/sch_fq_codel.c
++++ b/net/sched/sch_fq_codel.c
+@@ -185,6 +185,8 @@ static int fq_codel_enqueue(struct sk_bu
+               return ret;
+       }
+       idx--;
++      if (sch->q.qlen > 128)
++              skb = skb_reduce_truesize(skb);
+       codel_set_enqueue_time(skb);
+       flow = &q->flows[idx];
diff --git a/trunk/target/linux/generic/patches-3.18/660-fq_codel_defaults.patch b/trunk/target/linux/generic/patches-3.18/660-fq_codel_defaults.patch
new file mode 100644 (file)
index 0000000..f7f4659
--- /dev/null
@@ -0,0 +1,14 @@
+--- a/net/sched/sch_fq_codel.c
++++ b/net/sched/sch_fq_codel.c
+@@ -387,9 +387,9 @@ static int fq_codel_init(struct Qdisc *s
+       struct fq_codel_sched_data *q = qdisc_priv(sch);
+       int i;
+-      sch->limit = 10*1024;
++      sch->limit = 1024;
+       q->flows_cnt = 1024;
+-      q->quantum = psched_mtu(qdisc_dev(sch));
++      q->quantum = 300;
+       q->perturbation = prandom_u32();
+       INIT_LIST_HEAD(&q->new_flows);
+       INIT_LIST_HEAD(&q->old_flows);
diff --git a/trunk/target/linux/generic/patches-3.18/661-fq_codel_keep_dropped_stats.patch b/trunk/target/linux/generic/patches-3.18/661-fq_codel_keep_dropped_stats.patch
new file mode 100644 (file)
index 0000000..45a8d68
--- /dev/null
@@ -0,0 +1,10 @@
+--- a/net/sched/sch_fq_codel.c
++++ b/net/sched/sch_fq_codel.c
+@@ -198,7 +198,6 @@ static int fq_codel_enqueue(struct sk_bu
+               list_add_tail(&flow->flowchain, &q->new_flows);
+               q->new_flow_count++;
+               flow->deficit = q->quantum;
+-              flow->dropped = 0;
+       }
+       if (++sch->q.qlen <= sch->limit)
+               return NET_XMIT_SUCCESS;
diff --git a/trunk/target/linux/generic/patches-3.18/662-use_fq_codel_by_default.patch b/trunk/target/linux/generic/patches-3.18/662-use_fq_codel_by_default.patch
new file mode 100644 (file)
index 0000000..656bbd0
--- /dev/null
@@ -0,0 +1,95 @@
+--- a/net/sched/Kconfig
++++ b/net/sched/Kconfig
+@@ -3,8 +3,9 @@
+ # 
+ menuconfig NET_SCHED
+-      bool "QoS and/or fair queueing"
++      def_bool y
+       select NET_SCH_FIFO
++      select NET_SCH_FQ_CODEL
+       ---help---
+         When the kernel has several packets to send out over a network
+         device, it has to decide which ones to send first, which ones to
+--- a/net/sched/sch_fq_codel.c
++++ b/net/sched/sch_fq_codel.c
+@@ -592,7 +592,7 @@ static const struct Qdisc_class_ops fq_c
+       .walk           =       fq_codel_walk,
+ };
+-static struct Qdisc_ops fq_codel_qdisc_ops __read_mostly = {
++struct Qdisc_ops fq_codel_qdisc_ops __read_mostly = {
+       .cl_ops         =       &fq_codel_class_ops,
+       .id             =       "fq_codel",
+       .priv_size      =       sizeof(struct fq_codel_sched_data),
+@@ -608,6 +608,7 @@ static struct Qdisc_ops fq_codel_qdisc_o
+       .dump_stats =   fq_codel_dump_stats,
+       .owner          =       THIS_MODULE,
+ };
++EXPORT_SYMBOL(fq_codel_qdisc_ops);
+ static int __init fq_codel_module_init(void)
+ {
+--- a/include/net/sch_generic.h
++++ b/include/net/sch_generic.h
+@@ -341,6 +341,7 @@ extern struct Qdisc noop_qdisc;
+ extern struct Qdisc_ops noop_qdisc_ops;
+ extern struct Qdisc_ops pfifo_fast_ops;
+ extern struct Qdisc_ops mq_qdisc_ops;
++extern struct Qdisc_ops fq_codel_qdisc_ops;
+ extern const struct Qdisc_ops *default_qdisc_ops;
+ struct Qdisc_class_common {
+--- a/net/sched/sch_generic.c
++++ b/net/sched/sch_generic.c
+@@ -31,7 +31,7 @@
+ #include <net/dst.h>
+ /* Qdisc to use by default */
+-const struct Qdisc_ops *default_qdisc_ops = &pfifo_fast_ops;
++const struct Qdisc_ops *default_qdisc_ops = &fq_codel_qdisc_ops;
+ EXPORT_SYMBOL(default_qdisc_ops);
+ /* Main transmission queue. */
+@@ -737,7 +737,7 @@ static void attach_one_default_qdisc(str
+       if (dev->tx_queue_len) {
+               qdisc = qdisc_create_dflt(dev_queue,
+-                                        default_qdisc_ops, TC_H_ROOT);
++                                        &fq_codel_qdisc_ops, TC_H_ROOT);
+               if (!qdisc) {
+                       netdev_info(dev, "activation failed\n");
+                       return;
+--- a/net/sched/sch_mq.c
++++ b/net/sched/sch_mq.c
+@@ -57,7 +57,7 @@ static int mq_init(struct Qdisc *sch, st
+       for (ntx = 0; ntx < dev->num_tx_queues; ntx++) {
+               dev_queue = netdev_get_tx_queue(dev, ntx);
+-              qdisc = qdisc_create_dflt(dev_queue, default_qdisc_ops,
++              qdisc = qdisc_create_dflt(dev_queue, &fq_codel_qdisc_ops,
+                                         TC_H_MAKE(TC_H_MAJ(sch->handle),
+                                                   TC_H_MIN(ntx + 1)));
+               if (qdisc == NULL)
+--- a/net/sched/sch_mqprio.c
++++ b/net/sched/sch_mqprio.c
+@@ -124,7 +124,7 @@ static int mqprio_init(struct Qdisc *sch
+       for (i = 0; i < dev->num_tx_queues; i++) {
+               dev_queue = netdev_get_tx_queue(dev, i);
+-              qdisc = qdisc_create_dflt(dev_queue, default_qdisc_ops,
++              qdisc = qdisc_create_dflt(dev_queue, &fq_codel_qdisc_ops,
+                                         TC_H_MAKE(TC_H_MAJ(sch->handle),
+                                                   TC_H_MIN(i + 1)));
+               if (qdisc == NULL) {
+--- a/net/sched/sch_api.c
++++ b/net/sched/sch_api.c
+@@ -1945,7 +1945,7 @@ static int __init pktsched_init(void)
+               return err;
+       }
+-      register_qdisc(&pfifo_fast_ops);
++      register_qdisc(&fq_codel_qdisc_ops);
+       register_qdisc(&pfifo_qdisc_ops);
+       register_qdisc(&bfifo_qdisc_ops);
+       register_qdisc(&pfifo_head_drop_qdisc_ops);
diff --git a/trunk/target/linux/generic/patches-3.18/663-remove_pfifo_fast.patch b/trunk/target/linux/generic/patches-3.18/663-remove_pfifo_fast.patch
new file mode 100644 (file)
index 0000000..5b26ca3
--- /dev/null
@@ -0,0 +1,143 @@
+--- a/net/sched/sch_generic.c
++++ b/net/sched/sch_generic.c
+@@ -442,140 +442,6 @@ static struct Qdisc noqueue_qdisc = {
+       .busylock       =       __SPIN_LOCK_UNLOCKED(noqueue_qdisc.busylock),
+ };
+-
+-static const u8 prio2band[TC_PRIO_MAX + 1] = {
+-      1, 2, 2, 2, 1, 2, 0, 0 , 1, 1, 1, 1, 1, 1, 1, 1
+-};
+-
+-/* 3-band FIFO queue: old style, but should be a bit faster than
+-   generic prio+fifo combination.
+- */
+-
+-#define PFIFO_FAST_BANDS 3
+-
+-/*
+- * Private data for a pfifo_fast scheduler containing:
+- *    - queues for the three band
+- *    - bitmap indicating which of the bands contain skbs
+- */
+-struct pfifo_fast_priv {
+-      u32 bitmap;
+-      struct sk_buff_head q[PFIFO_FAST_BANDS];
+-};
+-
+-/*
+- * Convert a bitmap to the first band number where an skb is queued, where:
+- *    bitmap=0 means there are no skbs on any band.
+- *    bitmap=1 means there is an skb on band 0.
+- *    bitmap=7 means there are skbs on all 3 bands, etc.
+- */
+-static const int bitmap2band[] = {-1, 0, 1, 0, 2, 0, 1, 0};
+-
+-static inline struct sk_buff_head *band2list(struct pfifo_fast_priv *priv,
+-                                           int band)
+-{
+-      return priv->q + band;
+-}
+-
+-static int pfifo_fast_enqueue(struct sk_buff *skb, struct Qdisc *qdisc)
+-{
+-      if (skb_queue_len(&qdisc->q) < qdisc_dev(qdisc)->tx_queue_len) {
+-              int band = prio2band[skb->priority & TC_PRIO_MAX];
+-              struct pfifo_fast_priv *priv = qdisc_priv(qdisc);
+-              struct sk_buff_head *list = band2list(priv, band);
+-
+-              priv->bitmap |= (1 << band);
+-              qdisc->q.qlen++;
+-              return __qdisc_enqueue_tail(skb, qdisc, list);
+-      }
+-
+-      return qdisc_drop(skb, qdisc);
+-}
+-
+-static struct sk_buff *pfifo_fast_dequeue(struct Qdisc *qdisc)
+-{
+-      struct pfifo_fast_priv *priv = qdisc_priv(qdisc);
+-      int band = bitmap2band[priv->bitmap];
+-
+-      if (likely(band >= 0)) {
+-              struct sk_buff_head *list = band2list(priv, band);
+-              struct sk_buff *skb = __qdisc_dequeue_head(qdisc, list);
+-
+-              qdisc->q.qlen--;
+-              if (skb_queue_empty(list))
+-                      priv->bitmap &= ~(1 << band);
+-
+-              return skb;
+-      }
+-
+-      return NULL;
+-}
+-
+-static struct sk_buff *pfifo_fast_peek(struct Qdisc *qdisc)
+-{
+-      struct pfifo_fast_priv *priv = qdisc_priv(qdisc);
+-      int band = bitmap2band[priv->bitmap];
+-
+-      if (band >= 0) {
+-              struct sk_buff_head *list = band2list(priv, band);
+-
+-              return skb_peek(list);
+-      }
+-
+-      return NULL;
+-}
+-
+-static void pfifo_fast_reset(struct Qdisc *qdisc)
+-{
+-      int prio;
+-      struct pfifo_fast_priv *priv = qdisc_priv(qdisc);
+-
+-      for (prio = 0; prio < PFIFO_FAST_BANDS; prio++)
+-              __qdisc_reset_queue(qdisc, band2list(priv, prio));
+-
+-      priv->bitmap = 0;
+-      qdisc->qstats.backlog = 0;
+-      qdisc->q.qlen = 0;
+-}
+-
+-static int pfifo_fast_dump(struct Qdisc *qdisc, struct sk_buff *skb)
+-{
+-      struct tc_prio_qopt opt = { .bands = PFIFO_FAST_BANDS };
+-
+-      memcpy(&opt.priomap, prio2band, TC_PRIO_MAX + 1);
+-      if (nla_put(skb, TCA_OPTIONS, sizeof(opt), &opt))
+-              goto nla_put_failure;
+-      return skb->len;
+-
+-nla_put_failure:
+-      return -1;
+-}
+-
+-static int pfifo_fast_init(struct Qdisc *qdisc, struct nlattr *opt)
+-{
+-      int prio;
+-      struct pfifo_fast_priv *priv = qdisc_priv(qdisc);
+-
+-      for (prio = 0; prio < PFIFO_FAST_BANDS; prio++)
+-              __skb_queue_head_init(band2list(priv, prio));
+-
+-      /* Can by-pass the queue discipline */
+-      qdisc->flags |= TCQ_F_CAN_BYPASS;
+-      return 0;
+-}
+-
+-struct Qdisc_ops pfifo_fast_ops __read_mostly = {
+-      .id             =       "pfifo_fast",
+-      .priv_size      =       sizeof(struct pfifo_fast_priv),
+-      .enqueue        =       pfifo_fast_enqueue,
+-      .dequeue        =       pfifo_fast_dequeue,
+-      .peek           =       pfifo_fast_peek,
+-      .init           =       pfifo_fast_init,
+-      .reset          =       pfifo_fast_reset,
+-      .dump           =       pfifo_fast_dump,
+-      .owner          =       THIS_MODULE,
+-};
+-
+ static struct lock_class_key qdisc_tx_busylock;
+ struct Qdisc *qdisc_alloc(struct netdev_queue *dev_queue,
diff --git a/trunk/target/linux/generic/patches-3.18/666-Add-support-for-MAP-E-FMRs-mesh-mode.patch b/trunk/target/linux/generic/patches-3.18/666-Add-support-for-MAP-E-FMRs-mesh-mode.patch
new file mode 100644 (file)
index 0000000..8bf4b3b
--- /dev/null
@@ -0,0 +1,481 @@
+From 775d6fe74d1eaec2ba387535b068dde2dc89de9e Mon Sep 17 00:00:00 2001
+From: Steven Barth <steven@midlink.org>
+Date: Thu, 22 May 2014 09:49:05 +0200
+Subject: [PATCH] Add support for MAP-E FMRs (mesh mode)
+
+MAP-E FMRs (draft-ietf-softwire-map-10) are rules for IPv4-communication
+between MAP CEs (mesh mode) without the need to forward such data to a
+border relay. This is similar to how 6rd works but for IPv4 over IPv6.
+
+Signed-off-by: Steven Barth <cyrus@openwrt.org>
+---
+ include/net/ip6_tunnel.h       |  13 ++
+ include/uapi/linux/if_tunnel.h |  13 ++
+ net/ipv6/ip6_tunnel.c          | 276 +++++++++++++++++++++++++++++++++++++++--
+ 3 files changed, 291 insertions(+), 11 deletions(-)
+
+--- a/include/net/ip6_tunnel.h
++++ b/include/net/ip6_tunnel.h
+@@ -15,6 +15,18 @@
+ /* determine capability on a per-packet basis */
+ #define IP6_TNL_F_CAP_PER_PACKET 0x40000
++/* IPv6 tunnel FMR */
++struct __ip6_tnl_fmr {
++      struct __ip6_tnl_fmr *next; /* next fmr in list */
++      struct in6_addr ip6_prefix;
++      struct in_addr ip4_prefix;
++
++      __u8 ip6_prefix_len;
++      __u8 ip4_prefix_len;
++      __u8 ea_len;
++      __u8 offset;
++};
++
+ struct __ip6_tnl_parm {
+       char name[IFNAMSIZ];    /* name of tunnel device */
+       int link;               /* ifindex of underlying L2 interface */
+@@ -25,6 +37,7 @@ struct __ip6_tnl_parm {
+       __u32 flags;            /* tunnel flags */
+       struct in6_addr laddr;  /* local tunnel end-point address */
+       struct in6_addr raddr;  /* remote tunnel end-point address */
++      struct __ip6_tnl_fmr *fmrs;     /* FMRs */
+       __be16                  i_flags;
+       __be16                  o_flags;
+--- a/include/uapi/linux/if_tunnel.h
++++ b/include/uapi/linux/if_tunnel.h
+@@ -57,10 +57,23 @@ enum {
+       IFLA_IPTUN_ENCAP_FLAGS,
+       IFLA_IPTUN_ENCAP_SPORT,
+       IFLA_IPTUN_ENCAP_DPORT,
++      IFLA_IPTUN_FMRS,
+       __IFLA_IPTUN_MAX,
+ };
+ #define IFLA_IPTUN_MAX        (__IFLA_IPTUN_MAX - 1)
++enum {
++      IFLA_IPTUN_FMR_UNSPEC,
++      IFLA_IPTUN_FMR_IP6_PREFIX,
++      IFLA_IPTUN_FMR_IP4_PREFIX,
++      IFLA_IPTUN_FMR_IP6_PREFIX_LEN,
++      IFLA_IPTUN_FMR_IP4_PREFIX_LEN,
++      IFLA_IPTUN_FMR_EA_LEN,
++      IFLA_IPTUN_FMR_OFFSET,
++      __IFLA_IPTUN_FMR_MAX,
++};
++#define IFLA_IPTUN_FMR_MAX (__IFLA_IPTUN_FMR_MAX - 1)
++
+ enum tunnel_encap_types {
+       TUNNEL_ENCAP_NONE,
+       TUNNEL_ENCAP_FOU,
+--- a/net/ipv6/ip6_tunnel.c
++++ b/net/ipv6/ip6_tunnel.c
+@@ -16,6 +16,8 @@
+  *      as published by the Free Software Foundation; either version
+  *      2 of the License, or (at your option) any later version.
+  *
++ *    Changes:
++ * Steven Barth <cyrus@openwrt.org>:          MAP-E FMR support
+  */
+ #define pr_fmt(fmt) KBUILD_MODNAME ": " fmt
+@@ -77,11 +79,9 @@ static bool log_ecn_error = true;
+ module_param(log_ecn_error, bool, 0644);
+ MODULE_PARM_DESC(log_ecn_error, "Log packets received with corrupted ECN");
+-static u32 HASH(const struct in6_addr *addr1, const struct in6_addr *addr2)
++static u32 HASH(const struct in6_addr *addr)
+ {
+-      u32 hash = ipv6_addr_hash(addr1) ^ ipv6_addr_hash(addr2);
+-
+-      return hash_32(hash, HASH_SIZE_SHIFT);
++      return hash_32(ipv6_addr_hash(addr), HASH_SIZE_SHIFT);
+ }
+ static int ip6_tnl_dev_init(struct net_device *dev);
+@@ -180,15 +180,24 @@ EXPORT_SYMBOL_GPL(ip6_tnl_dst_store);
+ static struct ip6_tnl *
+ ip6_tnl_lookup(struct net *net, const struct in6_addr *remote, const struct in6_addr *local)
+ {
+-      unsigned int hash = HASH(remote, local);
++      unsigned int hash = HASH(local);
+       struct ip6_tnl *t;
+       struct ip6_tnl_net *ip6n = net_generic(net, ip6_tnl_net_id);
++      struct __ip6_tnl_fmr *fmr;
+       for_each_ip6_tunnel_rcu(ip6n->tnls_r_l[hash]) {
+-              if (ipv6_addr_equal(local, &t->parms.laddr) &&
+-                  ipv6_addr_equal(remote, &t->parms.raddr) &&
+-                  (t->dev->flags & IFF_UP))
++              if (!ipv6_addr_equal(local, &t->parms.laddr) ||
++                              !(t->dev->flags & IFF_UP))
++                      continue;
++
++              if (ipv6_addr_equal(remote, &t->parms.raddr))
+                       return t;
++
++              for (fmr = t->parms.fmrs; fmr; fmr = fmr->next) {
++                      if (ipv6_prefix_equal(remote, &fmr->ip6_prefix,
++                                      fmr->ip6_prefix_len))
++                              return t;
++              }
+       }
+       t = rcu_dereference(ip6n->tnls_wc[0]);
+       if (t && (t->dev->flags & IFF_UP))
+@@ -218,7 +227,7 @@ ip6_tnl_bucket(struct ip6_tnl_net *ip6n,
+       if (!ipv6_addr_any(remote) || !ipv6_addr_any(local)) {
+               prio = 1;
+-              h = HASH(remote, local);
++              h = HASH(local);
+       }
+       return &ip6n->tnls[prio][h];
+ }
+@@ -388,6 +397,12 @@ ip6_tnl_dev_uninit(struct net_device *de
+       struct net *net = t->net;
+       struct ip6_tnl_net *ip6n = net_generic(net, ip6_tnl_net_id);
++      while (t->parms.fmrs) {
++              struct __ip6_tnl_fmr *next = t->parms.fmrs->next;
++              kfree(t->parms.fmrs);
++              t->parms.fmrs = next;
++      }
++
+       if (dev == ip6n->fb_tnl_dev)
+               RCU_INIT_POINTER(ip6n->tnls_wc[0], NULL);
+       else
+@@ -771,6 +786,108 @@ int ip6_tnl_rcv_ctl(struct ip6_tnl *t,
+ }
+ EXPORT_SYMBOL_GPL(ip6_tnl_rcv_ctl);
++
++/**
++ * ip4ip6_fmr_calc - calculate target / source IPv6-address based on FMR
++ *   @dest: destination IPv6 address buffer
++ *   @skb: received socket buffer
++ *   @fmr: MAP FMR
++ *   @xmit: Calculate for xmit or rcv
++ **/
++static void ip4ip6_fmr_calc(struct in6_addr *dest,
++              const struct iphdr *iph, const uint8_t *end,
++              const struct __ip6_tnl_fmr *fmr, bool xmit)
++{
++      int psidlen = fmr->ea_len - (32 - fmr->ip4_prefix_len);
++      u8 *portp = NULL;
++      bool use_dest_addr;
++      const struct iphdr *dsth = iph;
++
++      if ((u8*)dsth >= end)
++              return;
++
++      /* find significant IP header */
++      if (iph->protocol == IPPROTO_ICMP) {
++              struct icmphdr *ih = (struct icmphdr*)(((u8*)dsth) + dsth->ihl * 4);
++              if (ih && ((u8*)&ih[1]) <= end && (
++                      ih->type == ICMP_DEST_UNREACH ||
++                      ih->type == ICMP_SOURCE_QUENCH ||
++                      ih->type == ICMP_TIME_EXCEEDED ||
++                      ih->type == ICMP_PARAMETERPROB ||
++                      ih->type == ICMP_REDIRECT))
++                              dsth = (const struct iphdr*)&ih[1];
++      }
++
++      /* in xmit-path use dest port by default and source port only if
++              this is an ICMP reply to something else; vice versa in rcv-path */
++      use_dest_addr = (xmit && dsth == iph) || (!xmit && dsth != iph);
++
++      /* get dst port */
++      if (((u8*)&dsth[1]) <= end && (
++              dsth->protocol == IPPROTO_UDP ||
++              dsth->protocol == IPPROTO_TCP ||
++              dsth->protocol == IPPROTO_SCTP ||
++              dsth->protocol == IPPROTO_DCCP)) {
++                      /* for UDP, TCP, SCTP and DCCP source and dest port
++                      follow IPv4 header directly */
++                      portp = ((u8*)dsth) + dsth->ihl * 4;
++
++                      if (use_dest_addr)
++                              portp += sizeof(u16);
++      } else if (iph->protocol == IPPROTO_ICMP) {
++              struct icmphdr *ih = (struct icmphdr*)(((u8*)dsth) + dsth->ihl * 4);
++
++              /* use icmp identifier as port */
++              if (((u8*)&ih) <= end && (
++                  (use_dest_addr && (
++                  ih->type == ICMP_ECHOREPLY ||
++                      ih->type == ICMP_TIMESTAMPREPLY ||
++                      ih->type == ICMP_INFO_REPLY ||
++                      ih->type == ICMP_ADDRESSREPLY)) ||
++                      (!use_dest_addr && (
++                      ih->type == ICMP_ECHO ||
++                      ih->type == ICMP_TIMESTAMP ||
++                      ih->type == ICMP_INFO_REQUEST ||
++                      ih->type == ICMP_ADDRESS)
++                      )))
++                              portp = (u8*)&ih->un.echo.id;
++      }
++
++      if ((portp && &portp[2] <= end) || psidlen == 0) {
++              int frombyte = fmr->ip6_prefix_len / 8;
++              int fromrem = fmr->ip6_prefix_len % 8;
++              int bytes = sizeof(struct in6_addr) - frombyte;
++              const u32 *addr = (use_dest_addr) ? &iph->daddr : &iph->saddr;
++              u64 eabits = ((u64)ntohl(*addr)) << (32 + fmr->ip4_prefix_len);
++              u64 t = 0;
++
++              /* extract PSID from port and add it to eabits */
++              u16 psidbits = 0;
++              if (psidlen > 0) {
++                      psidbits = ((u16)portp[0]) << 8 | ((u16)portp[1]);
++                      psidbits >>= 16 - psidlen - fmr->offset;
++                      psidbits = (u16)(psidbits << (16 - psidlen));
++                      eabits |= ((u64)psidbits) << (48 - (fmr->ea_len - psidlen));
++              }
++
++              /* rewrite destination address */
++              *dest = fmr->ip6_prefix;
++              memcpy(&dest->s6_addr[10], addr, sizeof(*addr));
++              dest->s6_addr16[7] = htons(psidbits >> (16 - psidlen));
++
++              if (bytes > sizeof(u64))
++                      bytes = sizeof(u64);
++
++              /* insert eabits */
++              memcpy(&t, &dest->s6_addr[frombyte], bytes);
++              t = be64_to_cpu(t) & ~(((((u64)1) << fmr->ea_len) - 1)
++                      << (64 - fmr->ea_len - fromrem));
++              t = cpu_to_be64(t | (eabits >> fromrem));
++              memcpy(&dest->s6_addr[frombyte], &t, bytes);
++      }
++}
++
++
+ /**
+  * ip6_tnl_rcv - decapsulate IPv6 packet and retransmit it locally
+  *   @skb: received socket buffer
+@@ -815,6 +932,26 @@ static int ip6_tnl_rcv(struct sk_buff *s
+               skb_reset_network_header(skb);
+               skb->protocol = htons(protocol);
+               memset(skb->cb, 0, sizeof(struct inet6_skb_parm));
++              if (protocol == ETH_P_IP &&
++                      !ipv6_addr_equal(&ipv6h->saddr, &t->parms.raddr)) {
++                              /* Packet didn't come from BR, so lookup FMR */
++                              struct __ip6_tnl_fmr *fmr;
++                              struct in6_addr expected = t->parms.raddr;
++                              for (fmr = t->parms.fmrs; fmr; fmr = fmr->next)
++                                      if (ipv6_prefix_equal(&ipv6h->saddr,
++                                              &fmr->ip6_prefix, fmr->ip6_prefix_len))
++                                                      break;
++
++                              /* Check that IPv6 matches IPv4 source to prevent spoofing */
++                              if (fmr)
++                                      ip4ip6_fmr_calc(&expected, ip_hdr(skb),
++                                                      skb_tail_pointer(skb), fmr, false);
++
++                              if (!ipv6_addr_equal(&ipv6h->saddr, &expected)) {
++                                      rcu_read_unlock();
++                                      goto discard;
++                              }
++              }
+               __skb_tunnel_rx(skb, t->dev, t->net);
+@@ -1076,6 +1213,7 @@ ip4ip6_tnl_xmit(struct sk_buff *skb, str
+       __u8 dsfield;
+       __u32 mtu;
+       int err;
++      struct __ip6_tnl_fmr *fmr;
+       if ((t->parms.proto != IPPROTO_IPIP && t->parms.proto != 0) ||
+           !ip6_tnl_xmit_ctl(t))
+@@ -1095,6 +1233,18 @@ ip4ip6_tnl_xmit(struct sk_buff *skb, str
+       if (t->parms.flags & IP6_TNL_F_USE_ORIG_FWMARK)
+               fl6.flowi6_mark = skb->mark;
++      /* try to find matching FMR */
++      for (fmr = t->parms.fmrs; fmr; fmr = fmr->next) {
++              unsigned mshift = 32 - fmr->ip4_prefix_len;
++              if (ntohl(fmr->ip4_prefix.s_addr) >> mshift ==
++                              ntohl(iph->daddr) >> mshift)
++                      break;
++      }
++
++      /* change dstaddr according to FMR */
++      if (fmr)
++              ip4ip6_fmr_calc(&fl6.daddr, iph, skb_tail_pointer(skb), fmr, true);
++
+       err = ip6_tnl_xmit2(skb, dev, dsfield, &fl6, encap_limit, &mtu);
+       if (err != 0) {
+               /* XXX: send ICMP error even if DF is not set. */
+@@ -1263,6 +1413,14 @@ ip6_tnl_change(struct ip6_tnl *t, const 
+       t->parms.flowinfo = p->flowinfo;
+       t->parms.link = p->link;
+       t->parms.proto = p->proto;
++
++      while (t->parms.fmrs) {
++              struct __ip6_tnl_fmr *next = t->parms.fmrs->next;
++              kfree(t->parms.fmrs);
++              t->parms.fmrs = next;
++      }
++      t->parms.fmrs = p->fmrs;
++
+       ip6_tnl_dst_reset(t);
+       ip6_tnl_link_config(t);
+       return 0;
+@@ -1293,6 +1451,7 @@ ip6_tnl_parm_from_user(struct __ip6_tnl_
+       p->flowinfo = u->flowinfo;
+       p->link = u->link;
+       p->proto = u->proto;
++      p->fmrs = NULL;
+       memcpy(p->name, u->name, sizeof(u->name));
+ }
+@@ -1568,6 +1727,15 @@ static int ip6_tnl_validate(struct nlatt
+       return 0;
+ }
++static const struct nla_policy ip6_tnl_fmr_policy[IFLA_IPTUN_FMR_MAX + 1] = {
++      [IFLA_IPTUN_FMR_IP6_PREFIX] = { .len = sizeof(struct in6_addr) },
++      [IFLA_IPTUN_FMR_IP4_PREFIX] = { .len = sizeof(struct in_addr) },
++      [IFLA_IPTUN_FMR_IP6_PREFIX_LEN] = { .type = NLA_U8 },
++      [IFLA_IPTUN_FMR_IP4_PREFIX_LEN] = { .type = NLA_U8 },
++      [IFLA_IPTUN_FMR_EA_LEN] = { .type = NLA_U8 },
++      [IFLA_IPTUN_FMR_OFFSET] = { .type = NLA_U8 }
++};
++
+ static void ip6_tnl_netlink_parms(struct nlattr *data[],
+                                 struct __ip6_tnl_parm *parms)
+ {
+@@ -1601,6 +1769,46 @@ static void ip6_tnl_netlink_parms(struct
+       if (data[IFLA_IPTUN_PROTO])
+               parms->proto = nla_get_u8(data[IFLA_IPTUN_PROTO]);
++
++      if (data[IFLA_IPTUN_FMRS]) {
++              unsigned rem;
++              struct nlattr *fmr;
++              nla_for_each_nested(fmr, data[IFLA_IPTUN_FMRS], rem) {
++                      struct nlattr *fmrd[IFLA_IPTUN_FMR_MAX + 1], *c;
++                      struct __ip6_tnl_fmr *nfmr;
++
++                      nla_parse_nested(fmrd, IFLA_IPTUN_FMR_MAX,
++                              fmr, ip6_tnl_fmr_policy);
++
++                      if (!(nfmr = kzalloc(sizeof(*nfmr), GFP_KERNEL)))
++                              continue;
++
++                      nfmr->offset = 6;
++
++                      if ((c = fmrd[IFLA_IPTUN_FMR_IP6_PREFIX]))
++                              nla_memcpy(&nfmr->ip6_prefix, fmrd[IFLA_IPTUN_FMR_IP6_PREFIX],
++                                      sizeof(nfmr->ip6_prefix));
++
++                      if ((c = fmrd[IFLA_IPTUN_FMR_IP4_PREFIX]))
++                              nla_memcpy(&nfmr->ip4_prefix, fmrd[IFLA_IPTUN_FMR_IP4_PREFIX],
++                                      sizeof(nfmr->ip4_prefix));
++
++                      if ((c = fmrd[IFLA_IPTUN_FMR_IP6_PREFIX_LEN]))
++                              nfmr->ip6_prefix_len = nla_get_u8(c);
++
++                      if ((c = fmrd[IFLA_IPTUN_FMR_IP4_PREFIX_LEN]))
++                              nfmr->ip4_prefix_len = nla_get_u8(c);
++
++                      if ((c = fmrd[IFLA_IPTUN_FMR_EA_LEN]))
++                              nfmr->ea_len = nla_get_u8(c);
++
++                      if ((c = fmrd[IFLA_IPTUN_FMR_OFFSET]))
++                              nfmr->offset = nla_get_u8(c);
++
++                      nfmr->next = parms->fmrs;
++                      parms->fmrs = nfmr;
++              }
++      }
+ }
+ static int ip6_tnl_newlink(struct net *src_net, struct net_device *dev,
+@@ -1653,6 +1861,12 @@ static void ip6_tnl_dellink(struct net_d
+ static size_t ip6_tnl_get_size(const struct net_device *dev)
+ {
++      const struct ip6_tnl *t = netdev_priv(dev);
++      struct __ip6_tnl_fmr *c;
++      int fmrs = 0;
++      for (c = t->parms.fmrs; c; c = c->next)
++              ++fmrs;
++
+       return
+               /* IFLA_IPTUN_LINK */
+               nla_total_size(4) +
+@@ -1670,6 +1884,24 @@ static size_t ip6_tnl_get_size(const str
+               nla_total_size(4) +
+               /* IFLA_IPTUN_PROTO */
+               nla_total_size(1) +
++              /* IFLA_IPTUN_FMRS */
++              nla_total_size(0) +
++              (
++                      /* nest */
++                      nla_total_size(0) +
++                      /* IFLA_IPTUN_FMR_IP6_PREFIX */
++                      nla_total_size(sizeof(struct in6_addr)) +
++                      /* IFLA_IPTUN_FMR_IP4_PREFIX */
++                      nla_total_size(sizeof(struct in_addr)) +
++                      /* IFLA_IPTUN_FMR_EA_LEN */
++                      nla_total_size(1) +
++                      /* IFLA_IPTUN_FMR_IP6_PREFIX_LEN */
++                      nla_total_size(1) +
++                      /* IFLA_IPTUN_FMR_IP4_PREFIX_LEN */
++                      nla_total_size(1) +
++                      /* IFLA_IPTUN_FMR_OFFSET */
++                      nla_total_size(1)
++              ) * fmrs +
+               0;
+ }
+@@ -1677,6 +1909,9 @@ static int ip6_tnl_fill_info(struct sk_b
+ {
+       struct ip6_tnl *tunnel = netdev_priv(dev);
+       struct __ip6_tnl_parm *parm = &tunnel->parms;
++      struct __ip6_tnl_fmr *c;
++      int fmrcnt = 0;
++      struct nlattr *fmrs;
+       if (nla_put_u32(skb, IFLA_IPTUN_LINK, parm->link) ||
+           nla_put(skb, IFLA_IPTUN_LOCAL, sizeof(struct in6_addr),
+@@ -1687,8 +1922,27 @@ static int ip6_tnl_fill_info(struct sk_b
+           nla_put_u8(skb, IFLA_IPTUN_ENCAP_LIMIT, parm->encap_limit) ||
+           nla_put_be32(skb, IFLA_IPTUN_FLOWINFO, parm->flowinfo) ||
+           nla_put_u32(skb, IFLA_IPTUN_FLAGS, parm->flags) ||
+-          nla_put_u8(skb, IFLA_IPTUN_PROTO, parm->proto))
++          nla_put_u8(skb, IFLA_IPTUN_PROTO, parm->proto) ||
++          !(fmrs = nla_nest_start(skb, IFLA_IPTUN_FMRS)))
+               goto nla_put_failure;
++
++      for (c = parm->fmrs; c; c = c->next) {
++              struct nlattr *fmr = nla_nest_start(skb, ++fmrcnt);
++              if (!fmr ||
++                      nla_put(skb, IFLA_IPTUN_FMR_IP6_PREFIX,
++                              sizeof(c->ip6_prefix), &c->ip6_prefix) ||
++                      nla_put(skb, IFLA_IPTUN_FMR_IP4_PREFIX,
++                              sizeof(c->ip4_prefix), &c->ip4_prefix) ||
++                      nla_put_u8(skb, IFLA_IPTUN_FMR_IP6_PREFIX_LEN, c->ip6_prefix_len) ||
++                      nla_put_u8(skb, IFLA_IPTUN_FMR_IP4_PREFIX_LEN, c->ip4_prefix_len) ||
++                      nla_put_u8(skb, IFLA_IPTUN_FMR_EA_LEN, c->ea_len) ||
++                      nla_put_u8(skb, IFLA_IPTUN_FMR_OFFSET, c->offset))
++                              goto nla_put_failure;
++
++              nla_nest_end(skb, fmr);
++      }
++      nla_nest_end(skb, fmrs);
++
+       return 0;
+ nla_put_failure:
+@@ -1704,6 +1958,7 @@ static const struct nla_policy ip6_tnl_p
+       [IFLA_IPTUN_FLOWINFO]           = { .type = NLA_U32 },
+       [IFLA_IPTUN_FLAGS]              = { .type = NLA_U32 },
+       [IFLA_IPTUN_PROTO]              = { .type = NLA_U8 },
++      [IFLA_IPTUN_FMRS]               = { .type = NLA_NESTED },
+ };
+ static struct rtnl_link_ops ip6_link_ops __read_mostly = {
diff --git a/trunk/target/linux/generic/patches-3.18/670-ipv6-allow-rejecting-with-source-address-failed-policy.patch b/trunk/target/linux/generic/patches-3.18/670-ipv6-allow-rejecting-with-source-address-failed-policy.patch
new file mode 100644 (file)
index 0000000..b059fbe
--- /dev/null
@@ -0,0 +1,249 @@
+From 1b5aaa4b16f6e6471ab1c07b38068197a1b4c395 Mon Sep 17 00:00:00 2001
+From: Jonas Gorski <jogo@openwrt.org>
+Date: Fri, 24 May 2013 14:40:54 +0200
+Subject: [PATCH 1/2] ipv6: allow rejecting with "source address failed policy"
+
+RFC6204 L-14 requires rejecting traffic from invalid addresses with
+ICMPv6 Destination Unreachable, Code 5 (Source address failed ingress/
+egress policy) on the LAN side, so add an appropriate rule for that.
+
+Signed-off-by: Jonas Gorski <jogo@openwrt.org>
+---
+ include/net/netns/ipv6.h       |  1 +
+ include/uapi/linux/fib_rules.h |  4 +++
+ include/uapi/linux/rtnetlink.h |  1 +
+ net/ipv4/fib_semantics.c       |  4 +++
+ net/ipv4/fib_trie.c            |  1 +
+ net/ipv4/ipmr.c                |  1 +
+ net/ipv6/fib6_rules.c          |  4 +++
+ net/ipv6/ip6mr.c               |  2 ++
+ net/ipv6/route.c               | 58 +++++++++++++++++++++++++++++++++++++++++-
+ 9 files changed, 75 insertions(+), 1 deletion(-)
+
+--- a/include/net/netns/ipv6.h
++++ b/include/net/netns/ipv6.h
+@@ -59,6 +59,7 @@ struct netns_ipv6 {
+       unsigned long            ip6_rt_last_gc;
+ #ifdef CONFIG_IPV6_MULTIPLE_TABLES
+       struct rt6_info         *ip6_prohibit_entry;
++      struct rt6_info         *ip6_policy_failed_entry;
+       struct rt6_info         *ip6_blk_hole_entry;
+       struct fib6_table       *fib6_local_tbl;
+       struct fib_rules_ops    *fib6_rules_ops;
+--- a/include/uapi/linux/fib_rules.h
++++ b/include/uapi/linux/fib_rules.h
+@@ -64,6 +64,10 @@ enum {
+       FR_ACT_BLACKHOLE,       /* Drop without notification */
+       FR_ACT_UNREACHABLE,     /* Drop with ENETUNREACH */
+       FR_ACT_PROHIBIT,        /* Drop with EACCES */
++      FR_ACT_RES9,
++      FR_ACT_RES10,
++      FR_ACT_RES11,
++      FR_ACT_POLICY_FAILED,   /* Drop with EACCES */
+       __FR_ACT_MAX,
+ };
+--- a/include/uapi/linux/rtnetlink.h
++++ b/include/uapi/linux/rtnetlink.h
+@@ -203,6 +203,7 @@ enum {
+       RTN_THROW,              /* Not in this table            */
+       RTN_NAT,                /* Translate this address       */
+       RTN_XRESOLVE,           /* Use external resolver        */
++      RTN_POLICY_FAILED,      /* Failed ingress/egress policy */
+       __RTN_MAX
+ };
+--- a/net/ipv4/fib_semantics.c
++++ b/net/ipv4/fib_semantics.c
+@@ -138,6 +138,10 @@ const struct fib_prop fib_props[RTN_MAX 
+               .error  = -EINVAL,
+               .scope  = RT_SCOPE_NOWHERE,
+       },
++      [RTN_POLICY_FAILED] = {
++              .error  = -EACCES,
++              .scope  = RT_SCOPE_UNIVERSE,
++      },
+ };
+ static void rt_fibinfo_free(struct rtable __rcu **rtp)
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -2236,6 +2236,7 @@ static const char *const rtn_type_names[
+       [RTN_THROW] = "THROW",
+       [RTN_NAT] = "NAT",
+       [RTN_XRESOLVE] = "XRESOLVE",
++      [RTN_POLICY_FAILED] = "POLICY_FAILED",
+ };
+ static inline const char *rtn_type(char *buf, size_t len, unsigned int t)
+--- a/net/ipv4/ipmr.c
++++ b/net/ipv4/ipmr.c
+@@ -184,6 +184,7 @@ static int ipmr_rule_action(struct fib_r
+       case FR_ACT_UNREACHABLE:
+               return -ENETUNREACH;
+       case FR_ACT_PROHIBIT:
++      case FR_ACT_POLICY_FAILED:
+               return -EACCES;
+       case FR_ACT_BLACKHOLE:
+       default:
+--- a/net/ipv6/fib6_rules.c
++++ b/net/ipv6/fib6_rules.c
+@@ -73,6 +73,10 @@ static int fib6_rule_action(struct fib_r
+               err = -EACCES;
+               rt = net->ipv6.ip6_prohibit_entry;
+               goto discard_pkt;
++      case FR_ACT_POLICY_FAILED:
++              err = -EACCES;
++              rt = net->ipv6.ip6_policy_failed_entry;
++              goto discard_pkt;
+       }
+       table = fib6_get_table(net, rule->table);
+--- a/net/ipv6/ip6mr.c
++++ b/net/ipv6/ip6mr.c
+@@ -169,6 +169,8 @@ static int ip6mr_rule_action(struct fib_
+               return -ENETUNREACH;
+       case FR_ACT_PROHIBIT:
+               return -EACCES;
++      case FR_ACT_POLICY_FAILED:
++              return -EACCES;
+       case FR_ACT_BLACKHOLE:
+       default:
+               return -EINVAL;
+--- a/net/ipv6/route.c
++++ b/net/ipv6/route.c
+@@ -87,6 +87,8 @@ static int           ip6_pkt_discard(struct sk_bu
+ static int            ip6_pkt_discard_out(struct sock *sk, struct sk_buff *skb);
+ static int            ip6_pkt_prohibit(struct sk_buff *skb);
+ static int            ip6_pkt_prohibit_out(struct sock *sk, struct sk_buff *skb);
++static int            ip6_pkt_policy_failed(struct sk_buff *skb);
++static int            ip6_pkt_policy_failed_out(struct sock *sk, struct sk_buff *skb);
+ static void           ip6_link_failure(struct sk_buff *skb);
+ static void           ip6_rt_update_pmtu(struct dst_entry *dst, struct sock *sk,
+                                          struct sk_buff *skb, u32 mtu);
+@@ -283,6 +285,21 @@ static const struct rt6_info ip6_prohibi
+       .rt6i_ref       = ATOMIC_INIT(1),
+ };
++static const struct rt6_info ip6_policy_failed_entry_template = {
++      .dst = {
++              .__refcnt       = ATOMIC_INIT(1),
++              .__use          = 1,
++              .obsolete       = DST_OBSOLETE_FORCE_CHK,
++              .error          = -EACCES,
++              .input          = ip6_pkt_policy_failed,
++              .output         = ip6_pkt_policy_failed_out,
++      },
++      .rt6i_flags     = (RTF_REJECT | RTF_NONEXTHOP),
++      .rt6i_protocol  = RTPROT_KERNEL,
++      .rt6i_metric    = ~(u32) 0,
++      .rt6i_ref       = ATOMIC_INIT(1),
++};
++
+ static const struct rt6_info ip6_blk_hole_entry_template = {
+       .dst = {
+               .__refcnt       = ATOMIC_INIT(1),
+@@ -1578,6 +1595,11 @@ int ip6_route_add(struct fib6_config *cf
+                       rt->dst.output = ip6_pkt_prohibit_out;
+                       rt->dst.input = ip6_pkt_prohibit;
+                       break;
++              case RTN_POLICY_FAILED:
++                      rt->dst.error = -EACCES;
++                      rt->dst.output = ip6_pkt_policy_failed_out;
++                      rt->dst.input = ip6_pkt_policy_failed;
++                      break;
+               case RTN_THROW:
+               default:
+                       rt->dst.error = (cfg->fc_type == RTN_THROW) ? -EAGAIN
+@@ -2139,6 +2161,17 @@ static int ip6_pkt_prohibit_out(struct s
+       return ip6_pkt_drop(skb, ICMPV6_ADM_PROHIBITED, IPSTATS_MIB_OUTNOROUTES);
+ }
++static int ip6_pkt_policy_failed(struct sk_buff *skb)
++{
++      return ip6_pkt_drop(skb, ICMPV6_POLICY_FAIL, IPSTATS_MIB_INNOROUTES);
++}
++
++static int ip6_pkt_policy_failed_out(struct sock *sk, struct sk_buff *skb)
++{
++      skb->dev = skb_dst(skb)->dev;
++      return ip6_pkt_drop(skb, ICMPV6_POLICY_FAIL, IPSTATS_MIB_OUTNOROUTES);
++}
++
+ /*
+  *    Allocate a dst for local (unicast / anycast) address.
+  */
+@@ -2362,7 +2395,8 @@ static int rtm_to_fib6_config(struct sk_
+       if (rtm->rtm_type == RTN_UNREACHABLE ||
+           rtm->rtm_type == RTN_BLACKHOLE ||
+           rtm->rtm_type == RTN_PROHIBIT ||
+-          rtm->rtm_type == RTN_THROW)
++          rtm->rtm_type == RTN_THROW ||
++          rtm->rtm_type == RTN_POLICY_FAILED)
+               cfg->fc_flags |= RTF_REJECT;
+       if (rtm->rtm_type == RTN_LOCAL)
+@@ -2564,6 +2598,9 @@ static int rt6_fill_node(struct net *net
+               case -EACCES:
+                       rtm->rtm_type = RTN_PROHIBIT;
+                       break;
++              case -EPERM:
++                      rtm->rtm_type = RTN_POLICY_FAILED;
++                      break;
+               case -EAGAIN:
+                       rtm->rtm_type = RTN_THROW;
+                       break;
+@@ -2817,6 +2854,8 @@ static int ip6_route_dev_notify(struct n
+ #ifdef CONFIG_IPV6_MULTIPLE_TABLES
+               net->ipv6.ip6_prohibit_entry->dst.dev = dev;
+               net->ipv6.ip6_prohibit_entry->rt6i_idev = in6_dev_get(dev);
++              net->ipv6.ip6_policy_failed_entry->dst.dev = dev;
++              net->ipv6.ip6_policy_failed_entry->rt6i_idev = in6_dev_get(dev);
+               net->ipv6.ip6_blk_hole_entry->dst.dev = dev;
+               net->ipv6.ip6_blk_hole_entry->rt6i_idev = in6_dev_get(dev);
+ #endif
+@@ -3033,6 +3072,17 @@ static int __net_init ip6_route_net_init
+       net->ipv6.ip6_blk_hole_entry->dst.ops = &net->ipv6.ip6_dst_ops;
+       dst_init_metrics(&net->ipv6.ip6_blk_hole_entry->dst,
+                        ip6_template_metrics, true);
++
++      net->ipv6.ip6_policy_failed_entry =
++              kmemdup(&ip6_policy_failed_entry_template,
++                      sizeof(*net->ipv6.ip6_policy_failed_entry), GFP_KERNEL);
++      if (!net->ipv6.ip6_policy_failed_entry)
++              goto out_ip6_blk_hole_entry;
++      net->ipv6.ip6_policy_failed_entry->dst.path =
++              (struct dst_entry *)net->ipv6.ip6_policy_failed_entry;
++      net->ipv6.ip6_policy_failed_entry->dst.ops = &net->ipv6.ip6_dst_ops;
++      dst_init_metrics(&net->ipv6.ip6_policy_failed_entry->dst,
++                       ip6_template_metrics, true);
+ #endif
+       net->ipv6.sysctl.flush_delay = 0;
+@@ -3051,6 +3101,8 @@ out:
+       return ret;
+ #ifdef CONFIG_IPV6_MULTIPLE_TABLES
++out_ip6_blk_hole_entry:
++      kfree(net->ipv6.ip6_blk_hole_entry);
+ out_ip6_prohibit_entry:
+       kfree(net->ipv6.ip6_prohibit_entry);
+ out_ip6_null_entry:
+@@ -3068,6 +3120,7 @@ static void __net_exit ip6_route_net_exi
+ #ifdef CONFIG_IPV6_MULTIPLE_TABLES
+       kfree(net->ipv6.ip6_prohibit_entry);
+       kfree(net->ipv6.ip6_blk_hole_entry);
++      kfree(net->ipv6.ip6_policy_failed_entry);
+ #endif
+       dst_entries_destroy(&net->ipv6.ip6_dst_ops);
+ }
+@@ -3164,6 +3217,9 @@ int __init ip6_route_init(void)
+       init_net.ipv6.ip6_prohibit_entry->rt6i_idev = in6_dev_get(init_net.loopback_dev);
+       init_net.ipv6.ip6_blk_hole_entry->dst.dev = init_net.loopback_dev;
+       init_net.ipv6.ip6_blk_hole_entry->rt6i_idev = in6_dev_get(init_net.loopback_dev);
++      init_net.ipv6.ip6_policy_failed_entry->dst.dev = init_net.loopback_dev;
++      init_net.ipv6.ip6_policy_failed_entry->rt6i_idev =
++              in6_dev_get(init_net.loopback_dev);
+   #endif
+       ret = fib6_init();
+       if (ret)
diff --git a/trunk/target/linux/generic/patches-3.18/671-net-provide-defines-for-_POLICY_FAILED-until-all-cod.patch b/trunk/target/linux/generic/patches-3.18/671-net-provide-defines-for-_POLICY_FAILED-until-all-cod.patch
new file mode 100644 (file)
index 0000000..25a8639
--- /dev/null
@@ -0,0 +1,53 @@
+From 7749b481ce5d7e232b1f7da5e6b2c44816f51681 Mon Sep 17 00:00:00 2001
+From: Jonas Gorski <jogo@openwrt.org>
+Date: Sun, 19 Jan 2014 20:45:51 +0100
+Subject: [PATCH 2/2] net: provide defines for _POLICY_FAILED until all code is
+ updated
+
+Upstream introduced ICMPV6_POLICY_FAIL for code 5 of destination
+unreachable, conflicting with our name.
+
+Add appropriate defines to allow our code to build with the new
+name until we have updated our local patches for older kernels
+and userspace packages.
+
+Signed-off-by: Jonas Gorski <jogo@openwrt.org>
+---
+ include/uapi/linux/fib_rules.h | 2 ++
+ include/uapi/linux/icmpv6.h    | 2 ++
+ include/uapi/linux/rtnetlink.h | 2 ++
+ 3 files changed, 6 insertions(+)
+
+--- a/include/uapi/linux/fib_rules.h
++++ b/include/uapi/linux/fib_rules.h
+@@ -71,6 +71,8 @@ enum {
+       __FR_ACT_MAX,
+ };
++#define FR_ACT_FAILED_POLICY FR_ACT_POLICY_FAILED
++
+ #define FR_ACT_MAX (__FR_ACT_MAX - 1)
+ #endif
+--- a/include/uapi/linux/icmpv6.h
++++ b/include/uapi/linux/icmpv6.h
+@@ -118,6 +118,8 @@ struct icmp6hdr {
+ #define ICMPV6_POLICY_FAIL            5
+ #define ICMPV6_REJECT_ROUTE           6
++#define ICMPV6_FAILED_POLICY          ICMPV6_POLICY_FAIL
++
+ /*
+  *    Codes for Time Exceeded
+  */
+--- a/include/uapi/linux/rtnetlink.h
++++ b/include/uapi/linux/rtnetlink.h
+@@ -207,6 +207,8 @@ enum {
+       __RTN_MAX
+ };
++#define RTN_FAILED_POLICY RTN_POLICY_FAILED
++
+ #define RTN_MAX (__RTN_MAX - 1)
diff --git a/trunk/target/linux/generic/patches-3.18/680-NET-skip-GRO-for-foreign-MAC-addresses.patch b/trunk/target/linux/generic/patches-3.18/680-NET-skip-GRO-for-foreign-MAC-addresses.patch
new file mode 100644 (file)
index 0000000..ad5000e
--- /dev/null
@@ -0,0 +1,160 @@
+Subject: NET: skip GRO for foreign MAC addresses
+
+For network drivers using napi_gro_receive, packets are run through GRO,
+even when the destination MAC address does not match, and they're supposed
+to be delivered to another host behind a different bridge port.
+
+This can be very expensive, because for drivers without TSO or scatter-
+gather, this can only be undone by copying the skb and checksumming it
+again.
+
+To be able to track foreign MAC addresses in an inexpensive way, create
+a mask of changed bits in MAC addresses of upper devices. This allows
+handling VLANs and bridge devices with different addresses (as long as
+they are not too different).
+
+Signed-off-by: Felix Fietkau <nbd@openwrt.org>
+
+--- a/net/core/dev.c
++++ b/net/core/dev.c
+@@ -4003,6 +4003,9 @@ static enum gro_result dev_gro_receive(s
+       enum gro_result ret;
+       int grow;
++      if (skb->gro_skip)
++              goto normal;
++
+       if (!(skb->dev->features & NETIF_F_GRO))
+               goto normal;
+@@ -5066,6 +5069,48 @@ static void __netdev_adjacent_dev_unlink
+                                          &upper_dev->adj_list.lower);
+ }
++static void __netdev_addr_mask(unsigned char *mask, const unsigned char *addr,
++                             struct net_device *dev)
++{
++      int i;
++
++      for (i = 0; i < dev->addr_len; i++)
++              mask[i] |= addr[i] ^ dev->dev_addr[i];
++}
++
++static void __netdev_upper_mask(unsigned char *mask, struct net_device *dev,
++                              struct net_device *lower)
++{
++      struct net_device *cur;
++      struct list_head *iter;
++
++      netdev_for_each_upper_dev_rcu(dev, cur, iter) {
++              __netdev_addr_mask(mask, cur->dev_addr, lower);
++              __netdev_upper_mask(mask, cur, lower);
++      }
++}
++
++static void __netdev_update_addr_mask(struct net_device *dev)
++{
++      unsigned char mask[MAX_ADDR_LEN];
++      struct net_device *cur;
++      struct list_head *iter;
++
++      memset(mask, 0, sizeof(mask));
++      __netdev_upper_mask(mask, dev, dev);
++      memcpy(dev->local_addr_mask, mask, dev->addr_len);
++
++      netdev_for_each_lower_dev(dev, cur, iter)
++              __netdev_update_addr_mask(cur);
++}
++
++static void netdev_update_addr_mask(struct net_device *dev)
++{
++      rcu_read_lock();
++      __netdev_update_addr_mask(dev);
++      rcu_read_unlock();
++}
++
+ static int __netdev_upper_dev_link(struct net_device *dev,
+                                  struct net_device *upper_dev, bool master,
+                                  void *private)
+@@ -5126,6 +5171,7 @@ static int __netdev_upper_dev_link(struc
+                       goto rollback_lower_mesh;
+       }
++      netdev_update_addr_mask(dev);
+       call_netdevice_notifiers(NETDEV_CHANGEUPPER, dev);
+       return 0;
+@@ -5243,6 +5289,7 @@ void netdev_upper_dev_unlink(struct net_
+       list_for_each_entry(i, &upper_dev->all_adj_list.upper, list)
+               __netdev_adjacent_dev_unlink(dev, i->dev);
++      netdev_update_addr_mask(dev);
+       call_netdevice_notifiers(NETDEV_CHANGEUPPER, dev);
+ }
+ EXPORT_SYMBOL(netdev_upper_dev_unlink);
+@@ -5762,6 +5809,7 @@ int dev_set_mac_address(struct net_devic
+       if (err)
+               return err;
+       dev->addr_assign_type = NET_ADDR_SET;
++      netdev_update_addr_mask(dev);
+       call_netdevice_notifiers(NETDEV_CHANGEADDR, dev);
+       add_device_randomness(dev->dev_addr, dev->addr_len);
+       return 0;
+--- a/include/linux/netdevice.h
++++ b/include/linux/netdevice.h
+@@ -1548,6 +1548,8 @@ struct net_device {
+       struct netdev_hw_addr_list      mc;
+       struct netdev_hw_addr_list      dev_addrs;
++      unsigned char           local_addr_mask[MAX_ADDR_LEN];
++
+ #ifdef CONFIG_SYSFS
+       struct kset             *queues_kset;
+ #endif
+--- a/include/linux/skbuff.h
++++ b/include/linux/skbuff.h
+@@ -597,7 +597,8 @@ struct sk_buff {
+ #endif
+       __u8                    ipvs_property:1;
+       __u8                    inner_protocol_type:1;
+-      /* 4 or 6 bit hole */
++      __u8                    gro_skip:1;
++      /* 3 or 5 bit hole */
+ #ifdef CONFIG_NET_SCHED
+       __u16                   tc_index;       /* traffic control index */
+--- a/net/ethernet/eth.c
++++ b/net/ethernet/eth.c
+@@ -172,6 +172,18 @@ u32 eth_get_headlen(void *data, unsigned
+ }
+ EXPORT_SYMBOL(eth_get_headlen);
++static inline bool
++eth_check_local_mask(const void *addr1, const void *addr2, const void *mask)
++{
++      const u16 *a1 = addr1;
++      const u16 *a2 = addr2;
++      const u16 *m = mask;
++
++      return (((a1[0] ^ a2[0]) & ~m[0]) |
++              ((a1[1] ^ a2[1]) & ~m[1]) |
++              ((a1[2] ^ a2[2]) & ~m[2]));
++}
++
+ /**
+  * eth_type_trans - determine the packet's protocol ID.
+  * @skb: received socket data
+@@ -199,8 +211,12 @@ __be16 eth_type_trans(struct sk_buff *sk
+                       skb->pkt_type = PACKET_MULTICAST;
+       }
+       else if (unlikely(!ether_addr_equal_64bits(eth->h_dest,
+-                                                 dev->dev_addr)))
++                                                 dev->dev_addr))) {
+               skb->pkt_type = PACKET_OTHERHOST;
++              if (eth_check_local_mask(eth->h_dest, dev->dev_addr,
++                                       dev->local_addr_mask))
++                      skb->gro_skip = 1;
++      }
+       /*
+        * Some variants of DSA tagging don't have an ethertype field
diff --git a/trunk/target/linux/generic/patches-3.18/700-swconfig.patch b/trunk/target/linux/generic/patches-3.18/700-swconfig.patch
new file mode 100644 (file)
index 0000000..7cf525a
--- /dev/null
@@ -0,0 +1,39 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -12,6 +12,16 @@ menuconfig PHYLIB
+ if PHYLIB
++config SWCONFIG
++      tristate "Switch configuration API"
++      ---help---
++        Switch configuration API using netlink. This allows
++        you to configure the VLAN features of certain switches.
++
++config SWCONFIG_LEDS
++      bool "Switch LED trigger support"
++      depends on (SWCONFIG && LEDS_TRIGGERS)
++
+ comment "MII PHY device drivers"
+ config AT803X_PHY
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -3,6 +3,7 @@
+ libphy-objs                   := phy.o phy_device.o mdio_bus.o
+ obj-$(CONFIG_PHYLIB)          += libphy.o
++obj-$(CONFIG_SWCONFIG)                += swconfig.o
+ obj-$(CONFIG_MARVELL_PHY)     += marvell.o
+ obj-$(CONFIG_DAVICOM_PHY)     += davicom.o
+ obj-$(CONFIG_CICADA_PHY)      += cicada.o
+--- a/include/uapi/linux/Kbuild
++++ b/include/uapi/linux/Kbuild
+@@ -374,6 +374,7 @@ header-y += stddef.h
+ header-y += string.h
+ header-y += suspend_ioctls.h
+ header-y += swab.h
++header-y += switch.h
+ header-y += synclink.h
+ header-y += sysctl.h
+ header-y += sysinfo.h
diff --git a/trunk/target/linux/generic/patches-3.18/701-phy_extension.patch b/trunk/target/linux/generic/patches-3.18/701-phy_extension.patch
new file mode 100644 (file)
index 0000000..5c63dbe
--- /dev/null
@@ -0,0 +1,63 @@
+--- a/drivers/net/phy/phy.c
++++ b/drivers/net/phy/phy.c
+@@ -357,6 +357,50 @@ int phy_ethtool_gset(struct phy_device *
+ }
+ EXPORT_SYMBOL(phy_ethtool_gset);
++int phy_ethtool_ioctl(struct phy_device *phydev, void *useraddr)
++{
++      u32 cmd;
++      int tmp;
++      struct ethtool_cmd ecmd = { ETHTOOL_GSET };
++      struct ethtool_value edata = { ETHTOOL_GLINK };
++
++      if (get_user(cmd, (u32 *) useraddr))
++              return -EFAULT;
++
++      switch (cmd) {
++      case ETHTOOL_GSET:
++              phy_ethtool_gset(phydev, &ecmd);
++              if (copy_to_user(useraddr, &ecmd, sizeof(ecmd)))
++                      return -EFAULT;
++              return 0;
++
++      case ETHTOOL_SSET:
++              if (copy_from_user(&ecmd, useraddr, sizeof(ecmd)))
++                      return -EFAULT;
++              return phy_ethtool_sset(phydev, &ecmd);
++
++      case ETHTOOL_NWAY_RST:
++              /* if autoneg is off, it's an error */
++              tmp = phy_read(phydev, MII_BMCR);
++              if (tmp & BMCR_ANENABLE) {
++                      tmp |= (BMCR_ANRESTART);
++                      phy_write(phydev, MII_BMCR, tmp);
++                      return 0;
++              }
++              return -EINVAL;
++
++      case ETHTOOL_GLINK:
++              edata.data = (phy_read(phydev,
++                              MII_BMSR) & BMSR_LSTATUS) ? 1 : 0;
++              if (copy_to_user(useraddr, &edata, sizeof(edata)))
++                      return -EFAULT;
++              return 0;
++      }
++
++      return -EOPNOTSUPP;
++}
++EXPORT_SYMBOL(phy_ethtool_ioctl);
++
+ /**
+  * phy_mii_ioctl - generic PHY MII ioctl interface
+  * @phydev: the phy_device struct
+--- a/include/linux/phy.h
++++ b/include/linux/phy.h
+@@ -748,6 +748,7 @@ void phy_start_machine(struct phy_device
+ void phy_stop_machine(struct phy_device *phydev);
+ int phy_ethtool_sset(struct phy_device *phydev, struct ethtool_cmd *cmd);
+ int phy_ethtool_gset(struct phy_device *phydev, struct ethtool_cmd *cmd);
++int phy_ethtool_ioctl(struct phy_device *phydev, void *useraddr);
+ int phy_mii_ioctl(struct phy_device *phydev, struct ifreq *ifr, int cmd);
+ int phy_start_interrupts(struct phy_device *phydev);
+ void phy_print_status(struct phy_device *phydev);
diff --git a/trunk/target/linux/generic/patches-3.18/702-phy_add_aneg_done_function.patch b/trunk/target/linux/generic/patches-3.18/702-phy_add_aneg_done_function.patch
new file mode 100644 (file)
index 0000000..42bddfe
--- /dev/null
@@ -0,0 +1,27 @@
+--- a/include/linux/phy.h
++++ b/include/linux/phy.h
+@@ -484,6 +484,12 @@ struct phy_driver {
+       /* Determines the negotiated speed and duplex */
+       int (*read_status)(struct phy_device *phydev);
++      /* 
++       * Update the value in phydev->link to reflect the 
++       * current link value
++       */
++      int (*update_link)(struct phy_device *phydev);
++
+       /* Clears any pending interrupts */
+       int (*ack_interrupt)(struct phy_device *phydev);
+--- a/drivers/net/phy/phy_device.c
++++ b/drivers/net/phy/phy_device.c
+@@ -914,6 +914,9 @@ int genphy_update_link(struct phy_device
+ {
+       int status;
++      if (phydev->drv->update_link)
++              return phydev->drv->update_link(phydev);
++
+       /* Do a fake read */
+       status = phy_read(phydev, MII_BMSR);
+       if (status < 0)
diff --git a/trunk/target/linux/generic/patches-3.18/703-phy-add-detach-callback-to-struct-phy_driver.patch b/trunk/target/linux/generic/patches-3.18/703-phy-add-detach-callback-to-struct-phy_driver.patch
new file mode 100644 (file)
index 0000000..061e40f
--- /dev/null
@@ -0,0 +1,27 @@
+--- a/drivers/net/phy/phy_device.c
++++ b/drivers/net/phy/phy_device.c
+@@ -674,6 +674,9 @@ void phy_detach(struct phy_device *phyde
+ {
+       int i;
++      if (phydev->drv && phydev->drv->detach)
++              phydev->drv->detach(phydev);
++
+       if (phydev->bus->dev.driver)
+               module_put(phydev->bus->dev.driver->owner);
+--- a/include/linux/phy.h
++++ b/include/linux/phy.h
+@@ -502,6 +502,12 @@ struct phy_driver {
+        */
+       int (*did_interrupt)(struct phy_device *phydev);
++      /*
++       * Called before an ethernet device is detached
++       * from the PHY.
++       */
++      void (*detach)(struct phy_device *phydev);
++
+       /* Clears up any memory if needed */
+       void (*remove)(struct phy_device *phydev);
diff --git a/trunk/target/linux/generic/patches-3.18/704-phy-no-genphy-soft-reset.patch b/trunk/target/linux/generic/patches-3.18/704-phy-no-genphy-soft-reset.patch
new file mode 100644 (file)
index 0000000..c255415
--- /dev/null
@@ -0,0 +1,29 @@
+--- a/drivers/net/phy/phy_device.c
++++ b/drivers/net/phy/phy_device.c
+@@ -1132,7 +1132,7 @@ int genphy_config_init(struct phy_device
+       return 0;
+ }
+-static int gen10g_soft_reset(struct phy_device *phydev)
++static int no_soft_reset(struct phy_device *phydev)
+ {
+       /* Do nothing for now */
+       return 0;
+@@ -1346,7 +1346,7 @@ static struct phy_driver genphy_driver[]
+       .phy_id         = 0xffffffff,
+       .phy_id_mask    = 0xffffffff,
+       .name           = "Generic PHY",
+-      .soft_reset     = genphy_soft_reset,
++      .soft_reset     = no_soft_reset,
+       .config_init    = genphy_config_init,
+       .features       = PHY_GBIT_FEATURES | SUPPORTED_MII |
+                         SUPPORTED_AUI | SUPPORTED_FIBRE |
+@@ -1361,7 +1361,7 @@ static struct phy_driver genphy_driver[]
+       .phy_id         = 0xffffffff,
+       .phy_id_mask    = 0xffffffff,
+       .name           = "Generic 10G PHY",
+-      .soft_reset     = gen10g_soft_reset,
++      .soft_reset     = no_soft_reset,
+       .config_init    = gen10g_config_init,
+       .features       = 0,
+       .config_aneg    = gen10g_config_aneg,
diff --git a/trunk/target/linux/generic/patches-3.18/710-phy-add-mdio_register_board_info.patch b/trunk/target/linux/generic/patches-3.18/710-phy-add-mdio_register_board_info.patch
new file mode 100644 (file)
index 0000000..cc3cb24
--- /dev/null
@@ -0,0 +1,192 @@
+--- a/drivers/net/phy/mdio_bus.c
++++ b/drivers/net/phy/mdio_bus.c
+@@ -38,6 +38,8 @@
+ #include <asm/irq.h>
++#include "mdio-boardinfo.h"
++
+ /**
+  * mdiobus_alloc_size - allocate a mii_bus structure
+  * @size: extra amount of memory to allocate for private storage.
+@@ -335,9 +337,21 @@ void mdiobus_free(struct mii_bus *bus)
+ }
+ EXPORT_SYMBOL(mdiobus_free);
++static void mdiobus_setup_phydev_from_boardinfo(struct mii_bus *bus,
++                                              struct phy_device *phydev,
++                                              struct mdio_board_info *bi)
++{
++      if (strcmp(bus->id, bi->bus_id) ||
++          bi->phy_addr != phydev->addr)
++          return;
++
++      phydev->dev.platform_data = (void *) bi->platform_data;
++}
++
+ struct phy_device *mdiobus_scan(struct mii_bus *bus, int addr)
+ {
+       struct phy_device *phydev;
++      struct mdio_board_entry *be;
+       int err;
+       phydev = get_phy_device(bus, addr, false);
+@@ -350,6 +364,12 @@ struct phy_device *mdiobus_scan(struct m
+        */
+       of_mdiobus_link_phydev(bus, phydev);
++      mutex_lock(&__mdio_board_lock);
++      list_for_each_entry(be, &__mdio_board_list, list)
++              mdiobus_setup_phydev_from_boardinfo(bus, phydev,
++                                                  &be->board_info);
++      mutex_unlock(&__mdio_board_lock);
++
+       err = phy_device_register(phydev);
+       if (err) {
+               phy_device_free(phydev);
+--- a/include/linux/phy.h
++++ b/include/linux/phy.h
+@@ -785,4 +785,22 @@ int __init mdio_bus_init(void);
+ void mdio_bus_exit(void);
+ extern struct bus_type mdio_bus_type;
++
++struct mdio_board_info {
++      const char      *bus_id;
++      int             phy_addr;
++
++      const void      *platform_data;
++};
++
++#ifdef CONFIG_MDIO_BOARDINFO
++int mdiobus_register_board_info(const struct mdio_board_info *info, unsigned n);
++#else
++static inline int
++mdiobus_register_board_info(const struct mdio_board_info *info, unsigned n)
++{
++      return 0;
++}
++#endif
++
+ #endif /* __PHY_H */
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -12,6 +12,10 @@ menuconfig PHYLIB
+ if PHYLIB
++config MDIO_BOARDINFO
++      bool
++      default y
++
+ config SWCONFIG
+       tristate "Switch configuration API"
+       ---help---
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -2,6 +2,8 @@
+ libphy-objs                   := phy.o phy_device.o mdio_bus.o
++obj-$(CONFIG_MDIO_BOARDINFO)  += mdio-boardinfo.o
++
+ obj-$(CONFIG_PHYLIB)          += libphy.o
+ obj-$(CONFIG_SWCONFIG)                += swconfig.o
+ obj-$(CONFIG_MARVELL_PHY)     += marvell.o
+--- /dev/null
++++ b/drivers/net/phy/mdio-boardinfo.c
+@@ -0,0 +1,58 @@
++/*
++ * mdio-boardinfo.c - collect pre-declarations of PHY devices
++ *
++ * This program is free software; you can redistribute  it and/or modify it
++ * under  the terms of  the GNU General  Public License as published by the
++ * Free Software Foundation;  either version 2 of the  License, or (at your
++ * option) any later version.
++ *
++ */
++
++#include <linux/kernel.h>
++#include <linux/phy.h>
++#include <linux/slab.h>
++#include <linux/export.h>
++#include <linux/mutex.h>
++#include <linux/phy.h>
++
++#include "mdio-boardinfo.h"
++
++/*
++ * These symbols are exported ONLY FOR the mdio_bus component.
++ * No other users will be supported.
++ */
++
++LIST_HEAD(__mdio_board_list);
++EXPORT_SYMBOL_GPL(__mdio_board_list);
++
++DEFINE_MUTEX(__mdio_board_lock);
++EXPORT_SYMBOL_GPL(__mdio_board_lock);
++
++/**
++ * mdio_register_board_info - register PHY devices for a given board
++ * @info: array of chip descriptors
++ * @n: how many descriptors are provided
++ * Context: can sleep
++ *
++ * The board info passed can safely be __initdata ... but be careful of
++ * any embedded pointers (platform_data, etc), they're copied as-is.
++ */
++int __init
++mdiobus_register_board_info(struct mdio_board_info const *info, unsigned n)
++{
++      struct mdio_board_entry *be;
++      int i;
++
++      be = kzalloc(n * sizeof(*be), GFP_KERNEL);
++      if (!be)
++              return -ENOMEM;
++
++      for (i = 0; i < n; i++, be++, info++) {
++              memcpy(&be->board_info, info, sizeof(*info));
++              mutex_lock(&__mdio_board_lock);
++              list_add_tail(&be->list, &__mdio_board_list);
++              mutex_unlock(&__mdio_board_lock);
++      }
++
++      return 0;
++}
+--- /dev/null
++++ b/drivers/net/phy/mdio-boardinfo.h
+@@ -0,0 +1,22 @@
++/*
++ * mdio-boardinfo.h - boardinfo interface internal to the mdio_bus component
++ *
++ * This program is free software; you can redistribute  it and/or modify it
++ * under  the terms of  the GNU General  Public License as published by the
++ * Free Software Foundation;  either version 2 of the  License, or (at your
++ * option) any later version.
++ *
++ */
++
++#include <linux/mutex.h>
++
++struct mdio_board_entry {
++      struct list_head        list;
++      struct mdio_board_info  board_info;
++};
++
++/* __mdio_board_lock protects __mdio_board_list
++ * only mdio_bus components are allowed to use these symbols.
++ */
++extern struct mutex __mdio_board_lock;
++extern struct list_head __mdio_board_list;
+--- a/drivers/net/Makefile
++++ b/drivers/net/Makefile
+@@ -15,7 +15,7 @@ obj-$(CONFIG_MII) += mii.o
+ obj-$(CONFIG_MDIO) += mdio.o
+ obj-$(CONFIG_NET) += Space.o loopback.o
+ obj-$(CONFIG_NETCONSOLE) += netconsole.o
+-obj-$(CONFIG_PHYLIB) += phy/
++obj-y += phy/
+ obj-$(CONFIG_RIONET) += rionet.o
+ obj-$(CONFIG_NET_TEAM) += team/
+ obj-$(CONFIG_TUN) += tun.o
diff --git a/trunk/target/linux/generic/patches-3.18/720-phy_adm6996.patch b/trunk/target/linux/generic/patches-3.18/720-phy_adm6996.patch
new file mode 100644 (file)
index 0000000..b0b8db4
--- /dev/null
@@ -0,0 +1,26 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -132,6 +132,13 @@ config MICREL_PHY
+       ---help---
+         Supports the KSZ9021, VSC8201, KS8001 PHYs.
++config ADM6996_PHY
++      tristate "Driver for ADM6996 switches"
++      select SWCONFIG
++      ---help---
++        Currently supports the ADM6996FC and ADM6996M switches.
++        Support for FC is very limited.
++
+ config FIXED_PHY
+       bool "Driver for MDIO Bus/PHY emulation with fixed speed/link PHYs"
+       depends on PHYLIB=y
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -18,6 +18,7 @@ obj-$(CONFIG_BCM63XX_PHY)    += bcm63xx.o
+ obj-$(CONFIG_BCM7XXX_PHY)     += bcm7xxx.o
+ obj-$(CONFIG_BCM87XX_PHY)     += bcm87xx.o
+ obj-$(CONFIG_ICPLUS_PHY)      += icplus.o
++obj-$(CONFIG_ADM6996_PHY)     += adm6996.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
diff --git a/trunk/target/linux/generic/patches-3.18/721-phy_packets.patch b/trunk/target/linux/generic/patches-3.18/721-phy_packets.patch
new file mode 100644 (file)
index 0000000..aa1897c
--- /dev/null
@@ -0,0 +1,161 @@
+--- a/include/linux/netdevice.h
++++ b/include/linux/netdevice.h
+@@ -1220,6 +1220,7 @@ enum netdev_priv_flags {
+       IFF_LIVE_ADDR_CHANGE            = 1<<20,
+       IFF_MACVLAN                     = 1<<21,
+       IFF_XMIT_DST_RELEASE_PERM       = 1<<22,
++      IFF_NO_IP_ALIGN                 = 1<<23,
+ };
+ #define IFF_802_1Q_VLAN                       IFF_802_1Q_VLAN
+@@ -1245,6 +1246,7 @@ enum netdev_priv_flags {
+ #define IFF_LIVE_ADDR_CHANGE          IFF_LIVE_ADDR_CHANGE
+ #define IFF_MACVLAN                   IFF_MACVLAN
+ #define IFF_XMIT_DST_RELEASE_PERM     IFF_XMIT_DST_RELEASE_PERM
++#define IFF_NO_IP_ALIGN               IFF_NO_IP_ALIGN
+ /**
+  *    struct net_device - The DEVICE structure.
+@@ -1515,6 +1517,11 @@ struct net_device {
+       const struct ethtool_ops *ethtool_ops;
+       const struct forwarding_accel_ops *fwd_ops;
++#ifdef CONFIG_ETHERNET_PACKET_MANGLE
++      void (*eth_mangle_rx)(struct net_device *dev, struct sk_buff *skb);
++      struct sk_buff *(*eth_mangle_tx)(struct net_device *dev, struct sk_buff *skb);
++#endif
++
+       const struct header_ops *header_ops;
+       unsigned int            flags;
+@@ -1579,6 +1586,10 @@ struct net_device {
+       void                    *ax25_ptr;
+       struct wireless_dev     *ieee80211_ptr;
++#ifdef CONFIG_ETHERNET_PACKET_MANGLE
++      void                    *phy_ptr; /* PHY device specific data */
++#endif
++
+ /*
+  * Cache lines mostly used on receive path (including eth_type_trans())
+  */
+--- a/include/linux/skbuff.h
++++ b/include/linux/skbuff.h
+@@ -2053,6 +2053,10 @@ static inline int pskb_trim(struct sk_bu
+       return (len < skb->len) ? __pskb_trim(skb, len) : 0;
+ }
++extern struct sk_buff *__netdev_alloc_skb_ip_align(struct net_device *dev,
++              unsigned int length, gfp_t gfp);
++
++
+ /**
+  *    pskb_trim_unique - remove end from a paged unique (not cloned) buffer
+  *    @skb: buffer to alter
+@@ -2179,16 +2183,6 @@ static inline struct sk_buff *dev_alloc_
+ }
+-static inline struct sk_buff *__netdev_alloc_skb_ip_align(struct net_device *dev,
+-              unsigned int length, gfp_t gfp)
+-{
+-      struct sk_buff *skb = __netdev_alloc_skb(dev, length + NET_IP_ALIGN, gfp);
+-
+-      if (NET_IP_ALIGN && skb)
+-              skb_reserve(skb, NET_IP_ALIGN);
+-      return skb;
+-}
+-
+ static inline struct sk_buff *netdev_alloc_skb_ip_align(struct net_device *dev,
+               unsigned int length)
+ {
+--- a/net/Kconfig
++++ b/net/Kconfig
+@@ -25,6 +25,12 @@ menuconfig NET
+ if NET
++config ETHERNET_PACKET_MANGLE
++      bool
++      help
++        This option can be selected by phy drivers that need to mangle
++        packets going in or out of an ethernet device.
++
+ config WANT_COMPAT_NETLINK_MESSAGES
+       bool
+       help
+--- a/net/core/dev.c
++++ b/net/core/dev.c
+@@ -2623,10 +2623,20 @@ static int xmit_one(struct sk_buff *skb,
+       if (!list_empty(&ptype_all))
+               dev_queue_xmit_nit(skb, dev);
+-      len = skb->len;
+-      trace_net_dev_start_xmit(skb, dev);
+-      rc = netdev_start_xmit(skb, dev, txq, more);
+-      trace_net_dev_xmit(skb, rc, dev, len);
++#ifdef CONFIG_ETHERNET_PACKET_MANGLE
++      if (!dev->eth_mangle_tx ||
++          (skb = dev->eth_mangle_tx(dev, skb)) != NULL)
++#else
++      if (1)
++#endif
++      {
++              len = skb->len;
++              trace_net_dev_start_xmit(skb, dev);
++              rc = netdev_start_xmit(skb, dev, txq, more);
++              trace_net_dev_xmit(skb, rc, dev, len);
++      } else {
++              rc = NETDEV_TX_OK;
++      }
+       return rc;
+ }
+--- a/net/core/skbuff.c
++++ b/net/core/skbuff.c
+@@ -63,6 +63,7 @@
+ #include <linux/errqueue.h>
+ #include <linux/prefetch.h>
+ #include <linux/if_vlan.h>
++#include <linux/if.h>
+ #include <net/protocol.h>
+ #include <net/dst.h>
+@@ -451,6 +452,22 @@ struct sk_buff *__netdev_alloc_skb(struc
+ }
+ EXPORT_SYMBOL(__netdev_alloc_skb);
++struct sk_buff *__netdev_alloc_skb_ip_align(struct net_device *dev,
++              unsigned int length, gfp_t gfp)
++{
++      struct sk_buff *skb = __netdev_alloc_skb(dev, length + NET_IP_ALIGN, gfp);
++
++#ifdef CONFIG_ETHERNET_PACKET_MANGLE
++      if (dev && (dev->priv_flags & IFF_NO_IP_ALIGN))
++              return skb;
++#endif
++
++      if (NET_IP_ALIGN && skb)
++              skb_reserve(skb, NET_IP_ALIGN);
++      return skb;
++}
++EXPORT_SYMBOL(__netdev_alloc_skb_ip_align);
++
+ void skb_add_rx_frag(struct sk_buff *skb, int i, struct page *page, int off,
+                    int size, unsigned int truesize)
+ {
+--- a/net/ethernet/eth.c
++++ b/net/ethernet/eth.c
+@@ -200,6 +200,12 @@ __be16 eth_type_trans(struct sk_buff *sk
+       const struct ethhdr *eth;
+       skb->dev = dev;
++
++#ifdef CONFIG_ETHERNET_PACKET_MANGLE
++      if (dev->eth_mangle_rx)
++              dev->eth_mangle_rx(dev, skb);
++#endif
++
+       skb_reset_mac_header(skb);
+       skb_pull_inline(skb, ETH_HLEN);
+       eth = eth_hdr(skb);
diff --git a/trunk/target/linux/generic/patches-3.18/722-phy_mvswitch.patch b/trunk/target/linux/generic/patches-3.18/722-phy_mvswitch.patch
new file mode 100644 (file)
index 0000000..f577a9f
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -139,6 +139,10 @@ config ADM6996_PHY
+         Currently supports the ADM6996FC and ADM6996M switches.
+         Support for FC is very limited.
++config MVSWITCH_PHY
++      tristate "Driver for Marvell 88E6060 switches"
++      select ETHERNET_PACKET_MANGLE
++
+ config FIXED_PHY
+       bool "Driver for MDIO Bus/PHY emulation with fixed speed/link PHYs"
+       depends on PHYLIB=y
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -19,6 +19,7 @@ obj-$(CONFIG_BCM7XXX_PHY)    += bcm7xxx.o
+ obj-$(CONFIG_BCM87XX_PHY)     += bcm87xx.o
+ obj-$(CONFIG_ICPLUS_PHY)      += icplus.o
+ obj-$(CONFIG_ADM6996_PHY)     += adm6996.o
++obj-$(CONFIG_MVSWITCH_PHY)    += mvswitch.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
diff --git a/trunk/target/linux/generic/patches-3.18/723-phy_ip175c.patch b/trunk/target/linux/generic/patches-3.18/723-phy_ip175c.patch
new file mode 100644 (file)
index 0000000..c7c4f99
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -143,6 +143,10 @@ config MVSWITCH_PHY
+       tristate "Driver for Marvell 88E6060 switches"
+       select ETHERNET_PACKET_MANGLE
++config IP17XX_PHY
++      tristate "Driver for IC+ IP17xx switches"
++      select SWCONFIG
++
+ config FIXED_PHY
+       bool "Driver for MDIO Bus/PHY emulation with fixed speed/link PHYs"
+       depends on PHYLIB=y
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -20,6 +20,7 @@ obj-$(CONFIG_BCM87XX_PHY)    += bcm87xx.o
+ obj-$(CONFIG_ICPLUS_PHY)      += icplus.o
+ obj-$(CONFIG_ADM6996_PHY)     += adm6996.o
+ obj-$(CONFIG_MVSWITCH_PHY)    += mvswitch.o
++obj-$(CONFIG_IP17XX_PHY)      += ip17xx.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
diff --git a/trunk/target/linux/generic/patches-3.18/724-phy_ar8216.patch b/trunk/target/linux/generic/patches-3.18/724-phy_ar8216.patch
new file mode 100644 (file)
index 0000000..acb2df8
--- /dev/null
@@ -0,0 +1,24 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -147,6 +147,11 @@ config IP17XX_PHY
+       tristate "Driver for IC+ IP17xx switches"
+       select SWCONFIG
++config AR8216_PHY
++      tristate "Driver for Atheros AR8216 switches"
++      select ETHERNET_PACKET_MANGLE
++      select SWCONFIG
++
+ config FIXED_PHY
+       bool "Driver for MDIO Bus/PHY emulation with fixed speed/link PHYs"
+       depends on PHYLIB=y
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -22,6 +22,7 @@ obj-$(CONFIG_ADM6996_PHY)    += adm6996.o
+ obj-$(CONFIG_MVSWITCH_PHY)    += mvswitch.o
+ obj-$(CONFIG_IP17XX_PHY)      += ip17xx.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
++obj-$(CONFIG_AR8216_PHY)      += ar8216.o ar8327.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
diff --git a/trunk/target/linux/generic/patches-3.18/725-phy_rtl8306.patch b/trunk/target/linux/generic/patches-3.18/725-phy_rtl8306.patch
new file mode 100644 (file)
index 0000000..78ac6ce
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -152,6 +152,10 @@ config AR8216_PHY
+       select ETHERNET_PACKET_MANGLE
+       select SWCONFIG
++config RTL8306_PHY
++      tristate "Driver for Realtek RTL8306S switches"
++      select SWCONFIG
++
+ config FIXED_PHY
+       bool "Driver for MDIO Bus/PHY emulation with fixed speed/link PHYs"
+       depends on PHYLIB=y
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -23,6 +23,7 @@ obj-$(CONFIG_MVSWITCH_PHY)   += mvswitch.o
+ obj-$(CONFIG_IP17XX_PHY)      += ip17xx.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
+ obj-$(CONFIG_AR8216_PHY)      += ar8216.o ar8327.o
++obj-$(CONFIG_RTL8306_PHY)     += rtl8306.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
diff --git a/trunk/target/linux/generic/patches-3.18/726-phy_rtl8366.patch b/trunk/target/linux/generic/patches-3.18/726-phy_rtl8366.patch
new file mode 100644 (file)
index 0000000..4a4a4ac
--- /dev/null
@@ -0,0 +1,45 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -250,6 +250,30 @@ config MDIO_BCM_UNIMAC
+         controllers as well as some Broadcom Ethernet switches such as the
+         Starfighter 2 switches.
++config RTL8366_SMI
++      tristate "Driver for the RTL8366 SMI interface"
++      depends on GPIOLIB
++      ---help---
++        This module implements the SMI interface protocol which is used
++        by some RTL8366 ethernet switch devices via the generic GPIO API.
++
++if RTL8366_SMI
++
++config RTL8366_SMI_DEBUG_FS
++      bool "RTL8366 SMI interface debugfs support"
++        depends on DEBUG_FS
++        default n
++
++config RTL8366S_PHY
++      tristate "Driver for the Realtek RTL8366S switch"
++      select SWCONFIG
++
++config RTL8366RB_PHY
++      tristate "Driver for the Realtek RTL8366RB switch"
++      select SWCONFIG
++
++endif # RTL8366_SMI
++
+ endif # PHYLIB
+ config MICREL_KS8995MA
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -24,6 +24,9 @@ obj-$(CONFIG_IP17XX_PHY)     += ip17xx.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
+ obj-$(CONFIG_AR8216_PHY)      += ar8216.o ar8327.o
+ obj-$(CONFIG_RTL8306_PHY)     += rtl8306.o
++obj-$(CONFIG_RTL8366_SMI)     += rtl8366_smi.o
++obj-$(CONFIG_RTL8366S_PHY)    += rtl8366s.o
++obj-$(CONFIG_RTL8366RB_PHY)   += rtl8366rb.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
diff --git a/trunk/target/linux/generic/patches-3.18/727-phy-rtl8367.patch b/trunk/target/linux/generic/patches-3.18/727-phy-rtl8367.patch
new file mode 100644 (file)
index 0000000..8481b58
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -272,6 +272,10 @@ config RTL8366RB_PHY
+       tristate "Driver for the Realtek RTL8366RB switch"
+       select SWCONFIG
++config RTL8367_PHY
++      tristate "Driver for the Realtek RTL8367R/M switches"
++      select SWCONFIG
++
+ endif # RTL8366_SMI
+ endif # PHYLIB
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -27,6 +27,7 @@ obj-$(CONFIG_RTL8306_PHY)    += rtl8306.o
+ obj-$(CONFIG_RTL8366_SMI)     += rtl8366_smi.o
+ obj-$(CONFIG_RTL8366S_PHY)    += rtl8366s.o
+ obj-$(CONFIG_RTL8366RB_PHY)   += rtl8366rb.o
++obj-$(CONFIG_RTL8367_PHY)     += rtl8367.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
diff --git a/trunk/target/linux/generic/patches-3.18/728-phy-rtl8367b.patch b/trunk/target/linux/generic/patches-3.18/728-phy-rtl8367b.patch
new file mode 100644 (file)
index 0000000..958ff58
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -276,6 +276,10 @@ config RTL8367_PHY
+       tristate "Driver for the Realtek RTL8367R/M switches"
+       select SWCONFIG
++config RTL8367B_PHY
++      tristate "Driver fot the Realtek RTL8367R-VB switch"
++      select SWCONFIG
++
+ endif # RTL8366_SMI
+ endif # PHYLIB
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -28,6 +28,7 @@ obj-$(CONFIG_RTL8366_SMI)    += rtl8366_smi
+ obj-$(CONFIG_RTL8366S_PHY)    += rtl8366s.o
+ obj-$(CONFIG_RTL8366RB_PHY)   += rtl8366rb.o
+ obj-$(CONFIG_RTL8367_PHY)     += rtl8367.o
++obj-$(CONFIG_RTL8367B_PHY)    += rtl8367b.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
diff --git a/trunk/target/linux/generic/patches-3.18/729-phy-tantos.patch b/trunk/target/linux/generic/patches-3.18/729-phy-tantos.patch
new file mode 100644 (file)
index 0000000..019f919
--- /dev/null
@@ -0,0 +1,21 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -287,3 +287,8 @@ endif # PHYLIB
+ config MICREL_KS8995MA
+       tristate "Micrel KS8995MA 5-ports 10/100 managed Ethernet switch"
+       depends on SPI
++
++config PSB6970_PHY
++      tristate "Lantiq XWAY Tantos (PSB6970) Ethernet switch"
++      select SWCONFIG
++      select ETHERNET_PACKET_MANGLE
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -30,6 +30,7 @@ obj-$(CONFIG_RTL8366RB_PHY)  += rtl8366rb
+ obj-$(CONFIG_RTL8367_PHY)     += rtl8367.o
+ obj-$(CONFIG_RTL8367B_PHY)    += rtl8367b.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
++obj-$(CONFIG_PSB6970_PHY)     += psb6970.o
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
+ obj-$(CONFIG_MDIO_GPIO)               += mdio-gpio.o
diff --git a/trunk/target/linux/generic/patches-3.18/730-phy_b53.patch b/trunk/target/linux/generic/patches-3.18/730-phy_b53.patch
new file mode 100644 (file)
index 0000000..c2dfcfa
--- /dev/null
@@ -0,0 +1,21 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -282,6 +282,8 @@ config RTL8367B_PHY
+ endif # RTL8366_SMI
++source "drivers/net/phy/b53/Kconfig"
++
+ endif # PHYLIB
+ config MICREL_KS8995MA
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -31,6 +31,7 @@ obj-$(CONFIG_RTL8367_PHY)    += rtl8367.o
+ obj-$(CONFIG_RTL8367B_PHY)    += rtl8367b.o
+ obj-$(CONFIG_LSI_ET1011C_PHY) += et1011c.o
+ obj-$(CONFIG_PSB6970_PHY)     += psb6970.o
++obj-$(CONFIG_B53)             += b53/
+ obj-$(CONFIG_FIXED_PHY)               += fixed.o
+ obj-$(CONFIG_MDIO_BITBANG)    += mdio-bitbang.o
+ obj-$(CONFIG_MDIO_GPIO)               += mdio-gpio.o
diff --git a/trunk/target/linux/generic/patches-3.18/731-phy_mvswitch_3.10_compilation.patch b/trunk/target/linux/generic/patches-3.18/731-phy_mvswitch_3.10_compilation.patch
new file mode 100644 (file)
index 0000000..2053bd2
--- /dev/null
@@ -0,0 +1,35 @@
+From e6a5abb9a02be0bceb4782d9f736bfb4ae217505 Mon Sep 17 00:00:00 2001
+From: Jonas Gorski <jogo@openwrt.org>
+Date: Sat, 21 Sep 2013 13:56:51 +0200
+Subject: [PATCH] phy: mvswitch: fix 3.10 compilation
+
+Update to API changes in 3.10.
+
+Signed-off-by: Jonas Gorsi <jogo@openwrt.org>
+---
+ target/linux/generic/files/drivers/net/phy/mvswitch.c | 6 +++---
+ 1 file changed, 3 insertions(+), 3 deletions(-)
+
+--- a/drivers/net/phy/mvswitch.c
++++ b/drivers/net/phy/mvswitch.c
+@@ -173,7 +173,7 @@ mvswitch_mangle_rx(struct net_device *de
+       if (vlan == -1)
+               return;
+-      __vlan_hwaccel_put_tag(skb, vlan);
++      __vlan_hwaccel_put_tag(skb, htons(ETH_P_8021Q), vlan);
+ }
+@@ -307,9 +307,9 @@ mvswitch_config_init(struct phy_device *
+ #ifdef HEADER_MODE
+       dev->priv_flags |= IFF_NO_IP_ALIGN;
+-      dev->features |= NETIF_F_HW_VLAN_RX | NETIF_F_HW_VLAN_TX;
++      dev->features |= NETIF_F_HW_VLAN_CTAG_RX | NETIF_F_HW_VLAN_CTAG_TX;
+ #else
+-      dev->features |= NETIF_F_HW_VLAN_RX;
++      dev->features |= NETIF_F_HW_VLAN_CTAG_RX;
+ #endif
+       return 0;
diff --git a/trunk/target/linux/generic/patches-3.18/732-phy-ar8216-led-support.patch b/trunk/target/linux/generic/patches-3.18/732-phy-ar8216-led-support.patch
new file mode 100644 (file)
index 0000000..c753967
--- /dev/null
@@ -0,0 +1,13 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -152,6 +152,10 @@ config AR8216_PHY
+       select ETHERNET_PACKET_MANGLE
+       select SWCONFIG
++config AR8216_PHY_LEDS
++      bool "Atheros AR8216 switch LED support"
++      depends on (AR8216_PHY && LEDS_CLASS)
++
+ config RTL8306_PHY
+       tristate "Driver for Realtek RTL8306S switches"
+       select SWCONFIG
diff --git a/trunk/target/linux/generic/patches-3.18/733-phy_mvsw61xx.patch b/trunk/target/linux/generic/patches-3.18/733-phy_mvsw61xx.patch
new file mode 100644 (file)
index 0000000..041d168
--- /dev/null
@@ -0,0 +1,23 @@
+--- a/drivers/net/phy/Kconfig
++++ b/drivers/net/phy/Kconfig
+@@ -143,6 +143,10 @@ config MVSWITCH_PHY
+       tristate "Driver for Marvell 88E6060 switches"
+       select ETHERNET_PACKET_MANGLE
++config MVSW61XX_PHY
++      tristate "Driver for Marvell 88E6171/6172 switches"
++      select SWCONFIG
++
+ config IP17XX_PHY
+       tristate "Driver for IC+ IP17xx switches"
+       select SWCONFIG
+--- a/drivers/net/phy/Makefile
++++ b/drivers/net/phy/Makefile
+@@ -20,6 +20,7 @@ obj-$(CONFIG_BCM87XX_PHY)    += bcm87xx.o
+ obj-$(CONFIG_ICPLUS_PHY)      += icplus.o
+ obj-$(CONFIG_ADM6996_PHY)     += adm6996.o
+ obj-$(CONFIG_MVSWITCH_PHY)    += mvswitch.o
++obj-$(CONFIG_MVSW61XX_PHY)    += mvsw61xx.o
+ obj-$(CONFIG_IP17XX_PHY)      += ip17xx.o
+ obj-$(CONFIG_REALTEK_PHY)     += realtek.o
+ obj-$(CONFIG_AR8216_PHY)      += ar8216.o ar8327.o
diff --git a/trunk/target/linux/generic/patches-3.18/750-hostap_txpower.patch b/trunk/target/linux/generic/patches-3.18/750-hostap_txpower.patch
new file mode 100644 (file)
index 0000000..fc032a9
--- /dev/null
@@ -0,0 +1,154 @@
+--- a/drivers/net/wireless/hostap/hostap_ap.c
++++ b/drivers/net/wireless/hostap/hostap_ap.c
+@@ -2403,13 +2403,13 @@ int prism2_ap_get_sta_qual(local_info_t 
+               addr[count].sa_family = ARPHRD_ETHER;
+               memcpy(addr[count].sa_data, sta->addr, ETH_ALEN);
+               if (sta->last_rx_silence == 0)
+-                      qual[count].qual = sta->last_rx_signal < 27 ?
+-                              0 : (sta->last_rx_signal - 27) * 92 / 127;
++                        qual[count].qual = (sta->last_rx_signal - 156) == 0 ?
++                                0 : (sta->last_rx_signal - 156) * 92 / 64;
+               else
+-                      qual[count].qual = sta->last_rx_signal -
+-                              sta->last_rx_silence - 35;
+-              qual[count].level = HFA384X_LEVEL_TO_dBm(sta->last_rx_signal);
+-              qual[count].noise = HFA384X_LEVEL_TO_dBm(sta->last_rx_silence);
++                        qual[count].qual = (sta->last_rx_signal -
++                                sta->last_rx_silence) * 92 / 64;
++                qual[count].level = sta->last_rx_signal;
++                qual[count].noise = sta->last_rx_silence;
+               qual[count].updated = sta->last_rx_updated;
+               sta->last_rx_updated = IW_QUAL_DBM;
+@@ -2475,13 +2475,13 @@ int prism2_ap_translate_scan(struct net_
+               memset(&iwe, 0, sizeof(iwe));
+               iwe.cmd = IWEVQUAL;
+               if (sta->last_rx_silence == 0)
+-                      iwe.u.qual.qual = sta->last_rx_signal < 27 ?
+-                              0 : (sta->last_rx_signal - 27) * 92 / 127;
++                      iwe.u.qual.qual = (sta->last_rx_signal -156) == 0 ?
++                              0 : (sta->last_rx_signal - 156) * 92 / 64;
+               else
+-                      iwe.u.qual.qual = sta->last_rx_signal -
+-                              sta->last_rx_silence - 35;
+-              iwe.u.qual.level = HFA384X_LEVEL_TO_dBm(sta->last_rx_signal);
+-              iwe.u.qual.noise = HFA384X_LEVEL_TO_dBm(sta->last_rx_silence);
++                        iwe.u.qual.qual = (sta->last_rx_signal -
++                                sta->last_rx_silence) * 92 / 64;
++                iwe.u.qual.level = sta->last_rx_signal;
++                iwe.u.qual.noise = sta->last_rx_silence;
+               iwe.u.qual.updated = sta->last_rx_updated;
+               iwe.len = IW_EV_QUAL_LEN;
+               current_ev = iwe_stream_add_event(info, current_ev, end_buf,
+--- a/drivers/net/wireless/hostap/hostap_config.h
++++ b/drivers/net/wireless/hostap/hostap_config.h
+@@ -45,4 +45,9 @@
+  */
+ /* #define PRISM2_NO_STATION_MODES */
++/* Enable TX power Setting functions
++ * (min att = -128 , max att =  127)
++ */
++#define RAW_TXPOWER_SETTING
++
+ #endif /* HOSTAP_CONFIG_H */
+--- a/drivers/net/wireless/hostap/hostap.h
++++ b/drivers/net/wireless/hostap/hostap.h
+@@ -90,6 +90,7 @@ extern const struct iw_handler_def hosta
+ extern const struct ethtool_ops prism2_ethtool_ops;
+ int hostap_ioctl(struct net_device *dev, struct ifreq *ifr, int cmd);
++int hostap_restore_power(struct net_device *dev);
+ #endif /* HOSTAP_H */
+--- a/drivers/net/wireless/hostap/hostap_hw.c
++++ b/drivers/net/wireless/hostap/hostap_hw.c
+@@ -928,6 +928,7 @@ static int hfa384x_set_rid(struct net_de
+                       prism2_hw_reset(dev);
+       }
++      hostap_restore_power(dev);
+       return res;
+ }
+--- a/drivers/net/wireless/hostap/hostap_info.c
++++ b/drivers/net/wireless/hostap/hostap_info.c
+@@ -435,6 +435,11 @@ static void handle_info_queue_linkstatus
+       }
+       /* Get BSSID if we have a valid AP address */
++
++      if ( val == HFA384X_LINKSTATUS_CONNECTED ||
++           val == HFA384X_LINKSTATUS_DISCONNECTED )
++                      hostap_restore_power(local->dev);
++
+       if (connected) {
+               netif_carrier_on(local->dev);
+               netif_carrier_on(local->ddev);
+--- a/drivers/net/wireless/hostap/hostap_ioctl.c
++++ b/drivers/net/wireless/hostap/hostap_ioctl.c
+@@ -1479,23 +1479,20 @@ static int prism2_txpower_hfa386x_to_dBm
+               val = 255;
+       tmp = val;
+-      tmp >>= 2;
+-      return -12 - tmp;
++      return tmp;
+ }
+ static u16 prism2_txpower_dBm_to_hfa386x(int val)
+ {
+       signed char tmp;
+-      if (val > 20)
+-              return 128;
+-      else if (val < -43)
++      if (val > 127)
+               return 127;
++      else if (val < -128)
++              return 128;
+       tmp = val;
+-      tmp = -12 - tmp;
+-      tmp <<= 2;
+       return (unsigned char) tmp;
+ }
+@@ -4052,3 +4049,35 @@ int hostap_ioctl(struct net_device *dev,
+       return ret;
+ }
++
++/* BUG FIX: Restore power setting value when lost due to F/W bug */
++
++int hostap_restore_power(struct net_device *dev)
++{
++        struct hostap_interface *iface = netdev_priv(dev);
++       local_info_t *local = iface->local;
++
++       u16 val;
++       int ret = 0;
++
++       if (local->txpower_type == PRISM2_TXPOWER_OFF) {
++                       val = 0xff; /* use all standby and sleep modes */
++                       ret = local->func->cmd(dev, HFA384X_CMDCODE_WRITEMIF,
++                                              HFA386X_CR_A_D_TEST_MODES2,
++                                              &val, NULL);
++       }
++
++#ifdef RAW_TXPOWER_SETTING
++       if (local->txpower_type == PRISM2_TXPOWER_FIXED) {
++               val = HFA384X_TEST_CFG_BIT_ALC;
++               local->func->cmd(dev, HFA384X_CMDCODE_TEST |
++                                (HFA384X_TEST_CFG_BITS << 8), 0, &val, NULL);
++               val = prism2_txpower_dBm_to_hfa386x(local->txpower);
++               ret = (local->func->cmd(dev, HFA384X_CMDCODE_WRITEMIF,
++                            HFA386X_CR_MANUAL_TX_POWER, &val, NULL));
++       }
++#endif /* RAW_TXPOWER_SETTING */
++       return (ret ? -EOPNOTSUPP : 0);
++}
++
++EXPORT_SYMBOL(hostap_restore_power);
diff --git a/trunk/target/linux/generic/patches-3.18/773-bgmac-add-srab-switch.patch b/trunk/target/linux/generic/patches-3.18/773-bgmac-add-srab-switch.patch
new file mode 100644 (file)
index 0000000..3b2751f
--- /dev/null
@@ -0,0 +1,72 @@
+Register switch connected to srab
+
+Signed-off-by: Hauke Mehrtens <hauke@hauke-m.de>
+
+--- a/drivers/net/ethernet/broadcom/bgmac.c
++++ b/drivers/net/ethernet/broadcom/bgmac.c
+@@ -17,6 +17,7 @@
+ #include <linux/phy_fixed.h>
+ #include <linux/interrupt.h>
+ #include <linux/dma-mapping.h>
++#include <linux/platform_data/b53.h>
+ #include <bcm47xx_nvram.h>
+ static const struct bcma_device_id bgmac_bcma_tbl[] = {
+@@ -1538,6 +1539,17 @@ static void bgmac_mii_unregister(struct 
+       mdiobus_free(mii_bus);
+ }
++static struct b53_platform_data bgmac_b53_pdata = {
++};
++
++static struct platform_device bgmac_b53_dev = {
++      .name           = "b53-srab-switch",
++      .id             = -1,
++      .dev            = {
++              .platform_data = &bgmac_b53_pdata,
++      },
++};
++
+ /**************************************************
+  * BCMA bus ops
+  **************************************************/
+@@ -1664,6 +1676,16 @@ static int bgmac_probe(struct bcma_devic
+       net_dev->hw_features = net_dev->features;
+       net_dev->vlan_features = net_dev->features;
++      if ((ci->id == BCMA_CHIP_ID_BCM4707 ||
++           ci->id == BCMA_CHIP_ID_BCM53018) &&
++          !bgmac_b53_pdata.regs) {
++              bgmac_b53_pdata.regs = ioremap_nocache(0x18007000, 0x1000);
++
++              err = platform_device_register(&bgmac_b53_dev);
++              if (!err)
++                      bgmac->b53_device = &bgmac_b53_dev;
++      }
++
+       err = register_netdev(bgmac->net_dev);
+       if (err) {
+               bgmac_err(bgmac, "Cannot register net device\n");
+@@ -1690,6 +1712,10 @@ static void bgmac_remove(struct bcma_dev
+ {
+       struct bgmac *bgmac = bcma_get_drvdata(core);
++      if (bgmac->b53_device)
++              platform_device_unregister(&bgmac_b53_dev);
++      bgmac->b53_device = NULL;
++
+       unregister_netdev(bgmac->net_dev);
+       bgmac_mii_unregister(bgmac);
+       netif_napi_del(&bgmac->napi);
+--- a/drivers/net/ethernet/broadcom/bgmac.h
++++ b/drivers/net/ethernet/broadcom/bgmac.h
+@@ -462,6 +462,9 @@ struct bgmac {
+       bool has_robosw;
+       bool loopback;
++
++      /* platform device for associated switch */
++      struct platform_device *b53_device;
+ };
+ static inline u32 bgmac_read(struct bgmac *bgmac, u16 offset)
diff --git a/trunk/target/linux/generic/patches-3.18/780-igb-Fix-Null-pointer-dereference-in-igb_reset_q_vect.patch b/trunk/target/linux/generic/patches-3.18/780-igb-Fix-Null-pointer-dereference-in-igb_reset_q_vect.patch
new file mode 100644 (file)
index 0000000..e541b2c
--- /dev/null
@@ -0,0 +1,40 @@
+From cb06d102327eadcd1bdc480bfd9f8876251d1007 Mon Sep 17 00:00:00 2001
+From: Christoph Paasch <christoph.paasch@uclouvain.be>
+Date: Fri, 21 Mar 2014 03:48:19 -0700
+Subject: [PATCH] igb: Fix Null-pointer dereference in igb_reset_q_vector
+
+When igb_set_interrupt_capability() calls
+igb_reset_interrupt_capability() (e.g., because CONFIG_PCI_MSI is unset),
+num_q_vectors has been set but no vector has yet been allocated.
+
+igb_reset_interrupt_capability() will then call igb_reset_q_vector,
+which assumes that the vector is allocated. As this is not the case, we
+are accessing a NULL-pointer.
+
+This patch fixes it by checking that q_vector is indeed different from
+NULL.
+
+Fixes: 02ef6e1d0b0023 (igb: Fix queue allocation method to accommodate changing during runtime)
+Cc: Carolyn Wyborny <carolyn.wyborny@intel.com>
+Signed-off-by: Christoph Paasch <christoph.paasch@uclouvain.be>
+Tested-by: Jeff Pieper <jeffrey.e.pieper@intel.com>
+Signed-off-by: Jeff Kirsher <jeffrey.t.kirsher@intel.com>
+---
+ drivers/net/ethernet/intel/igb/igb_main.c | 6 ++++++
+ 1 file changed, 6 insertions(+)
+
+--- a/drivers/net/ethernet/intel/igb/igb_main.c
++++ b/drivers/net/ethernet/intel/igb/igb_main.c
+@@ -1034,6 +1034,12 @@ static void igb_reset_q_vector(struct ig
+       if (!q_vector)
+               return;
++      /* Coming from igb_set_interrupt_capability, the vectors are not yet
++       * allocated. So, q_vector is NULL so we should stop here.
++       */
++      if (!q_vector)
++              return;
++
+       if (q_vector->tx.ring)
+               adapter->tx_ring[q_vector->tx.ring->queue_index] = NULL;
diff --git a/trunk/target/linux/generic/patches-3.18/785-hso-support-0af0-9300.patch b/trunk/target/linux/generic/patches-3.18/785-hso-support-0af0-9300.patch
new file mode 100644 (file)
index 0000000..7938135
--- /dev/null
@@ -0,0 +1,25 @@
+--- a/drivers/net/usb/hso.c
++++ b/drivers/net/usb/hso.c
+@@ -468,6 +468,7 @@ static const struct usb_device_id hso_id
+       {USB_DEVICE(0x0af0, 0x8900)},
+       {USB_DEVICE(0x0af0, 0x9000)},
+       {USB_DEVICE(0x0af0, 0x9200)},           /* Option GTM671WFS */
++      {USB_DEVICE(0x0af0, 0x9300)},           /* GTM 66xxWFS */
+       {USB_DEVICE(0x0af0, 0xd035)},
+       {USB_DEVICE(0x0af0, 0xd055)},
+       {USB_DEVICE(0x0af0, 0xd155)},
+--- a/drivers/usb/storage/unusual_devs.h
++++ b/drivers/usb/storage/unusual_devs.h
+@@ -1323,6 +1323,12 @@ UNUSUAL_DEV( 0x0af0, 0x8304, 0x0000, 0x0
+               USB_SC_DEVICE, USB_PR_DEVICE, NULL,
+               0 ),
++UNUSUAL_DEV( 0x0af0, 0x9300, 0x0000, 0x0000,
++              "Option",
++              "Globetrotter 66xxWFS SD-Card",
++              USB_SC_DEVICE, USB_PR_DEVICE, NULL,
++              0 ),
++
+ UNUSUAL_DEV( 0x0af0, 0xc100, 0x0000, 0x0000,
+               "Option",
+               "GI 070x SD-Card",
diff --git a/trunk/target/linux/generic/patches-3.18/810-pci_disable_common_quirks.patch b/trunk/target/linux/generic/patches-3.18/810-pci_disable_common_quirks.patch
new file mode 100644 (file)
index 0000000..f6639f1
--- /dev/null
@@ -0,0 +1,51 @@
+--- a/drivers/pci/Kconfig
++++ b/drivers/pci/Kconfig
+@@ -58,6 +58,12 @@ config XEN_PCIDEV_FRONTEND
+           The PCI device frontend driver allows the kernel to import arbitrary
+           PCI devices from a PCI backend to support PCI driver domains.
++config PCI_DISABLE_COMMON_QUIRKS
++      bool "PCI disable common quirks"
++      depends on PCI
++      help
++        If you don't know what to do here, say N.
++
+ config HT_IRQ
+       bool "Interrupts on hypertransport devices"
+       default y
+--- a/drivers/pci/quirks.c
++++ b/drivers/pci/quirks.c
+@@ -41,6 +41,7 @@ static void quirk_mmio_always_on(struct 
+ DECLARE_PCI_FIXUP_CLASS_EARLY(PCI_ANY_ID, PCI_ANY_ID,
+                               PCI_CLASS_BRIDGE_HOST, 8, quirk_mmio_always_on);
++#ifndef CONFIG_PCI_DISABLE_COMMON_QUIRKS
+ /* The Mellanox Tavor device gives false positive parity errors
+  * Mark this device with a broken_parity_status, to allow
+  * PCI scanning code to "skip" this now blacklisted device.
+@@ -2905,6 +2906,7 @@ DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_I
+ DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_INTEL, 0x65f9, quirk_intel_mc_errata);
+ DECLARE_PCI_FIXUP_HEADER(PCI_VENDOR_ID_INTEL, 0x65fa, quirk_intel_mc_errata);
++#endif /* !CONFIG_PCI_DISABLE_COMMON_QUIRKS */
+ /*
+  * Ivytown NTB BAR sizes are misreported by the hardware due to an erratum.  To
+@@ -2961,6 +2963,8 @@ static void fixup_debug_report(struct pc
+       }
+ }
++#ifndef CONFIG_PCI_DISABLE_COMMON_QUIRKS
++
+ /*
+  * Some BIOS implementations leave the Intel GPU interrupts enabled,
+  * even though no one is handling them (f.e. i915 driver is never loaded).
+@@ -2995,6 +2999,8 @@ DECLARE_PCI_FIXUP_FINAL(PCI_VENDOR_ID_IN
+ DECLARE_PCI_FIXUP_FINAL(PCI_VENDOR_ID_INTEL, 0x010a, disable_igfx_irq);
+ DECLARE_PCI_FIXUP_FINAL(PCI_VENDOR_ID_INTEL, 0x0152, disable_igfx_irq);
++#endif /* !CONFIG_PCI_DISABLE_COMMON_QUIRKS */
++
+ /*
+  * PCI devices which are on Intel chips can skip the 10ms delay
+  * before entering D3 mode.
diff --git a/trunk/target/linux/generic/patches-3.18/811-pci_disable_usb_common_quirks.patch b/trunk/target/linux/generic/patches-3.18/811-pci_disable_usb_common_quirks.patch
new file mode 100644 (file)
index 0000000..b54d150
--- /dev/null
@@ -0,0 +1,101 @@
+
+--- a/drivers/usb/host/pci-quirks.c
++++ b/drivers/usb/host/pci-quirks.c
+@@ -97,6 +97,8 @@ struct amd_chipset_type {
+       u8 rev;
+ };
++#ifndef CONFIG_PCI_DISABLE_COMMON_QUIRKS
++
+ static struct amd_chipset_info {
+       struct pci_dev  *nb_dev;
+       struct pci_dev  *smbus_dev;
+@@ -454,6 +456,10 @@ void usb_amd_dev_put(void)
+ }
+ EXPORT_SYMBOL_GPL(usb_amd_dev_put);
++#endif /* CONFIG_PCI_DISABLE_COMMON_QUIRKS */
++
++#if IS_ENABLED(CONFIG_USB_UHCI_HCD)
++
+ /*
+  * Make sure the controller is completely inactive, unable to
+  * generate interrupts or do DMA.
+@@ -533,8 +539,17 @@ reset_needed:
+       uhci_reset_hc(pdev, base);
+       return 1;
+ }
++#else
++int uhci_check_and_reset_hc(struct pci_dev *pdev, unsigned long base)
++{
++      return 0;
++}
++
++#endif
+ EXPORT_SYMBOL_GPL(uhci_check_and_reset_hc);
++#ifndef CONFIG_PCI_DISABLE_COMMON_QUIRKS
++
+ static inline int io_type_enabled(struct pci_dev *pdev, unsigned int mask)
+ {
+       u16 cmd;
+@@ -1095,3 +1110,4 @@ static void quirk_usb_early_handoff(stru
+ }
+ DECLARE_PCI_FIXUP_CLASS_FINAL(PCI_ANY_ID, PCI_ANY_ID,
+                       PCI_CLASS_SERIAL_USB, 8, quirk_usb_early_handoff);
++#endif
+--- a/drivers/usb/host/pci-quirks.h
++++ b/drivers/usb/host/pci-quirks.h
+@@ -4,6 +4,9 @@
+ #ifdef CONFIG_PCI
+ void uhci_reset_hc(struct pci_dev *pdev, unsigned long base);
+ int uhci_check_and_reset_hc(struct pci_dev *pdev, unsigned long base);
++#endif  /* CONFIG_PCI */
++
++#if defined(CONFIG_PCI) && !defined(CONFIG_PCI_DISABLE_COMMON_QUIRKS)
+ int usb_amd_find_chipset_info(void);
+ int usb_hcd_amd_remote_wakeup_quirk(struct pci_dev *pdev);
+ bool usb_amd_hang_symptom_quirk(void);
+@@ -16,11 +19,24 @@ void usb_disable_xhci_ports(struct pci_d
+ void sb800_prefetch(struct device *dev, int on);
+ #else
+ struct pci_dev;
++static inline int usb_amd_find_chipset_info(void)
++{
++      return 0;
++}
++static inline bool usb_amd_hang_symptom_quirk(void)
++{
++      return false;
++}
++static inline bool usb_amd_prefetch_quirk(void)
++{
++      return false;
++}
+ static inline void usb_amd_quirk_pll_disable(void) {}
+ static inline void usb_amd_quirk_pll_enable(void) {}
+ static inline void usb_amd_dev_put(void) {}
+ static inline void usb_disable_xhci_ports(struct pci_dev *xhci_pdev) {}
+ static inline void sb800_prefetch(struct device *dev, int on) {}
+-#endif  /* CONFIG_PCI */
++static inline void usb_enable_intel_xhci_ports(struct pci_dev *xhci_pdev) {}
++#endif
+ #endif  /*  __LINUX_USB_PCI_QUIRKS_H  */
+--- a/include/linux/usb/hcd.h
++++ b/include/linux/usb/hcd.h
+@@ -444,7 +444,14 @@ extern int usb_hcd_pci_probe(struct pci_
+ extern void usb_hcd_pci_remove(struct pci_dev *dev);
+ extern void usb_hcd_pci_shutdown(struct pci_dev *dev);
++#ifndef CONFIG_PCI_DISABLE_COMMON_QUIRKS
+ extern int usb_hcd_amd_remote_wakeup_quirk(struct pci_dev *dev);
++#else
++static inline int usb_hcd_amd_remote_wakeup_quirk(struct pci_dev *dev)
++{
++      return 0;
++}
++#endif
+ #ifdef CONFIG_PM
+ extern const struct dev_pm_ops usb_hcd_pci_pm_ops;
diff --git a/trunk/target/linux/generic/patches-3.18/820-usb_add_usb_find_device_by_name.patch b/trunk/target/linux/generic/patches-3.18/820-usb_add_usb_find_device_by_name.patch
new file mode 100644 (file)
index 0000000..a2f5262
--- /dev/null
@@ -0,0 +1,84 @@
+--- a/drivers/usb/core/usb.c
++++ b/drivers/usb/core/usb.c
+@@ -690,6 +690,71 @@ int __usb_get_extra_descriptor(char *buf
+ }
+ EXPORT_SYMBOL_GPL(__usb_get_extra_descriptor);
++static struct usb_device *match_device_name(struct usb_device *dev,
++                                          const char *name)
++{
++      struct usb_device *ret_dev = NULL;
++      struct usb_device *childdev = NULL;
++      int child;
++
++      dev_dbg(&dev->dev, "check for name %s ...\n", name);
++
++      /* see if this device matches */
++      if (strcmp(dev_name(&dev->dev), name) == 0 ) {
++              dev_dbg(&dev->dev, "matched this device!\n");
++              ret_dev = usb_get_dev(dev);
++              goto exit;
++      }
++      /* look through all of the children of this device */
++      usb_hub_for_each_child(dev, child, childdev) {
++              if (childdev) {
++                      usb_lock_device(childdev);
++                      ret_dev = match_device_name(childdev, name);
++                      usb_unlock_device(childdev);
++                      if (ret_dev)
++                              goto exit;
++              }
++      }
++exit:
++      return ret_dev;
++}
++
++/**
++ * usb_find_device_by_name - find a specific usb device in the system
++ * @name: the name of the device to find
++ *
++ * Returns a pointer to a struct usb_device if such a specified usb
++ * device is present in the system currently.  The usage count of the
++ * device will be incremented if a device is found.  Make sure to call
++ * usb_put_dev() when the caller is finished with the device.
++ *
++ * If a device with the specified bus id is not found, NULL is returned.
++ */
++struct usb_device *usb_find_device_by_name(const char *name)
++{
++      struct list_head *buslist;
++      struct usb_bus *bus;
++      struct usb_device *dev = NULL;
++
++      mutex_lock(&usb_bus_list_lock);
++      for (buslist = usb_bus_list.next;
++           buslist != &usb_bus_list;
++           buslist = buslist->next) {
++              bus = container_of(buslist, struct usb_bus, bus_list);
++              if (!bus->root_hub)
++                      continue;
++              usb_lock_device(bus->root_hub);
++              dev = match_device_name(bus->root_hub, name);
++              usb_unlock_device(bus->root_hub);
++              if (dev)
++                      goto exit;
++      }
++exit:
++      mutex_unlock(&usb_bus_list_lock);
++      return dev;
++}
++EXPORT_SYMBOL_GPL(usb_find_device_by_name);
++
+ /**
+  * usb_alloc_coherent - allocate dma-consistent buffer for URB_NO_xxx_DMA_MAP
+  * @dev: device the buffer will be used with
+--- a/include/linux/usb.h
++++ b/include/linux/usb.h
+@@ -695,6 +695,7 @@ static inline bool usb_device_no_sg_cons
+       return udev && udev->bus && udev->bus->no_sg_constraint;
+ }
++extern struct usb_device *usb_find_device_by_name(const char *name);
+ /*-------------------------------------------------------------------------*/
diff --git a/trunk/target/linux/generic/patches-3.18/821-usb-dwc2-dualrole.patch b/trunk/target/linux/generic/patches-3.18/821-usb-dwc2-dualrole.patch
new file mode 100644 (file)
index 0000000..71a0cb2
--- /dev/null
@@ -0,0 +1,146 @@
+--- a/drivers/usb/dwc2/Kconfig
++++ b/drivers/usb/dwc2/Kconfig
+@@ -1,6 +1,6 @@
+ config USB_DWC2
+-      bool "DesignWare USB2 DRD Core Support"
+-      depends on USB
++      tristate "DesignWare USB2 DRD Core Support"
++      depends on USB || USB_GADGET
+       help
+         Say Y here if your system has a Dual Role Hi-Speed USB
+         controller based on the DesignWare HSOTG IP Core.
+@@ -10,49 +10,61 @@ config USB_DWC2
+         bus interface module (if you have a PCI bus system) will be
+         called dwc2_pci.ko, and the platform interface module (for
+         controllers directly connected to the CPU) will be called
+-        dwc2_platform.ko. For gadget mode, there will be a single
+-        module called dwc2_gadget.ko.
+-
+-        NOTE: The s3c-hsotg driver is now renamed to dwc2_gadget. The
+-        host and gadget drivers are still currently separate drivers.
+-        There are plans to merge the dwc2_gadget driver with the dwc2
+-        host driver in the near future to create a dual-role driver.
++        dwc2_platform.ko. For all modes(host, gadget and dual-role), there
++        will be an additional module named dwc2.ko.
+ if USB_DWC2
++choice
++      bool "DWC2 Mode Selection"
++      default USB_DWC2_DUAL_ROLE if (USB && USB_GADGET)
++      default USB_DWC2_HOST if (USB && !USB_GADGET)
++      default USB_DWC2_PERIPHERAL if (!USB && USB_GADGET)
++
+ config USB_DWC2_HOST
+-      tristate "Host only mode"
++      bool "Host only mode"
+       depends on USB
+       help
+         The Designware USB2.0 high-speed host controller
+-        integrated into many SoCs.
++        integrated into many SoCs. Select this option if you want the
++        driver to operate in Host-only mode.
+-config USB_DWC2_PLATFORM
+-      bool "DWC2 Platform"
+-      depends on USB_DWC2_HOST
+-      default USB_DWC2_HOST
++comment "Gadget/Dual-role mode requires USB Gadget support to be enabled"
++
++config USB_DWC2_PERIPHERAL
++      bool "Gadget only mode"
++      depends on USB_GADGET=y || USB_GADGET=USB_DWC2
+       help
+-        The Designware USB2.0 platform interface module for
+-        controllers directly connected to the CPU. This is only
+-        used for host mode.
++        The Designware USB2.0 high-speed gadget controller
++        integrated into many SoCs. Select this option if you want the
++        driver to operate in Peripheral-only mode. This option requires
++        USB_GADGET to be enabled.
++
++config USB_DWC2_DUAL_ROLE
++      bool "Dual Role mode"
++      depends on (USB=y || USB=USB_DWC2) && (USB_GADGET=y || USB_GADGET=USB_DWC2)
++      help
++        Select this option if you want the driver to work in a dual-role
++        mode. In this mode both host and gadget features are enabled, and
++        the role will be determined by the cable that gets plugged-in. This
++        option requires USB_GADGET to be enabled.
++endchoice
++
++config USB_DWC2_PLATFORM
++      tristate "DWC2 Platform"
++      default USB_DWC2_HOST || USB_DWC2_PERIPHERAL
++        help
++          The Designware USB2.0 platform interface module for
++          controllers directly connected to the CPU.
+ config USB_DWC2_PCI
+-      bool "DWC2 PCI"
++      tristate "DWC2 PCI"
+       depends on USB_DWC2_HOST && PCI
+       default USB_DWC2_HOST
+       help
+         The Designware USB2.0 PCI interface module for controllers
+         connected to a PCI bus. This is only used for host mode.
+-comment "Gadget mode requires USB Gadget support to be enabled"
+-
+-config USB_DWC2_PERIPHERAL
+-      tristate "Gadget only mode"
+-      depends on USB_GADGET
+-      help
+-        The Designware USB2.0 high-speed gadget controller
+-        integrated into many SoCs.
+-
+ config USB_DWC2_DEBUG
+       bool "Enable Debugging Messages"
+       help
+--- a/drivers/usb/dwc2/Makefile
++++ b/drivers/usb/dwc2/Makefile
+@@ -1,28 +1,28 @@
+ ccflags-$(CONFIG_USB_DWC2_DEBUG)      += -DDEBUG
+ ccflags-$(CONFIG_USB_DWC2_VERBOSE)    += -DVERBOSE_DEBUG
+-obj-$(CONFIG_USB_DWC2_HOST)           += dwc2.o
++obj-$(CONFIG_USB_DWC2)                        += dwc2.o
+ dwc2-y                                        := core.o core_intr.o
+-dwc2-y                                        += hcd.o hcd_intr.o
+-dwc2-y                                        += hcd_queue.o hcd_ddma.o
++
++ifneq ($(filter y,$(CONFIG_USB_DWC2_HOST) $(CONFIG_USB_DWC2_DUAL_ROLE)),)
++      dwc2-y                          += hcd.o hcd_intr.o
++      dwc2-y                          += hcd_queue.o hcd_ddma.o
++endif
++
++ifneq ($(filter y,$(CONFIG_USB_DWC2_PERIPHERAL) $(CONFIG_USB_DWC2_DUAL_ROLE)),)
++      dwc2-y                          += gadget.o
++endif
+ # NOTE: The previous s3c-hsotg peripheral mode only driver has been moved to
+ # this location and renamed gadget.c. When building for dynamically linked
+-# modules, dwc2_gadget.ko will get built for peripheral mode. For host mode,
+-# the core module will be dwc2.ko, the PCI bus interface module will called
+-# dwc2_pci.ko and the platform interface module will be called dwc2_platform.ko.
+-# At present the host and gadget driver will be separate drivers, but there
+-# are plans in the near future to create a dual-role driver.
++# modules, dwc2.ko will get built for host mode, peripheral mode, and dual-role
++# mode. The PCI bus interface module will called dwc2_pci.ko and the platform
++# interface module will be called dwc2_platform.ko.
+ ifneq ($(CONFIG_USB_DWC2_PCI),)
+-      obj-$(CONFIG_USB_DWC2_HOST)     += dwc2_pci.o
++      obj-$(CONFIG_USB_DWC2)          += dwc2_pci.o
+       dwc2_pci-y                      := pci.o
+ endif
+-ifneq ($(CONFIG_USB_DWC2_PLATFORM),)
+-      obj-$(CONFIG_USB_DWC2_HOST)     += dwc2_platform.o
+-      dwc2_platform-y                 := platform.o
+-endif
+-
+-obj-$(CONFIG_USB_DWC2_PERIPHERAL)     += dwc2_gadget.o
+-dwc2_gadget-y                         := gadget.o
++obj-$(CONFIG_USB_DWC2_PLATFORM)               += dwc2_platform.o
++dwc2_platform-y                               := platform.o
diff --git a/trunk/target/linux/generic/patches-3.18/830-ledtrig_morse.patch b/trunk/target/linux/generic/patches-3.18/830-ledtrig_morse.patch
new file mode 100644 (file)
index 0000000..a41facc
--- /dev/null
@@ -0,0 +1,28 @@
+--- a/drivers/leds/trigger/Kconfig
++++ b/drivers/leds/trigger/Kconfig
+@@ -108,4 +108,8 @@ config LEDS_TRIGGER_CAMERA
+         This enables direct flash/torch on/off by the driver, kernel space.
+         If unsure, say Y.
++config LEDS_TRIGGER_MORSE
++      tristate "LED Morse Trigger"
++      depends on LEDS_TRIGGERS
++
+ endif # LEDS_TRIGGERS
+--- a/drivers/leds/Makefile
++++ b/drivers/leds/Makefile
+@@ -62,3 +62,4 @@ obj-$(CONFIG_LEDS_DAC124S085)                += leds-d
+ # LED Triggers
+ obj-$(CONFIG_LEDS_TRIGGERS)           += trigger/
++obj-$(CONFIG_LEDS_TRIGGER_MORSE)      += ledtrig-morse.o
+--- a/drivers/leds/ledtrig-morse.c
++++ b/drivers/leds/ledtrig-morse.c
+@@ -26,7 +26,6 @@
+ #include <linux/list.h>
+ #include <linux/spinlock.h>
+ #include <linux/device.h>
+-#include <linux/sysdev.h>
+ #include <linux/timer.h>
+ #include <linux/ctype.h>
+ #include <linux/leds.h>
diff --git a/trunk/target/linux/generic/patches-3.18/831-ledtrig_netdev.patch b/trunk/target/linux/generic/patches-3.18/831-ledtrig_netdev.patch
new file mode 100644 (file)
index 0000000..3f39fb6
--- /dev/null
@@ -0,0 +1,60 @@
+--- a/drivers/leds/trigger/Kconfig
++++ b/drivers/leds/trigger/Kconfig
+@@ -112,4 +112,11 @@ config LEDS_TRIGGER_MORSE
+       tristate "LED Morse Trigger"
+       depends on LEDS_TRIGGERS
++config LEDS_TRIGGER_NETDEV
++      tristate "LED Netdev Trigger"
++      depends on NET && LEDS_TRIGGERS
++      help
++        This allows LEDs to be controlled by network device activity.
++        If unsure, say Y.
++
+ endif # LEDS_TRIGGERS
+--- a/drivers/leds/Makefile
++++ b/drivers/leds/Makefile
+@@ -63,3 +63,4 @@ obj-$(CONFIG_LEDS_DAC124S085)                += leds-d
+ # LED Triggers
+ obj-$(CONFIG_LEDS_TRIGGERS)           += trigger/
+ obj-$(CONFIG_LEDS_TRIGGER_MORSE)      += ledtrig-morse.o
++obj-$(CONFIG_LEDS_TRIGGER_NETDEV)     += ledtrig-netdev.o
+--- a/drivers/leds/ledtrig-netdev.c
++++ b/drivers/leds/ledtrig-netdev.c
+@@ -22,7 +22,6 @@
+ #include <linux/list.h>
+ #include <linux/spinlock.h>
+ #include <linux/device.h>
+-#include <linux/sysdev.h>
+ #include <linux/netdevice.h>
+ #include <linux/timer.h>
+ #include <linux/ctype.h>
+@@ -254,7 +253,7 @@ static int netdev_trig_notify(struct not
+                             unsigned long evt,
+                             void *dv)
+ {
+-      struct net_device *dev = dv;
++      struct net_device *dev = netdev_notifier_info_to_dev((struct netdev_notifier_info *) dv);
+       struct led_netdev_data *trigger_data = container_of(nb, struct led_netdev_data, notifier);
+       if (evt != NETDEV_UP && evt != NETDEV_DOWN && evt != NETDEV_CHANGE && evt != NETDEV_REGISTER && evt != NETDEV_UNREGISTER)
+@@ -294,8 +293,9 @@ done:
+ static void netdev_trig_timer(unsigned long arg)
+ {
+       struct led_netdev_data *trigger_data = (struct led_netdev_data *)arg;
+-      const struct net_device_stats *dev_stats;
++      struct rtnl_link_stats64 *dev_stats;
+       unsigned new_activity;
++      struct rtnl_link_stats64 temp;
+       write_lock(&trigger_data->lock);
+@@ -305,7 +305,7 @@ static void netdev_trig_timer(unsigned l
+               goto no_restart;
+       }
+-      dev_stats = dev_get_stats(trigger_data->net_dev);
++      dev_stats = dev_get_stats(trigger_data->net_dev, &temp);
+       new_activity =
+               ((trigger_data->mode & MODE_TX) ? dev_stats->tx_packets : 0) +
+               ((trigger_data->mode & MODE_RX) ? dev_stats->rx_packets : 0);
diff --git a/trunk/target/linux/generic/patches-3.18/832-ledtrig_usbdev.patch b/trunk/target/linux/generic/patches-3.18/832-ledtrig_usbdev.patch
new file mode 100644 (file)
index 0000000..d8c9492
--- /dev/null
@@ -0,0 +1,31 @@
+--- a/drivers/leds/trigger/Kconfig
++++ b/drivers/leds/trigger/Kconfig
+@@ -119,4 +119,11 @@ config LEDS_TRIGGER_NETDEV
+         This allows LEDs to be controlled by network device activity.
+         If unsure, say Y.
++config LEDS_TRIGGER_USBDEV
++      tristate "LED USB device Trigger"
++      depends on USB && LEDS_TRIGGERS
++      help
++        This allows LEDs to be controlled by the presence/activity of
++        an USB device. If unsure, say N.
++
+ endif # LEDS_TRIGGERS
+--- a/drivers/leds/Makefile
++++ b/drivers/leds/Makefile
+@@ -64,3 +64,4 @@ obj-$(CONFIG_LEDS_DAC124S085)                += leds-d
+ obj-$(CONFIG_LEDS_TRIGGERS)           += trigger/
+ obj-$(CONFIG_LEDS_TRIGGER_MORSE)      += ledtrig-morse.o
+ obj-$(CONFIG_LEDS_TRIGGER_NETDEV)     += ledtrig-netdev.o
++obj-$(CONFIG_LEDS_TRIGGER_USBDEV)     += ledtrig-usbdev.o
+--- a/drivers/leds/ledtrig-usbdev.c
++++ b/drivers/leds/ledtrig-usbdev.c
+@@ -24,7 +24,6 @@
+ #include <linux/list.h>
+ #include <linux/spinlock.h>
+ #include <linux/device.h>
+-#include <linux/sysdev.h>
+ #include <linux/timer.h>
+ #include <linux/ctype.h>
+ #include <linux/slab.h>
diff --git a/trunk/target/linux/generic/patches-3.18/834-ledtrig-libata.patch b/trunk/target/linux/generic/patches-3.18/834-ledtrig-libata.patch
new file mode 100644 (file)
index 0000000..52dab40
--- /dev/null
@@ -0,0 +1,153 @@
+From 52cfd51cdf6a6e14d4fb270c6343abac3bac00f4 Mon Sep 17 00:00:00 2001
+From: Daniel Golle <daniel@makrotopia.org>
+Date: Fri, 12 Dec 2014 13:38:33 +0100
+Subject: [PATCH] libata: add ledtrig support
+To: linux-ide@vger.kernel.org,
+    Tejun Heo <tj@kernel.org>
+
+This adds a LED trigger for each ATA port indicating disk activity.
+
+As this is needed only on specific platforms (NAS SoCs and such),
+these platforms should define ARCH_WANTS_LIBATA_LEDS if there
+are boards with LED(s) intended to indicate ATA disk activity and
+need the OS to take care of that.
+In that way, if not selected, LED trigger support not will be
+included in libata-core and both, codepaths and structures remain
+untouched.
+
+Signed-off-by: Daniel Golle <daniel@makrotopia.org>
+---
+ drivers/ata/Kconfig       | 16 ++++++++++++++++
+ drivers/ata/libata-core.c | 41 +++++++++++++++++++++++++++++++++++++++++
+ include/linux/libata.h    |  9 +++++++++
+ 3 files changed, 66 insertions(+)
+
+--- a/drivers/ata/Kconfig
++++ b/drivers/ata/Kconfig
+@@ -46,6 +46,22 @@ config ATA_VERBOSE_ERROR
+         If unsure, say Y.
++config ARCH_WANT_LIBATA_LEDS
++      bool
++
++config ATA_LEDS
++      bool "support ATA port LED triggers"
++      depends on ARCH_WANT_LIBATA_LEDS
++      select NEW_LEDS
++      select LEDS_CLASS
++      select LEDS_TRIGGERS
++      default y
++      help
++        This option adds a LED trigger for each registered ATA port.
++        It is used to drive disk activity leds connected via GPIO.
++
++        If unsure, say N.
++
+ config ATA_ACPI
+       bool "ATA ACPI Support"
+       depends on ACPI && PCI
+--- a/drivers/ata/libata-core.c
++++ b/drivers/ata/libata-core.c
+@@ -725,6 +725,19 @@ u64 ata_tf_read_block(struct ata_taskfil
+       return block;
+ }
++#ifdef CONFIG_ATA_LEDS
++#define LIBATA_BLINK_DELAY 20 /* ms */
++static inline void ata_led_act(struct ata_port *ap)
++{
++      unsigned long led_delay = LIBATA_BLINK_DELAY;
++
++      if (unlikely(!ap->ledtrig))
++              return;
++
++      led_trigger_blink_oneshot(ap->ledtrig, &led_delay, &led_delay, 0);
++}
++#endif
++
+ /**
+  *    ata_build_rw_tf - Build ATA taskfile for given read/write request
+  *    @tf: Target ATA taskfile
+@@ -4756,6 +4769,9 @@ static struct ata_queued_cmd *ata_qc_new
+                       break;
+               }
+       }
++#ifdef CONFIG_ATA_LEDS
++      ata_led_act(ap);
++#endif
+       return qc;
+ }
+@@ -5666,6 +5682,9 @@ struct ata_port *ata_port_alloc(struct a
+       ap->stats.unhandled_irq = 1;
+       ap->stats.idle_irq = 1;
+ #endif
++#ifdef CONFIG_ATA_LEDS
++      ap->ledtrig = kzalloc(sizeof(struct led_trigger), GFP_KERNEL);
++#endif
+       ata_sff_port_init(ap);
+       return ap;
+@@ -5687,6 +5706,12 @@ static void ata_host_release(struct devi
+               kfree(ap->pmp_link);
+               kfree(ap->slave_link);
++#ifdef CONFIG_ATA_LEDS
++              if (ap->ledtrig) {
++                      led_trigger_unregister(ap->ledtrig);
++                      kfree(ap->ledtrig);
++              };
++#endif
+               kfree(ap);
+               host->ports[i] = NULL;
+       }
+@@ -6133,7 +6158,23 @@ int ata_host_register(struct ata_host *h
+               host->ports[i]->print_id = atomic_inc_return(&ata_print_id);
+               host->ports[i]->local_port_no = i + 1;
+       }
++#ifdef CONFIG_ATA_LEDS
++      for (i = 0; i < host->n_ports; i++) {
++              if (unlikely(!host->ports[i]->ledtrig))
++                      continue;
++              snprintf(host->ports[i]->ledtrig_name,
++                      sizeof(host->ports[i]->ledtrig_name), "ata%u",
++                      host->ports[i]->print_id);
++
++              host->ports[i]->ledtrig->name = host->ports[i]->ledtrig_name;
++
++              if (led_trigger_register(host->ports[i]->ledtrig)) {
++                      kfree(host->ports[i]->ledtrig);
++                      host->ports[i]->ledtrig = NULL;
++              }
++      }
++#endif
+       /* Create associated sysfs transport objects  */
+       for (i = 0; i < host->n_ports; i++) {
+               rc = ata_tport_add(host->dev,host->ports[i]);
+--- a/include/linux/libata.h
++++ b/include/linux/libata.h
+@@ -38,6 +38,9 @@
+ #include <linux/acpi.h>
+ #include <linux/cdrom.h>
+ #include <linux/sched.h>
++#ifdef CONFIG_ATA_LEDS
++#include <linux/leds.h>
++#endif
+ /*
+  * Define if arch has non-standard setup.  This is a _PCI_ standard
+@@ -862,6 +865,12 @@ struct ata_port {
+ #ifdef CONFIG_ATA_ACPI
+       struct ata_acpi_gtm     __acpi_init_gtm; /* use ata_acpi_init_gtm() */
+ #endif
++
++#ifdef CONFIG_ATA_LEDS
++      struct led_trigger      *ledtrig;
++      char                    ledtrig_name[8];
++#endif
++
+       /* owned by EH */
+       u8                      sector_buf[ATA_SECT_SIZE] ____cacheline_aligned;
+ };
diff --git a/trunk/target/linux/generic/patches-3.18/840-rtc7301.patch b/trunk/target/linux/generic/patches-3.18/840-rtc7301.patch
new file mode 100644 (file)
index 0000000..2134d87
--- /dev/null
@@ -0,0 +1,250 @@
+--- a/drivers/rtc/Kconfig
++++ b/drivers/rtc/Kconfig
+@@ -979,6 +979,15 @@ config RTC_DRV_NUC900
+         If you say yes here you get support for the RTC subsystem of the
+         NUC910/NUC920 used in embedded systems.
++config RTC_DRV_RTC7301
++      tristate "Epson RTC-7301 SF/DG"
++      help
++        If you say Y here you will get support for the
++        Epson RTC-7301 SF/DG RTC chips.
++
++        This driver can also be built as a module. If so, the module
++        will be called rtc-7301.
++
+ comment "on-CPU RTC drivers"
+ config RTC_DRV_DAVINCI
+--- a/drivers/rtc/Makefile
++++ b/drivers/rtc/Makefile
+@@ -115,6 +115,7 @@ obj-$(CONFIG_RTC_DRV_RP5C01)       += rtc-rp5c
+ obj-$(CONFIG_RTC_DRV_RS5C313) += rtc-rs5c313.o
+ obj-$(CONFIG_RTC_DRV_RS5C348) += rtc-rs5c348.o
+ obj-$(CONFIG_RTC_DRV_RS5C372) += rtc-rs5c372.o
++obj-$(CONFIG_RTC_DRV_RTC7301) += rtc-rtc7301.o
+ obj-$(CONFIG_RTC_DRV_RV3029C2)        += rtc-rv3029c2.o
+ obj-$(CONFIG_RTC_DRV_RX4581)  += rtc-rx4581.o
+ obj-$(CONFIG_RTC_DRV_RX8025)  += rtc-rx8025.o
+--- /dev/null
++++ b/drivers/rtc/rtc-rtc7301.c
+@@ -0,0 +1,219 @@
++/*
++ * Driver for Epson RTC-7301SF/DG
++ *
++ * Copyright (C) 2009 Jose Vasconcellos
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ */
++
++#include <linux/module.h>
++#include <linux/rtc.h>
++#include <linux/platform_device.h>
++#include <linux/io.h>
++#include <linux/delay.h>
++#include <linux/bcd.h>
++
++#define RTC_NAME "rtc7301"
++#define RTC_VERSION "0.1"
++
++/* Epson RTC-7301 register addresses */
++#define RTC7301_SEC           0x00
++#define RTC7301_SEC10         0x01
++#define RTC7301_MIN           0x02
++#define RTC7301_MIN10         0x03
++#define RTC7301_HOUR          0x04
++#define RTC7301_HOUR10                0x05
++#define RTC7301_WEEKDAY               0x06
++#define RTC7301_DAY           0x07
++#define RTC7301_DAY10         0x08
++#define RTC7301_MON           0x09
++#define RTC7301_MON10         0x0A
++#define RTC7301_YEAR          0x0B
++#define RTC7301_YEAR10                0x0C
++#define RTC7301_YEAR100               0x0D
++#define RTC7301_YEAR1000      0x0E
++#define RTC7301_CTRLREG               0x0F
++
++static uint8_t __iomem *rtc7301_base;
++
++#define read_reg(offset) (readb(rtc7301_base + offset) & 0xf)
++#define write_reg(offset, data) writeb(data, rtc7301_base + (offset))
++
++#define rtc7301_isbusy() (read_reg(RTC7301_CTRLREG) & 1)
++
++static void rtc7301_init_settings(void)
++{
++      int i;
++
++      write_reg(RTC7301_CTRLREG, 2);
++      write_reg(RTC7301_YEAR1000, 2);
++      udelay(122);
++
++      /* bank 1 */
++      write_reg(RTC7301_CTRLREG, 6);
++      for (i=0; i<15; i++)
++              write_reg(i, 0);
++
++      /* bank 2 */
++      write_reg(RTC7301_CTRLREG, 14);
++      for (i=0; i<15; i++)
++              write_reg(i, 0);
++      write_reg(RTC7301_CTRLREG, 0);
++}
++
++static int rtc7301_get_datetime(struct device *dev, struct rtc_time *dt)
++{
++      int cnt;
++      uint8_t buf[16];
++
++      cnt = 0;
++      while (rtc7301_isbusy()) {
++              udelay(244);
++              if (cnt++ > 100) {
++                      dev_err(dev, "%s: timeout error %x\n", __func__, rtc7301_base[RTC7301_CTRLREG]);
++                      return -EIO;
++              }
++      }
++
++      for (cnt=0; cnt<16; cnt++)
++              buf[cnt] = read_reg(cnt);
++
++      if (buf[RTC7301_SEC10] & 8) {
++              dev_err(dev, "%s: RTC not set\n", __func__);
++              return -EINVAL;
++      }
++
++      memset(dt, 0, sizeof(*dt));
++
++      dt->tm_sec =  buf[RTC7301_SEC] + buf[RTC7301_SEC10]*10;
++      dt->tm_min =  buf[RTC7301_MIN] + buf[RTC7301_MIN10]*10;
++      dt->tm_hour = buf[RTC7301_HOUR] + buf[RTC7301_HOUR10]*10;
++
++      dt->tm_mday = buf[RTC7301_DAY] + buf[RTC7301_DAY10]*10;
++      dt->tm_mon =  buf[RTC7301_MON] + buf[RTC7301_MON10]*10 - 1;
++      dt->tm_year = buf[RTC7301_YEAR] + buf[RTC7301_YEAR10]*10 +
++                    buf[RTC7301_YEAR100]*100 +
++                    ((buf[RTC7301_YEAR1000] & 3)*1000) - 1900;
++
++      /* the rtc device may contain illegal values on power up
++       * according to the data sheet. make sure they are valid.
++       */
++
++      return rtc_valid_tm(dt);
++}
++
++static int rtc7301_set_datetime(struct device *dev, struct rtc_time *dt)
++{
++      int data;
++
++      data = dt->tm_year + 1900;
++      if (data >= 2100 || data < 1900)
++              return -EINVAL;
++
++      write_reg(RTC7301_CTRLREG, 2);
++              udelay(122);
++
++      data = bin2bcd(dt->tm_sec);
++      write_reg(RTC7301_SEC, data);
++      write_reg(RTC7301_SEC10, (data >> 4));
++
++      data = bin2bcd(dt->tm_min);
++      write_reg(RTC7301_MIN, data );
++      write_reg(RTC7301_MIN10, (data >> 4));
++
++      data = bin2bcd(dt->tm_hour);
++      write_reg(RTC7301_HOUR, data);
++      write_reg(RTC7301_HOUR10, (data >> 4));
++
++      data = bin2bcd(dt->tm_mday);
++      write_reg(RTC7301_DAY, data);
++      write_reg(RTC7301_DAY10, (data>> 4));
++
++      data = bin2bcd(dt->tm_mon + 1);
++      write_reg(RTC7301_MON, data);
++      write_reg(RTC7301_MON10, (data >> 4));
++
++      data = bin2bcd(dt->tm_year % 100);
++      write_reg(RTC7301_YEAR, data);
++      write_reg(RTC7301_YEAR10, (data >> 4));
++      data = bin2bcd((1900 + dt->tm_year) / 100);
++      write_reg(RTC7301_YEAR100, data);
++
++      data = bin2bcd(dt->tm_wday);
++      write_reg(RTC7301_WEEKDAY, data);
++
++      write_reg(RTC7301_CTRLREG, 0);
++
++      return 0;
++}
++
++static const struct rtc_class_ops rtc7301_rtc_ops = {
++      .read_time      = rtc7301_get_datetime,
++      .set_time       = rtc7301_set_datetime,
++};
++
++static int rtc7301_probe(struct platform_device *pdev)
++{
++      struct rtc_device *rtc;
++      struct resource *res;
++
++      res = platform_get_resource(pdev, IORESOURCE_MEM, 0);
++      if (!res)
++              return -ENOENT;
++
++      rtc7301_base = ioremap_nocache(res->start, 0x1000 /*res->end - res->start + 1*/);
++      if (!rtc7301_base)
++              return -EINVAL;
++
++      rtc = rtc_device_register(RTC_NAME, &pdev->dev,
++                              &rtc7301_rtc_ops, THIS_MODULE);
++      if (IS_ERR(rtc)) {
++              iounmap(rtc7301_base);
++              return PTR_ERR(rtc);
++      }
++
++      platform_set_drvdata(pdev, rtc);
++
++      rtc7301_init_settings();
++      return 0;
++}
++
++static int rtc7301_remove(struct platform_device *pdev)
++{
++      struct rtc_device *rtc = platform_get_drvdata(pdev);
++
++      if (rtc)
++              rtc_device_unregister(rtc);
++      if (rtc7301_base)
++              iounmap(rtc7301_base);
++      return 0;
++}
++
++static struct platform_driver rtc7301_driver = {
++      .driver = {
++              .name   = RTC_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe  = rtc7301_probe,
++      .remove = rtc7301_remove,
++};
++
++static __init int rtc7301_init(void)
++{
++      return platform_driver_register(&rtc7301_driver);
++}
++module_init(rtc7301_init);
++
++static __exit void rtc7301_exit(void)
++{
++      platform_driver_unregister(&rtc7301_driver);
++}
++module_exit(rtc7301_exit);
++
++MODULE_DESCRIPTION("Epson 7301 RTC driver");
++MODULE_AUTHOR("Jose Vasconcellos <jvasco@verizon.net>");
++MODULE_LICENSE("GPL");
++MODULE_ALIAS("platform:" RTC_NAME);
++MODULE_VERSION(RTC_VERSION);
diff --git a/trunk/target/linux/generic/patches-3.18/841-rtc_pt7c4338.patch b/trunk/target/linux/generic/patches-3.18/841-rtc_pt7c4338.patch
new file mode 100644 (file)
index 0000000..83b0232
--- /dev/null
@@ -0,0 +1,247 @@
+--- a/drivers/rtc/Kconfig
++++ b/drivers/rtc/Kconfig
+@@ -567,6 +567,15 @@ config RTC_DRV_S5M
+         This driver can also be built as a module. If so, the module
+         will be called rtc-s5m.
++config RTC_DRV_PT7C4338
++      tristate "Pericom Technology Inc. PT7C4338 RTC"
++      help
++        If you say yes here you get support for the Pericom Technology
++        Inc. PT7C4338 RTC chip.
++
++        This driver can also be built as a module. If so, the module
++        will be called rtc-pt7c4338.
++
+ endif # I2C
+ comment "SPI RTC drivers"
+--- a/drivers/rtc/Makefile
++++ b/drivers/rtc/Makefile
+@@ -106,6 +106,7 @@ obj-$(CONFIG_RTC_DRV_PL030)        += rtc-pl030
+ obj-$(CONFIG_RTC_DRV_PL031)   += rtc-pl031.o
+ obj-$(CONFIG_RTC_DRV_PM8XXX)  += rtc-pm8xxx.o
+ obj-$(CONFIG_RTC_DRV_PS3)     += rtc-ps3.o
++obj-$(CONFIG_RTC_DRV_PT7C4338)        += rtc-pt7c4338.o
+ obj-$(CONFIG_RTC_DRV_PUV3)    += rtc-puv3.o
+ obj-$(CONFIG_RTC_DRV_PXA)     += rtc-pxa.o
+ obj-$(CONFIG_RTC_DRV_R9701)   += rtc-r9701.o
+--- /dev/null
++++ b/drivers/rtc/rtc-pt7c4338.c
+@@ -0,0 +1,216 @@
++/*
++ * Copyright 2010 Freescale Semiconductor, Inc.
++ *
++ * Author:    Priyanka Jain <Priyanka.Jain@freescale.com>
++ *
++ * See file CREDITS for list of people who contributed to this
++ * project.
++ *
++ * This program is free software; you can redistribute it and/or
++ * modify it under the terms of the GNU General Public License as
++ * published by the Free Software Foundation; either version 2 of
++ * the License, or (at your option) any later version.
++ *
++ * This program is distributed in the hope that it will be useful,
++ * but WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.See the
++ * GNU General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 59 Temple Place, Suite 330, Boston,
++ * MA 02111-1307 USA
++ */
++
++/*
++ * This file provides Date & Time support (no alarms) for PT7C4338 chip.
++ *
++ * This file is based on drivers/rtc/rtc-ds1307.c
++ *
++ * PT7C4338 chip is manufactured by Pericom Technology Inc.
++ * It is a serial real-time clock which provides
++ * 1)Low-power clock/calendar.
++ * 2)Programmable square-wave output.
++ * It has 56 bytes of nonvolatile RAM.
++ */
++
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/slab.h>
++#include <linux/i2c.h>
++#include <linux/rtc.h>
++#include <linux/bcd.h>
++
++/* RTC register addresses */
++#define PT7C4338_REG_SECONDS          0x00
++#define PT7C4338_REG_MINUTES          0x01
++#define PT7C4338_REG_HOURS            0x02
++#define PT7C4338_REG_AMPM             0x02
++#define PT7C4338_REG_DAY              0x03
++#define PT7C4338_REG_DATE             0x04
++#define PT7C4338_REG_MONTH            0x05
++#define PT7C4338_REG_YEAR             0x06
++#define PT7C4338_REG_CTRL_STAT        0x07
++
++/* RTC second register address bit */
++#define PT7C4338_SEC_BIT_CH           0x80    /*Clock Halt (in Register 0)*/
++
++/* RTC control and status register bits */
++#define PT7C4338_CTRL_STAT_BIT_RS0    0x1     /*Rate select 0*/
++#define PT7C4338_CTRL_STAT_BIT_RS1    0x2     /*Rate select 1*/
++#define PT7C4338_CTRL_STAT_BIT_SQWE   0x10    /*Square Wave Enable*/
++#define PT7C4338_CTRL_STAT_BIT_OSF    0x20    /*Oscillator Stop Flag*/
++#define PT7C4338_CTRL_STAT_BIT_OUT    0x80    /*Output Level Control*/
++
++static const struct i2c_device_id pt7c4338_id[] = {
++      { "pt7c4338", 0 },
++      { }
++};
++MODULE_DEVICE_TABLE(i2c, pt7c4338_id);
++
++struct pt7c4338{
++      struct i2c_client *client;
++      struct rtc_device *rtc;
++};
++
++static int pt7c4338_read_time(struct device *dev, struct rtc_time *time)
++{
++      struct i2c_client *client = to_i2c_client(dev);
++      int ret;
++      u8 buf[7];
++      u8 year, month, day, hour, minute, second;
++      u8 week, twelve_hr, am_pm;
++
++      ret = i2c_smbus_read_i2c_block_data(client,
++                      PT7C4338_REG_SECONDS, 7, buf);
++      if (ret < 0)
++              return ret;
++      if (ret < 7)
++              return -EIO;
++
++      second = buf[0];
++      minute = buf[1];
++      hour = buf[2];
++      week = buf[3];
++      day = buf[4];
++      month = buf[5];
++      year = buf[6];
++
++      /* Extract additional information for AM/PM */
++      twelve_hr = hour & 0x40;
++      am_pm = hour & 0x20;
++
++      /* Write to rtc_time structure */
++      time->tm_sec = bcd2bin(second & 0x7f);
++      time->tm_min = bcd2bin(minute & 0x7f);
++      if (twelve_hr) {
++              /* Convert to 24 hr */
++              if (am_pm)
++                      time->tm_hour = bcd2bin(hour & 0x10) + 12;
++              else
++                      time->tm_hour = bcd2bin(hour & 0xBF);
++      } else {
++              time->tm_hour = bcd2bin(hour);
++      }
++
++      time->tm_wday = bcd2bin(week & 0x07) - 1;
++      time->tm_mday = bcd2bin(day & 0x3f);
++      time->tm_mon = bcd2bin(month & 0x1F) - 1;
++      /* assume 20YY not 19YY */
++      time->tm_year = bcd2bin(year) + 100;
++
++      return 0;
++}
++
++static int pt7c4338_set_time(struct device *dev, struct rtc_time *time)
++{
++      struct i2c_client *client = to_i2c_client(dev);
++      u8 buf[7];
++
++      /* Extract time from rtc_time and load into pt7c4338*/
++      buf[0] = bin2bcd(time->tm_sec);
++      buf[1] = bin2bcd(time->tm_min);
++      buf[2] = bin2bcd(time->tm_hour);
++      buf[3] = bin2bcd(time->tm_wday + 1); /* Day of the week */
++      buf[4] = bin2bcd(time->tm_mday); /* Date */
++      buf[5] = bin2bcd(time->tm_mon + 1);
++
++      /* assume 20YY not 19YY */
++      if (time->tm_year >= 100)
++              buf[6] = bin2bcd(time->tm_year - 100);
++      else
++              buf[6] = bin2bcd(time->tm_year);
++
++      return i2c_smbus_write_i2c_block_data(client,
++                                      PT7C4338_REG_SECONDS, 7, buf);
++}
++
++static const struct rtc_class_ops pt7c4338_rtc_ops = {
++      .read_time = pt7c4338_read_time,
++      .set_time = pt7c4338_set_time,
++};
++
++static int pt7c4338_probe(struct i2c_client *client,
++              const struct i2c_device_id *id)
++{
++      struct pt7c4338 *pt7c4338;
++      struct i2c_adapter *adapter = to_i2c_adapter(client->dev.parent);
++      int ret;
++
++      pt7c4338 = kzalloc(sizeof(struct pt7c4338), GFP_KERNEL);
++      if (!pt7c4338)
++              return -ENOMEM;
++
++      pt7c4338->client = client;
++      i2c_set_clientdata(client, pt7c4338);
++      pt7c4338->rtc = rtc_device_register(client->name, &client->dev,
++                                      &pt7c4338_rtc_ops, THIS_MODULE);
++      if (IS_ERR(pt7c4338->rtc)) {
++              ret = PTR_ERR(pt7c4338->rtc);
++              dev_err(&client->dev, "unable to register the class device\n");
++              goto out_free;
++      }
++
++      return 0;
++out_free:
++      i2c_set_clientdata(client, NULL);
++      kfree(pt7c4338);
++      return ret;
++}
++
++static int pt7c4338_remove(struct i2c_client *client)
++{
++      struct pt7c4338 *pt7c4338 = i2c_get_clientdata(client);
++
++      rtc_device_unregister(pt7c4338->rtc);
++      i2c_set_clientdata(client, NULL);
++      kfree(pt7c4338);
++      return 0;
++}
++
++static struct i2c_driver pt7c4338_driver = {
++      .driver = {
++              .name = "rtc-pt7c4338",
++              .owner = THIS_MODULE,
++      },
++      .probe = pt7c4338_probe,
++      .remove = pt7c4338_remove,
++      .id_table = pt7c4338_id,
++};
++
++static int __init pt7c4338_init(void)
++{
++      return i2c_add_driver(&pt7c4338_driver);
++}
++
++static void __exit pt7c4338_exit(void)
++{
++      i2c_del_driver(&pt7c4338_driver);
++}
++
++module_init(pt7c4338_init);
++module_exit(pt7c4338_exit);
++
++MODULE_AUTHOR("Priyanka Jain <Priyanka.Jain@freescale.com>");
++MODULE_DESCRIPTION("pericom Technology Inc. PT7C4338 RTC Driver");
++MODULE_LICENSE("GPL");
diff --git a/trunk/target/linux/generic/patches-3.18/861-04_spi_gpio_implement_spi_delay.patch b/trunk/target/linux/generic/patches-3.18/861-04_spi_gpio_implement_spi_delay.patch
new file mode 100644 (file)
index 0000000..e7b32a5
--- /dev/null
@@ -0,0 +1,58 @@
+Implement the SPI-GPIO delay function for busses that need speed limitation.
+
+--mb
+
+
+
+--- a/drivers/spi/spi-gpio.c
++++ b/drivers/spi/spi-gpio.c
+@@ -21,6 +21,7 @@
+ #include <linux/module.h>
+ #include <linux/platform_device.h>
+ #include <linux/gpio.h>
++#include <linux/delay.h>
+ #include <linux/of.h>
+ #include <linux/of_device.h>
+ #include <linux/of_gpio.h>
+@@ -73,6 +74,7 @@ struct spi_gpio {
+  *            #define SPI_MOSI_GPIO   120
+  *            #define SPI_SCK_GPIO    121
+  *            #define SPI_N_CHIPSEL   4
++ *            #undef NEED_SPIDELAY
+  *            #include "spi-gpio.c"
+  */
+@@ -80,6 +82,7 @@ struct spi_gpio {
+ #define DRIVER_NAME   "spi_gpio"
+ #define GENERIC_BITBANG       /* vs tight inlines */
++#define NEED_SPIDELAY 1
+ /* all functions referencing these symbols must define pdata */
+ #define SPI_MISO_GPIO ((pdata)->miso)
+@@ -130,12 +133,20 @@ static inline int getmiso(const struct s
+ #undef pdata
+ /*
+- * NOTE:  this clocks "as fast as we can".  It "should" be a function of the
+- * requested device clock.  Software overhead means we usually have trouble
+- * reaching even one Mbit/sec (except when we can inline bitops), so for now
+- * we'll just assume we never need additional per-bit slowdowns.
++ * NOTE:  to clock "as fast as we can", set spi_device.max_speed_hz
++ * and spi_transfer.speed_hz to 0.
++ * Otherwise this is a function of the requested device clock.
++ * Software overhead means we usually have trouble
++ * reaching even one Mbit/sec (except when we can inline bitops). So on small
++ * embedded devices with fast SPI slaves you usually don't need a delay.
+  */
+-#define spidelay(nsecs)       do {} while (0)
++static inline void spidelay(unsigned nsecs)
++{
++#ifdef NEED_SPIDELAY
++      if (unlikely(nsecs))
++              ndelay(nsecs);
++#endif /* NEED_SPIDELAY */
++}
+ #include "spi-bitbang-txrx.h"
diff --git a/trunk/target/linux/generic/patches-3.18/862-gpio_spi_driver.patch b/trunk/target/linux/generic/patches-3.18/862-gpio_spi_driver.patch
new file mode 100644 (file)
index 0000000..70bf11f
--- /dev/null
@@ -0,0 +1,373 @@
+THIS CODE IS DEPRECATED.
+
+Please use the new mainline SPI-GPIO driver, as of 2.6.29.
+
+--mb
+
+
+
+---
+ drivers/spi/Kconfig              |    9 +
+ drivers/spi/Makefile             |    1 
+ drivers/spi/spi_gpio_old.c       |  251 +++++++++++++++++++++++++++++++++++++++
+ include/linux/spi/spi_gpio_old.h |   73 +++++++++++
+ 4 files changed, 334 insertions(+)
+
+--- /dev/null
++++ b/include/linux/spi/spi_gpio_old.h
+@@ -0,0 +1,73 @@
++/*
++ * spi_gpio interface to platform code
++ *
++ * Copyright (c) 2008 Piotr Skamruk
++ * Copyright (c) 2008 Michael Buesch
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ */
++#ifndef _LINUX_SPI_SPI_GPIO
++#define _LINUX_SPI_SPI_GPIO
++
++#include <linux/types.h>
++#include <linux/spi/spi.h>
++
++
++/**
++ * struct spi_gpio_platform_data - Data definitions for a SPI-GPIO device.
++ *
++ * This structure holds information about a GPIO-based SPI device.
++ *
++ * @pin_clk: The GPIO pin number of the CLOCK pin.
++ *
++ * @pin_miso: The GPIO pin number of the MISO pin.
++ *
++ * @pin_mosi: The GPIO pin number of the MOSI pin.
++ *
++ * @pin_cs: The GPIO pin number of the CHIPSELECT pin.
++ *
++ * @cs_activelow: If true, the chip is selected when the CS line is low.
++ *
++ * @no_spi_delay: If true, no delay is done in the lowlevel bitbanging.
++ *                Note that doing no delay is not standards compliant,
++ *                but it might be needed to speed up transfers on some
++ *                slow embedded machines.
++ *
++ * @boardinfo_setup: This callback is called after the
++ *                   SPI master device was registered, but before the
++ *                   device is registered.
++ * @boardinfo_setup_data: Data argument passed to boardinfo_setup().
++ */
++struct spi_gpio_platform_data {
++      unsigned int pin_clk;
++      unsigned int pin_miso;
++      unsigned int pin_mosi;
++      unsigned int pin_cs;
++      bool cs_activelow;
++      bool no_spi_delay;
++      int (*boardinfo_setup)(struct spi_board_info *bi,
++                             struct spi_master *master,
++                             void *data);
++      void *boardinfo_setup_data;
++};
++
++/**
++ * SPI_GPIO_PLATDEV_NAME - The platform device name string.
++ *
++ * The name string that has to be used for platform_device_alloc
++ * when allocating a spi-gpio device.
++ */
++#define SPI_GPIO_PLATDEV_NAME "spi-gpio"
++
++/**
++ * spi_gpio_next_id - Get another platform device ID number.
++ *
++ * This returns the next platform device ID number that has to be used
++ * for platform_device_alloc. The ID is opaque and should not be used for
++ * anything else.
++ */
++int spi_gpio_next_id(void);
++
++#endif /* _LINUX_SPI_SPI_GPIO */
+--- /dev/null
++++ b/drivers/spi/spi_gpio_old.c
+@@ -0,0 +1,251 @@
++/*
++ * Bitbanging SPI bus driver using GPIO API
++ *
++ * Copyright (c) 2008 Piotr Skamruk
++ * Copyright (c) 2008 Michael Buesch
++ *
++ * based on spi_s3c2410_gpio.c
++ *   Copyright (c) 2006 Ben Dooks
++ *   Copyright (c) 2006 Simtec Electronics
++ * and on i2c-gpio.c
++ *   Copyright (C) 2007 Atmel Corporation
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License version 2 as
++ * published by the Free Software Foundation.
++ */
++
++#include <linux/kernel.h>
++#include <linux/init.h>
++#include <linux/delay.h>
++#include <linux/spinlock.h>
++#include <linux/workqueue.h>
++#include <linux/module.h>
++#include <linux/platform_device.h>
++#include <linux/spi/spi.h>
++#include <linux/spi/spi_bitbang.h>
++#include <linux/spi/spi_gpio_old.h>
++#include <linux/gpio.h>
++#include <asm/atomic.h>
++
++
++struct spi_gpio {
++      struct spi_bitbang bitbang;
++      struct spi_gpio_platform_data *info;
++      struct platform_device *pdev;
++      struct spi_board_info bi;
++};
++
++
++static inline struct spi_gpio *spidev_to_sg(struct spi_device *dev)
++{
++      return dev->controller_data;
++}
++
++static inline void setsck(struct spi_device *dev, int val)
++{
++      struct spi_gpio *sp = spidev_to_sg(dev);
++      gpio_set_value(sp->info->pin_clk, val ? 1 : 0);
++}
++
++static inline void setmosi(struct spi_device *dev, int val)
++{
++      struct spi_gpio *sp = spidev_to_sg(dev);
++      gpio_set_value(sp->info->pin_mosi, val ? 1 : 0);
++}
++
++static inline u32 getmiso(struct spi_device *dev)
++{
++      struct spi_gpio *sp = spidev_to_sg(dev);
++      return gpio_get_value(sp->info->pin_miso) ? 1 : 0;
++}
++
++static inline void do_spidelay(struct spi_device *dev, unsigned nsecs)
++{
++      struct spi_gpio *sp = spidev_to_sg(dev);
++
++      if (!sp->info->no_spi_delay)
++              ndelay(nsecs);
++}
++
++#define spidelay(nsecs) do {                                  \
++      /* Steal the spi_device pointer from our caller.        \
++       * The bitbang-API should probably get fixed here... */ \
++      do_spidelay(spi, nsecs);                                \
++  } while (0)
++
++#define EXPAND_BITBANG_TXRX
++#include "spi-bitbang-txrx.h"
++
++static u32 spi_gpio_txrx_mode0(struct spi_device *spi,
++                             unsigned nsecs, u32 word, u8 bits)
++{
++      return bitbang_txrx_be_cpha0(spi, nsecs, 0, 0, word, bits);
++}
++
++static u32 spi_gpio_txrx_mode1(struct spi_device *spi,
++                             unsigned nsecs, u32 word, u8 bits)
++{
++      return bitbang_txrx_be_cpha1(spi, nsecs, 0, 0, word, bits);
++}
++
++static u32 spi_gpio_txrx_mode2(struct spi_device *spi,
++                             unsigned nsecs, u32 word, u8 bits)
++{
++      return bitbang_txrx_be_cpha0(spi, nsecs, 1, 0, word, bits);
++}
++
++static u32 spi_gpio_txrx_mode3(struct spi_device *spi,
++                             unsigned nsecs, u32 word, u8 bits)
++{
++      return bitbang_txrx_be_cpha1(spi, nsecs, 1, 0, word, bits);
++}
++
++static void spi_gpio_chipselect(struct spi_device *dev, int on)
++{
++      struct spi_gpio *sp = spidev_to_sg(dev);
++
++      if (sp->info->cs_activelow)
++              on = !on;
++      gpio_set_value(sp->info->pin_cs, on ? 1 : 0);
++}
++
++static int spi_gpio_probe(struct platform_device *pdev)
++{
++      struct spi_master *master;
++      struct spi_gpio_platform_data *pdata;
++      struct spi_gpio *sp;
++      struct spi_device *spidev;
++      int err;
++
++      pdata = pdev->dev.platform_data;
++      if (!pdata)
++              return -ENXIO;
++
++      err = -ENOMEM;
++      master = spi_alloc_master(&pdev->dev, sizeof(struct spi_gpio));
++      if (!master)
++              goto err_alloc_master;
++
++      sp = spi_master_get_devdata(master);
++      platform_set_drvdata(pdev, sp);
++      sp->info = pdata;
++
++      err = gpio_request(pdata->pin_clk, "spi_clock");
++      if (err)
++              goto err_request_clk;
++      err = gpio_request(pdata->pin_mosi, "spi_mosi");
++      if (err)
++              goto err_request_mosi;
++      err = gpio_request(pdata->pin_miso, "spi_miso");
++      if (err)
++              goto err_request_miso;
++      err = gpio_request(pdata->pin_cs, "spi_cs");
++      if (err)
++              goto err_request_cs;
++
++      sp->bitbang.master = spi_master_get(master);
++      sp->bitbang.master->bus_num = -1;
++      sp->bitbang.master->num_chipselect = 1;
++      sp->bitbang.chipselect = spi_gpio_chipselect;
++      sp->bitbang.txrx_word[SPI_MODE_0] = spi_gpio_txrx_mode0;
++      sp->bitbang.txrx_word[SPI_MODE_1] = spi_gpio_txrx_mode1;
++      sp->bitbang.txrx_word[SPI_MODE_2] = spi_gpio_txrx_mode2;
++      sp->bitbang.txrx_word[SPI_MODE_3] = spi_gpio_txrx_mode3;
++
++      gpio_direction_output(pdata->pin_clk, 0);
++      gpio_direction_output(pdata->pin_mosi, 0);
++      gpio_direction_output(pdata->pin_cs,
++                            pdata->cs_activelow ? 1 : 0);
++      gpio_direction_input(pdata->pin_miso);
++
++      err = spi_bitbang_start(&sp->bitbang);
++      if (err)
++              goto err_no_bitbang;
++      err = pdata->boardinfo_setup(&sp->bi, master,
++                                   pdata->boardinfo_setup_data);
++      if (err)
++              goto err_bi_setup;
++      sp->bi.controller_data = sp;
++      spidev = spi_new_device(master, &sp->bi);
++      if (!spidev)
++              goto err_new_dev;
++
++      return 0;
++
++err_new_dev:
++err_bi_setup:
++      spi_bitbang_stop(&sp->bitbang);
++err_no_bitbang:
++      spi_master_put(sp->bitbang.master);
++      gpio_free(pdata->pin_cs);
++err_request_cs:
++      gpio_free(pdata->pin_miso);
++err_request_miso:
++      gpio_free(pdata->pin_mosi);
++err_request_mosi:
++      gpio_free(pdata->pin_clk);
++err_request_clk:
++      kfree(master);
++
++err_alloc_master:
++      return err;
++}
++
++static int spi_gpio_remove(struct platform_device *pdev)
++{
++      struct spi_gpio *sp;
++      struct spi_gpio_platform_data *pdata;
++
++      pdata = pdev->dev.platform_data;
++      sp = platform_get_drvdata(pdev);
++
++      gpio_free(pdata->pin_clk);
++      gpio_free(pdata->pin_mosi);
++      gpio_free(pdata->pin_miso);
++      gpio_free(pdata->pin_cs);
++      spi_bitbang_stop(&sp->bitbang);
++      spi_master_put(sp->bitbang.master);
++
++      return 0;
++}
++
++static struct platform_driver spi_gpio_driver = {
++      .driver         = {
++              .name   = SPI_GPIO_PLATDEV_NAME,
++              .owner  = THIS_MODULE,
++      },
++      .probe          = spi_gpio_probe,
++      .remove         = spi_gpio_remove,
++};
++
++int spi_gpio_next_id(void)
++{
++      static atomic_t counter = ATOMIC_INIT(-1);
++
++      return atomic_inc_return(&counter);
++}
++EXPORT_SYMBOL(spi_gpio_next_id);
++
++static int __init spi_gpio_init(void)
++{
++      int err;
++
++      err = platform_driver_register(&spi_gpio_driver);
++      if (err)
++              printk(KERN_ERR "spi-gpio: register failed: %d\n", err);
++
++      return err;
++}
++module_init(spi_gpio_init);
++
++static void __exit spi_gpio_exit(void)
++{
++      platform_driver_unregister(&spi_gpio_driver);
++}
++module_exit(spi_gpio_exit);
++
++MODULE_AUTHOR("Piot Skamruk <piotr.skamruk at gmail.com>");
++MODULE_AUTHOR("Michael Buesch");
++MODULE_DESCRIPTION("Platform independent GPIO bitbanging SPI driver");
++MODULE_LICENSE("GPL v2");
+--- a/drivers/spi/Kconfig
++++ b/drivers/spi/Kconfig
+@@ -225,6 +225,15 @@ config SPI_GPIO
+         GPIO operations, you should be able to leverage that for better
+         speed with a custom version of this driver; see the source code.
++config SPI_GPIO_OLD
++      tristate "Old GPIO API based bitbanging SPI controller (DEPRECATED)"
++      depends on SPI_MASTER && GPIOLIB
++      select SPI_BITBANG
++      help
++        This code is deprecated. Please use the new mainline SPI-GPIO driver.
++
++        If unsure, say N.
++
+ config SPI_IMX
+       tristate "Freescale i.MX SPI controllers"
+       depends on ARCH_MXC || COMPILE_TEST
+--- a/drivers/spi/Makefile
++++ b/drivers/spi/Makefile
+@@ -40,6 +40,7 @@ obj-$(CONFIG_SPI_FSL_LIB)            += spi-fsl-li
+ obj-$(CONFIG_SPI_FSL_ESPI)            += spi-fsl-espi.o
+ obj-$(CONFIG_SPI_FSL_SPI)             += spi-fsl-spi.o
+ obj-$(CONFIG_SPI_GPIO)                        += spi-gpio.o
++obj-$(CONFIG_SPI_GPIO_OLD)            += spi_gpio_old.o
+ obj-$(CONFIG_SPI_IMX)                 += spi-imx.o
+ obj-$(CONFIG_SPI_LM70_LLP)            += spi-lm70llp.o
+ obj-$(CONFIG_SPI_MPC512x_PSC)         += spi-mpc512x-psc.o
diff --git a/trunk/target/linux/generic/patches-3.18/863-gpiommc.patch b/trunk/target/linux/generic/patches-3.18/863-gpiommc.patch
new file mode 100644 (file)
index 0000000..2929333
--- /dev/null
@@ -0,0 +1,844 @@
+--- /dev/null
++++ b/drivers/mmc/host/gpiommc.c
+@@ -0,0 +1,609 @@
++/*
++ * Driver an MMC/SD card on a bitbanging GPIO SPI bus.
++ * This module hooks up the mmc_spi and spi_gpio modules and also
++ * provides a configfs interface.
++ *
++ * Copyright 2008 Michael Buesch <mb@bu3sch.de>
++ *
++ * Licensed under the GNU/GPL. See COPYING for details.
++ */
++
++#include <linux/module.h>
++#include <linux/mmc/gpiommc.h>
++#include <linux/platform_device.h>
++#include <linux/list.h>
++#include <linux/mutex.h>
++#include <linux/spi/spi_gpio_old.h>
++#include <linux/configfs.h>
++#include <linux/gpio.h>
++#include <asm/atomic.h>
++
++
++#define PFX                           "gpio-mmc: "
++
++
++struct gpiommc_device {
++      struct platform_device *pdev;
++      struct platform_device *spi_pdev;
++      struct spi_board_info boardinfo;
++};
++
++
++MODULE_DESCRIPTION("GPIO based MMC driver");
++MODULE_AUTHOR("Michael Buesch");
++MODULE_LICENSE("GPL");
++
++
++static int gpiommc_boardinfo_setup(struct spi_board_info *bi,
++                                 struct spi_master *master,
++                                 void *data)
++{
++      struct gpiommc_device *d = data;
++      struct gpiommc_platform_data *pdata = d->pdev->dev.platform_data;
++
++      /* Bind the SPI master to the MMC-SPI host driver. */
++      strlcpy(bi->modalias, "mmc_spi", sizeof(bi->modalias));
++
++      bi->max_speed_hz = pdata->max_bus_speed;
++      bi->bus_num = master->bus_num;
++      bi->mode = pdata->mode;
++
++      return 0;
++}
++
++static int gpiommc_probe(struct platform_device *pdev)
++{
++      struct gpiommc_platform_data *mmc_pdata = pdev->dev.platform_data;
++      struct spi_gpio_platform_data spi_pdata;
++      struct gpiommc_device *d;
++      int err;
++
++      err = -ENXIO;
++      if (!mmc_pdata)
++              goto error;
++
++#ifdef CONFIG_MMC_SPI_MODULE
++      err = request_module("mmc_spi");
++      if (err) {
++              printk(KERN_WARNING PFX
++                     "Failed to request mmc_spi module.\n");
++      }
++#endif /* CONFIG_MMC_SPI_MODULE */
++
++      /* Allocate the GPIO-MMC device */
++      err = -ENOMEM;
++      d = kzalloc(sizeof(*d), GFP_KERNEL);
++      if (!d)
++              goto error;
++      d->pdev = pdev;
++
++      /* Create the SPI-GPIO device */
++      d->spi_pdev = platform_device_alloc(SPI_GPIO_PLATDEV_NAME,
++                                          spi_gpio_next_id());
++      if (!d->spi_pdev)
++              goto err_free_d;
++
++      memset(&spi_pdata, 0, sizeof(spi_pdata));
++      spi_pdata.pin_clk = mmc_pdata->pins.gpio_clk;
++      spi_pdata.pin_miso = mmc_pdata->pins.gpio_do;
++      spi_pdata.pin_mosi = mmc_pdata->pins.gpio_di;
++      spi_pdata.pin_cs = mmc_pdata->pins.gpio_cs;
++      spi_pdata.cs_activelow = mmc_pdata->pins.cs_activelow;
++      spi_pdata.no_spi_delay = mmc_pdata->no_spi_delay;
++      spi_pdata.boardinfo_setup = gpiommc_boardinfo_setup;
++      spi_pdata.boardinfo_setup_data = d;
++
++      err = platform_device_add_data(d->spi_pdev, &spi_pdata,
++                                     sizeof(spi_pdata));
++      if (err)
++              goto err_free_pdev;
++      err = platform_device_add(d->spi_pdev);
++      if (err)
++              goto err_free_pdata;
++      platform_set_drvdata(pdev, d);
++
++      printk(KERN_INFO PFX "MMC-Card \"%s\" "
++             "attached to GPIO pins di=%u, do=%u, clk=%u, cs=%u\n",
++             mmc_pdata->name, mmc_pdata->pins.gpio_di,
++             mmc_pdata->pins.gpio_do,
++             mmc_pdata->pins.gpio_clk,
++             mmc_pdata->pins.gpio_cs);
++
++      return 0;
++
++err_free_pdata:
++      kfree(d->spi_pdev->dev.platform_data);
++      d->spi_pdev->dev.platform_data = NULL;
++err_free_pdev:
++      platform_device_put(d->spi_pdev);
++err_free_d:
++      kfree(d);
++error:
++      return err;
++}
++
++static int gpiommc_remove(struct platform_device *pdev)
++{
++      struct gpiommc_device *d = platform_get_drvdata(pdev);
++      struct gpiommc_platform_data *pdata = d->pdev->dev.platform_data;
++
++      platform_device_unregister(d->spi_pdev);
++      printk(KERN_INFO PFX "GPIO based MMC-Card \"%s\" removed\n",
++             pdata->name);
++      platform_device_put(d->spi_pdev);
++
++      return 0;
++}
++
++#ifdef CONFIG_GPIOMMC_CONFIGFS
++
++/* A device that was created through configfs */
++struct gpiommc_configfs_device {
++      struct config_item item;
++      /* The platform device, after registration. */
++      struct platform_device *pdev;
++      /* The configuration */
++      struct gpiommc_platform_data pdata;
++};
++
++#define GPIO_INVALID  -1
++
++static inline bool gpiommc_is_registered(struct gpiommc_configfs_device *dev)
++{
++      return (dev->pdev != NULL);
++}
++
++static inline struct gpiommc_configfs_device *ci_to_gpiommc(struct config_item *item)
++{
++      return item ? container_of(item, struct gpiommc_configfs_device, item) : NULL;
++}
++
++static struct configfs_attribute gpiommc_attr_DI = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "gpio_data_in",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_DO = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "gpio_data_out",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_CLK = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "gpio_clock",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_CS = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "gpio_chipselect",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_CS_activelow = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "gpio_chipselect_activelow",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_spimode = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "spi_mode",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_spidelay = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "spi_delay",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_max_bus_speed = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "max_bus_speed",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute gpiommc_attr_register = {
++      .ca_owner = THIS_MODULE,
++      .ca_name = "register",
++      .ca_mode = S_IRUGO | S_IWUSR,
++};
++
++static struct configfs_attribute *gpiommc_config_attrs[] = {
++      &gpiommc_attr_DI,
++      &gpiommc_attr_DO,
++      &gpiommc_attr_CLK,
++      &gpiommc_attr_CS,
++      &gpiommc_attr_CS_activelow,
++      &gpiommc_attr_spimode,
++      &gpiommc_attr_spidelay,
++      &gpiommc_attr_max_bus_speed,
++      &gpiommc_attr_register,
++      NULL,
++};
++
++static ssize_t gpiommc_config_attr_show(struct config_item *item,
++                                      struct configfs_attribute *attr,
++                                      char *page)
++{
++      struct gpiommc_configfs_device *dev = ci_to_gpiommc(item);
++      ssize_t count = 0;
++      unsigned int gpio;
++      int err = 0;
++
++      if (attr == &gpiommc_attr_DI) {
++              gpio = dev->pdata.pins.gpio_di;
++              if (gpio == GPIO_INVALID)
++                      count = snprintf(page, PAGE_SIZE, "not configured\n");
++              else
++                      count = snprintf(page, PAGE_SIZE, "%u\n", gpio);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_DO) {
++              gpio = dev->pdata.pins.gpio_do;
++              if (gpio == GPIO_INVALID)
++                      count = snprintf(page, PAGE_SIZE, "not configured\n");
++              else
++                      count = snprintf(page, PAGE_SIZE, "%u\n", gpio);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_CLK) {
++              gpio = dev->pdata.pins.gpio_clk;
++              if (gpio == GPIO_INVALID)
++                      count = snprintf(page, PAGE_SIZE, "not configured\n");
++              else
++                      count = snprintf(page, PAGE_SIZE, "%u\n", gpio);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_CS) {
++              gpio = dev->pdata.pins.gpio_cs;
++              if (gpio == GPIO_INVALID)
++                      count = snprintf(page, PAGE_SIZE, "not configured\n");
++              else
++                      count = snprintf(page, PAGE_SIZE, "%u\n", gpio);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_CS_activelow) {
++              count = snprintf(page, PAGE_SIZE, "%u\n",
++                               dev->pdata.pins.cs_activelow);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_spimode) {
++              count = snprintf(page, PAGE_SIZE, "%u\n",
++                               dev->pdata.mode);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_spidelay) {
++              count = snprintf(page, PAGE_SIZE, "%u\n",
++                               !dev->pdata.no_spi_delay);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_max_bus_speed) {
++              count = snprintf(page, PAGE_SIZE, "%u\n",
++                               dev->pdata.max_bus_speed);
++              goto out;
++      }
++      if (attr == &gpiommc_attr_register) {
++              count = snprintf(page, PAGE_SIZE, "%u\n",
++                               gpiommc_is_registered(dev));
++              goto out;
++      }
++      WARN_ON(1);
++      err = -ENOSYS;
++out:
++      return err ? err : count;
++}
++
++static int gpiommc_do_register(struct gpiommc_configfs_device *dev,
++                             const char *name)
++{
++      int err;
++
++      if (gpiommc_is_registered(dev))
++              return 0;
++
++      if (!gpio_is_valid(dev->pdata.pins.gpio_di) ||
++          !gpio_is_valid(dev->pdata.pins.gpio_do) ||
++          !gpio_is_valid(dev->pdata.pins.gpio_clk) ||
++          !gpio_is_valid(dev->pdata.pins.gpio_cs)) {
++              printk(KERN_ERR PFX
++                     "configfs: Invalid GPIO pin number(s)\n");
++              return -EINVAL;
++      }
++
++      strlcpy(dev->pdata.name, name,
++              sizeof(dev->pdata.name));
++
++      dev->pdev = platform_device_alloc(GPIOMMC_PLATDEV_NAME,
++                                        gpiommc_next_id());
++      if (!dev->pdev)
++              return -ENOMEM;
++      err = platform_device_add_data(dev->pdev, &dev->pdata,
++                                     sizeof(dev->pdata));
++      if (err) {
++              platform_device_put(dev->pdev);
++              return err;
++      }
++      err = platform_device_add(dev->pdev);
++      if (err) {
++              platform_device_put(dev->pdev);
++              return err;
++      }
++
++      return 0;
++}
++
++static void gpiommc_do_unregister(struct gpiommc_configfs_device *dev)
++{
++      if (!gpiommc_is_registered(dev))
++              return;
++
++      platform_device_unregister(dev->pdev);
++      dev->pdev = NULL;
++}
++
++static ssize_t gpiommc_config_attr_store(struct config_item *item,
++                                       struct configfs_attribute *attr,
++                                       const char *page, size_t count)
++{
++      struct gpiommc_configfs_device *dev = ci_to_gpiommc(item);
++      int err = -EINVAL;
++      unsigned long data;
++
++      if (attr == &gpiommc_attr_register) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (data == 1)
++                      err = gpiommc_do_register(dev, item->ci_name);
++              if (data == 0) {
++                      gpiommc_do_unregister(dev);
++                      err = 0;
++              }
++              goto out;
++      }
++
++      if (gpiommc_is_registered(dev)) {
++              /* The rest of the config parameters can only be set
++               * as long as the device is not registered, yet. */
++              err = -EBUSY;
++              goto out;
++      }
++
++      if (attr == &gpiommc_attr_DI) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (!gpio_is_valid(data))
++                      goto out;
++              dev->pdata.pins.gpio_di = data;
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_DO) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (!gpio_is_valid(data))
++                      goto out;
++              dev->pdata.pins.gpio_do = data;
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_CLK) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (!gpio_is_valid(data))
++                      goto out;
++              dev->pdata.pins.gpio_clk = data;
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_CS) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (!gpio_is_valid(data))
++                      goto out;
++              dev->pdata.pins.gpio_cs = data;
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_CS_activelow) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (data != 0 && data != 1)
++                      goto out;
++              dev->pdata.pins.cs_activelow = data;
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_spimode) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              switch (data) {
++              case 0:
++                      dev->pdata.mode = SPI_MODE_0;
++                      break;
++              case 1:
++                      dev->pdata.mode = SPI_MODE_1;
++                      break;
++              case 2:
++                      dev->pdata.mode = SPI_MODE_2;
++                      break;
++              case 3:
++                      dev->pdata.mode = SPI_MODE_3;
++                      break;
++              default:
++                      goto out;
++              }
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_spidelay) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (data != 0 && data != 1)
++                      goto out;
++              dev->pdata.no_spi_delay = !data;
++              err = 0;
++              goto out;
++      }
++      if (attr == &gpiommc_attr_max_bus_speed) {
++              err = kstrtoul(page, 10, &data);
++              if (err)
++                      goto out;
++              err = -EINVAL;
++              if (data > UINT_MAX)
++                      goto out;
++              dev->pdata.max_bus_speed = data;
++              err = 0;
++              goto out;
++      }
++      WARN_ON(1);
++      err = -ENOSYS;
++out:
++      return err ? err : count;
++}
++
++static void gpiommc_config_item_release(struct config_item *item)
++{
++      struct gpiommc_configfs_device *dev = ci_to_gpiommc(item);
++
++      kfree(dev);
++}
++
++static struct configfs_item_operations gpiommc_config_item_ops = {
++      .release                = gpiommc_config_item_release,
++      .show_attribute         = gpiommc_config_attr_show,
++      .store_attribute        = gpiommc_config_attr_store,
++};
++
++static struct config_item_type gpiommc_dev_ci_type = {
++      .ct_item_ops    = &gpiommc_config_item_ops,
++      .ct_attrs       = gpiommc_config_attrs,
++      .ct_owner       = THIS_MODULE,
++};
++
++static struct config_item *gpiommc_make_item(struct config_group *group,
++                                           const char *name)
++{
++      struct gpiommc_configfs_device *dev;
++
++      if (strlen(name) > GPIOMMC_MAX_NAMELEN) {
++              printk(KERN_ERR PFX "configfs: device name too long\n");
++              return NULL;
++      }
++
++      dev = kzalloc(sizeof(*dev), GFP_KERNEL);
++      if (!dev)
++              return NULL;
++
++      config_item_init_type_name(&dev->item, name,
++                                 &gpiommc_dev_ci_type);
++
++      /* Assign default configuration */
++      dev->pdata.pins.gpio_di = GPIO_INVALID;
++      dev->pdata.pins.gpio_do = GPIO_INVALID;
++      dev->pdata.pins.gpio_clk = GPIO_INVALID;
++      dev->pdata.pins.gpio_cs = GPIO_INVALID;
++      dev->pdata.pins.cs_activelow = 1;
++      dev->pdata.mode = SPI_MODE_0;
++      dev->pdata.no_spi_delay = 0;
++      dev->pdata.max_bus_speed = 5000000; /* 5 MHz */
++
++      return &(dev->item);
++}
++
++static void gpiommc_drop_item(struct config_group *group,
++                            struct config_item *item)
++{
++      struct gpiommc_configfs_device *dev = ci_to_gpiommc(item);
++
++      gpiommc_do_unregister(dev);
++      kfree(dev);
++}
++
++static struct configfs_group_operations gpiommc_ct_group_ops = {
++      .make_item      = gpiommc_make_item,
++      .drop_item      = gpiommc_drop_item,
++};
++
++static struct config_item_type gpiommc_ci_type = {
++      .ct_group_ops   = &gpiommc_ct_group_ops,
++      .ct_owner       = THIS_MODULE,
++};
++
++static struct configfs_subsystem gpiommc_subsys = {
++      .su_group = {
++              .cg_item = {
++                      .ci_namebuf = GPIOMMC_PLATDEV_NAME,
++                      .ci_type = &gpiommc_ci_type,
++              },
++      },
++      .su_mutex = __MUTEX_INITIALIZER(gpiommc_subsys.su_mutex),
++};
++
++#endif /* CONFIG_GPIOMMC_CONFIGFS */
++
++static struct platform_driver gpiommc_plat_driver = {
++      .probe  = gpiommc_probe,
++      .remove = gpiommc_remove,
++      .driver = {
++              .name   = GPIOMMC_PLATDEV_NAME,
++              .owner  = THIS_MODULE,
++      },
++};
++
++int gpiommc_next_id(void)
++{
++      static atomic_t counter = ATOMIC_INIT(-1);
++
++      return atomic_inc_return(&counter);
++}
++EXPORT_SYMBOL(gpiommc_next_id);
++
++static int __init gpiommc_modinit(void)
++{
++      int err;
++
++      err = platform_driver_register(&gpiommc_plat_driver);
++      if (err)
++              return err;
++
++#ifdef CONFIG_GPIOMMC_CONFIGFS
++      config_group_init(&gpiommc_subsys.su_group);
++      err = configfs_register_subsystem(&gpiommc_subsys);
++      if (err) {
++              platform_driver_unregister(&gpiommc_plat_driver);
++              return err;
++      }
++#endif /* CONFIG_GPIOMMC_CONFIGFS */
++
++      return 0;
++}
++module_init(gpiommc_modinit);
++
++static void __exit gpiommc_modexit(void)
++{
++#ifdef CONFIG_GPIOMMC_CONFIGFS
++      configfs_unregister_subsystem(&gpiommc_subsys);
++#endif
++      platform_driver_unregister(&gpiommc_plat_driver);
++}
++module_exit(gpiommc_modexit);
+--- a/drivers/mmc/host/Kconfig
++++ b/drivers/mmc/host/Kconfig
+@@ -534,6 +534,31 @@ config MMC_SDHI
+         This provides support for the SDHI SD/SDIO controller found in
+         SuperH and ARM SH-Mobile SoCs
++config GPIOMMC
++      tristate "MMC/SD over GPIO-based SPI"
++      depends on MMC && MMC_SPI && SPI_GPIO_OLD
++      help
++        This driver hooks up the mmc_spi and spi_gpio modules so that
++        MMC/SD cards can be used on a GPIO based bus by bitbanging
++        the SPI protocol in software.
++
++        This driver provides a configfs interface to dynamically create
++        and destroy GPIO-based MMC/SD card devices. It also provides
++        a platform device interface API.
++        See Documentation/gpiommc.txt for details.
++
++        The module will be called gpiommc.
++
++        If unsure, say N.
++
++config GPIOMMC_CONFIGFS
++      bool
++      depends on GPIOMMC && CONFIGFS_FS
++      default y
++      help
++        This option automatically enables configfs support for gpiommc
++        if configfs is available.
++
+ config MMC_CB710
+       tristate "ENE CB710 MMC/SD Interface support"
+       depends on PCI
+--- a/drivers/mmc/host/Makefile
++++ b/drivers/mmc/host/Makefile
+@@ -40,6 +40,7 @@ tmio_mmc_core-$(subst m,y,$(CONFIG_MMC_S
+ obj-$(CONFIG_MMC_SDHI)                += sh_mobile_sdhi.o
+ obj-$(CONFIG_MMC_CB710)               += cb710-mmc.o
+ obj-$(CONFIG_MMC_VIA_SDMMC)   += via-sdmmc.o
++obj-$(CONFIG_GPIOMMC)         += gpiommc.o
+ obj-$(CONFIG_SDH_BFIN)                += bfin_sdh.o
+ obj-$(CONFIG_MMC_DW)          += dw_mmc.o
+ obj-$(CONFIG_MMC_DW_PLTFM)    += dw_mmc-pltfm.o
+--- /dev/null
++++ b/include/linux/mmc/gpiommc.h
+@@ -0,0 +1,71 @@
++/*
++ * Device driver for MMC/SD cards driven over a GPIO bus.
++ *
++ * Copyright (c) 2008 Michael Buesch
++ *
++ * Licensed under the GNU/GPL version 2.
++ */
++#ifndef LINUX_GPIOMMC_H_
++#define LINUX_GPIOMMC_H_
++
++#include <linux/types.h>
++
++
++#define GPIOMMC_MAX_NAMELEN           15
++#define GPIOMMC_MAX_NAMELEN_STR               __stringify(GPIOMMC_MAX_NAMELEN)
++
++/**
++ * struct gpiommc_pins - Hardware pin assignments
++ *
++ * @gpio_di: The GPIO number of the DATA IN pin
++ * @gpio_do: The GPIO number of the DATA OUT pin
++ * @gpio_clk: The GPIO number of the CLOCK pin
++ * @gpio_cs: The GPIO number of the CHIPSELECT pin
++ * @cs_activelow: If true, the chip is considered selected if @gpio_cs is low.
++ */
++struct gpiommc_pins {
++      unsigned int gpio_di;
++      unsigned int gpio_do;
++      unsigned int gpio_clk;
++      unsigned int gpio_cs;
++      bool cs_activelow;
++};
++
++/**
++ * struct gpiommc_platform_data - Platform data for a MMC-over-SPI-GPIO device.
++ *
++ * @name: The unique name string of the device.
++ * @pins: The hardware pin assignments.
++ * @mode: The hardware mode. This is either SPI_MODE_0,
++ *        SPI_MODE_1, SPI_MODE_2 or SPI_MODE_3. See the SPI documentation.
++ * @no_spi_delay: Do not use delays in the lowlevel SPI bitbanging code.
++ *                This is not standards compliant, but may be required for some
++ *                embedded machines to gain reasonable speed.
++ * @max_bus_speed: The maximum speed of the SPI bus, in Hertz.
++ */
++struct gpiommc_platform_data {
++      char name[GPIOMMC_MAX_NAMELEN + 1];
++      struct gpiommc_pins pins;
++      u8 mode;
++      bool no_spi_delay;
++      unsigned int max_bus_speed;
++};
++
++/**
++ * GPIOMMC_PLATDEV_NAME - The platform device name string.
++ *
++ * The name string that has to be used for platform_device_alloc
++ * when allocating a gpiommc device.
++ */
++#define GPIOMMC_PLATDEV_NAME  "gpiommc"
++
++/**
++ * gpiommc_next_id - Get another platform device ID number.
++ *
++ * This returns the next platform device ID number that has to be used
++ * for platform_device_alloc. The ID is opaque and should not be used for
++ * anything else.
++ */
++int gpiommc_next_id(void);
++
++#endif /* LINUX_GPIOMMC_H_ */
+--- /dev/null
++++ b/Documentation/gpiommc.txt
+@@ -0,0 +1,97 @@
++GPIOMMC - Driver for an MMC/SD card on a bitbanging GPIO SPI bus
++================================================================
++
++The gpiommc module hooks up the mmc_spi and spi_gpio modules for running an
++MMC or SD card on GPIO pins.
++
++Two interfaces for registering a new MMC/SD card device are provided:
++A static platform-device based mechanism and a dynamic configfs based interface.
++
++
++Registering devices via platform-device
++=======================================
++
++The platform-device interface is used for registering MMC/SD devices that are
++part of the hardware platform. This is most useful only for embedded machines
++with MMC/SD devices statically connected to the platform GPIO bus.
++
++The data structures are declared in <linux/mmc/gpiommc.h>.
++
++To register a new device, define an instance of struct gpiommc_platform_data.
++This structure holds any information about how the device is hooked up to the
++GPIO pins and what hardware modes the device supports. See the docbook-style
++documentation in the header file for more information on the struct fields.
++
++Then allocate a new instance of a platform device by doing:
++
++      pdev = platform_device_alloc(GPIOMMC_PLATDEV_NAME, gpiommc_next_id());
++
++This will allocate the platform device data structures and hook it up to the
++gpiommc driver.
++Then add the gpiommc_platform_data to the platform device.
++
++      err = platform_device_add_data(pdev, pdata, sizeof(struct gpiommc_platform_data));
++
++You may free the local instance of struct gpiommc_platform_data now. (So the
++struct may be allocated on the stack, too).
++Now simply register the platform device.
++
++      err = platform_device_add(pdev);
++
++Done. The gpiommc probe routine will be invoked now and you should see a kernel
++log message for the added device.
++
++
++Registering devices via configfs
++================================
++
++MMC/SD cards connected via GPIO often are a pretty dynamic thing, as for example
++selfmade hacks for soldering an MMC/SD card to standard GPIO pins on embedded
++hardware are a common situation.
++So we provide a dynamic interface to conveniently handle adding and removing
++devices from userspace, without the need to recompile the kernel.
++
++The "gpiommc" subdirectory at the configfs mountpoint is used for handling
++the dynamic configuration.
++
++To create a new device, it must first be allocated with mkdir.
++The following command will allocate a device named "my_mmc":
++      mkdir /config/gpiommc/my_mmc
++
++There are several configuration files available in the new
++/config/gpiommc/my_mmc/ directory:
++
++gpio_data_in                  = The SPI data-IN GPIO pin number.
++gpio_data_out                 = The SPI data-OUT GPIO pin number.
++gpio_clock                    = The SPI Clock GPIO pin number.
++gpio_chipselect                       = The SPI Chipselect GPIO pin number.
++gpio_chipselect_activelow     = Boolean. If 0, Chipselect is active-HIGH.
++                                If 1, Chipselect is active-LOW.
++spi_mode                      = The SPI data mode. Can be 0-3.
++spi_delay                     = Enable all delays in the lowlevel bitbanging.
++max_bus_speed                 = The maximum SPI bus speed. In Hertz.
++
++register                      = Not a configuration parameter.
++                                Used to register the configured card
++                                with the kernel.
++
++The device must first get configured and then registered by writing "1" to
++the "register" file.
++The configuration parameters "gpio_data_in", "gpio_data_out", "gpio_clock"
++and "gpio_chipselect" are essential and _must_ be configured before writing
++"1" to the "register" file. The registration will fail, otherwise.
++
++The default values for the other parameters are:
++gpio_chipselect_activelow     = 1             (CS active-LOW)
++spi_mode                      = 0             (SPI_MODE_0)
++spi_delay                     = 1             (enabled)
++max_bus_speed                 = 5000000       (5 Mhz)
++
++Configuration values can not be changed after registration. To unregister
++the device, write a "0" to the "register" file. The configuration can be
++changed again after unregistering.
++
++To completely remove the device, simply rmdir the directory
++(/config/gpiommc/my_mmc in this example).
++There's no need to first unregister the device before removing it. That will
++be done automatically.
+--- a/MAINTAINERS
++++ b/MAINTAINERS
+@@ -4279,6 +4279,11 @@ T:      git git://linuxtv.org/anttip/media_tr
+ S:    Maintained
+ F:    drivers/media/usb/hackrf/
++GPIOMMC DRIVER
++P:    Michael Buesch
++M:    mb@bu3sch.de
++S:    Maintained
++
+ HARDWARE MONITORING
+ M:    Jean Delvare <jdelvare@suse.de>
+ M:    Guenter Roeck <linux@roeck-us.net>
diff --git a/trunk/target/linux/generic/patches-3.18/864-gpiommc_configfs_locking.patch b/trunk/target/linux/generic/patches-3.18/864-gpiommc_configfs_locking.patch
new file mode 100644 (file)
index 0000000..92815d9
--- /dev/null
@@ -0,0 +1,58 @@
+The gpiommc configfs context structure needs locking, as configfs
+does not lock access between files.
+
+--- a/drivers/mmc/host/gpiommc.c
++++ b/drivers/mmc/host/gpiommc.c
+@@ -144,6 +144,8 @@ struct gpiommc_configfs_device {
+       struct platform_device *pdev;
+       /* The configuration */
+       struct gpiommc_platform_data pdata;
++      /* Mutex to protect this structure */
++      struct mutex mutex;
+ };
+ #define GPIO_INVALID  -1
+@@ -234,6 +236,8 @@ static ssize_t gpiommc_config_attr_show(
+       unsigned int gpio;
+       int err = 0;
++      mutex_lock(&dev->mutex);
++
+       if (attr == &gpiommc_attr_DI) {
+               gpio = dev->pdata.pins.gpio_di;
+               if (gpio == GPIO_INVALID)
+@@ -294,6 +298,8 @@ static ssize_t gpiommc_config_attr_show(
+       WARN_ON(1);
+       err = -ENOSYS;
+ out:
++      mutex_unlock(&dev->mutex);
++
+       return err ? err : count;
+ }
+@@ -353,6 +359,8 @@ static ssize_t gpiommc_config_attr_store
+       int err = -EINVAL;
+       unsigned long data;
++      mutex_lock(&dev->mutex);
++
+       if (attr == &gpiommc_attr_register) {
+               err = kstrtoul(page, 10, &data);
+               if (err)
+@@ -478,6 +486,8 @@ static ssize_t gpiommc_config_attr_store
+       WARN_ON(1);
+       err = -ENOSYS;
+ out:
++      mutex_unlock(&dev->mutex);
++
+       return err ? err : count;
+ }
+@@ -514,6 +524,7 @@ static struct config_item *gpiommc_make_
+       if (!dev)
+               return NULL;
++      mutex_init(&dev->mutex);
+       config_item_init_type_name(&dev->item, name,
+                                  &gpiommc_dev_ci_type);
diff --git a/trunk/target/linux/generic/patches-3.18/870-hifn795x_byteswap.patch b/trunk/target/linux/generic/patches-3.18/870-hifn795x_byteswap.patch
new file mode 100644 (file)
index 0000000..3a37c95
--- /dev/null
@@ -0,0 +1,17 @@
+--- a/drivers/crypto/hifn_795x.c
++++ b/drivers/crypto/hifn_795x.c
+@@ -682,12 +682,12 @@ static inline u32 hifn_read_1(struct hif
+ static inline void hifn_write_0(struct hifn_device *dev, u32 reg, u32 val)
+ {
+-      writel((__force u32)cpu_to_le32(val), dev->bar[0] + reg);
++      writel(val, dev->bar[0] + reg);
+ }
+ static inline void hifn_write_1(struct hifn_device *dev, u32 reg, u32 val)
+ {
+-      writel((__force u32)cpu_to_le32(val), dev->bar[1] + reg);
++      writel(val, dev->bar[1] + reg);
+ }
+ static void hifn_wait_puc(struct hifn_device *dev)
diff --git a/trunk/target/linux/generic/patches-3.18/880-gateworks_system_controller.patch b/trunk/target/linux/generic/patches-3.18/880-gateworks_system_controller.patch
new file mode 100644 (file)
index 0000000..55e95be
--- /dev/null
@@ -0,0 +1,339 @@
+--- a/drivers/hwmon/Kconfig
++++ b/drivers/hwmon/Kconfig
+@@ -507,6 +507,15 @@ config SENSORS_G762
+         This driver can also be built as a module.  If so, the module
+         will be called g762.
++config SENSORS_GSC
++      tristate "Gateworks System Controller"
++      depends on I2C
++      help
++        If you say yes here you get support for the Gateworks System Controller.
++
++        This driver can also be built as a module. If so, the module
++        will be called gsc.
++
+ config SENSORS_GPIO_FAN
+       tristate "GPIO fan"
+       depends on GPIOLIB
+--- a/drivers/hwmon/Makefile
++++ b/drivers/hwmon/Makefile
+@@ -153,6 +153,7 @@ obj-$(CONFIG_SENSORS_W83L785TS)    += w83l7
+ obj-$(CONFIG_SENSORS_W83L786NG)       += w83l786ng.o
+ obj-$(CONFIG_SENSORS_WM831X)  += wm831x-hwmon.o
+ obj-$(CONFIG_SENSORS_WM8350)  += wm8350-hwmon.o
++obj-$(CONFIG_SENSORS_GSC)     += gsc.o
+ obj-$(CONFIG_PMBUS)           += pmbus/
+--- /dev/null
++++ b/drivers/hwmon/gsc.c
+@@ -0,0 +1,308 @@
++/*
++ * A hwmon driver for the Gateworks System Controller 
++ * Copyright (C) 2009 Gateworks Corporation
++ *
++ * Author: Chris Lang <clang@gateworks.com>
++ *
++ * This program is free software; you can redistribute it and/or modify
++ * it under the terms of the GNU General Public License,
++ * as published by the Free Software Foundation - version 2.
++ */
++
++#include <linux/module.h>
++#include <linux/i2c.h>
++#include <linux/hwmon.h>
++#include <linux/hwmon-sysfs.h>
++#include <linux/err.h>
++#include <linux/slab.h>
++
++#define DRV_VERSION "0.2"
++
++enum chips { gsp };
++
++/* AD7418 registers */
++#define GSP_REG_TEMP_IN               0x00
++#define GSP_REG_VIN           0x02
++#define GSP_REG_3P3           0x05
++#define GSP_REG_BAT           0x08
++#define GSP_REG_5P0           0x0b
++#define GSP_REG_CORE          0x0e
++#define GSP_REG_CPU1          0x11
++#define GSP_REG_CPU2          0x14
++#define GSP_REG_DRAM          0x17
++#define GSP_REG_EXT_BAT               0x1a
++#define GSP_REG_IO1           0x1d
++#define GSP_REG_IO2           0x20
++#define GSP_REG_PCIE          0x23
++#define GSP_REG_CURRENT               0x26
++#define GSP_FAN_0             0x2C
++#define GSP_FAN_1             0x2E
++#define GSP_FAN_2             0x30
++#define GSP_FAN_3             0x32
++#define GSP_FAN_4             0x34
++#define GSP_FAN_5             0x36
++
++struct gsp_sensor_info {
++      const char* name;
++      int reg;
++};
++
++static const struct gsp_sensor_info gsp_sensors[] = {
++      {"temp", GSP_REG_TEMP_IN},
++      {"vin", GSP_REG_VIN},
++      {"3p3", GSP_REG_3P3},
++      {"bat", GSP_REG_BAT},
++      {"5p0", GSP_REG_5P0},
++      {"core", GSP_REG_CORE},
++      {"cpu1", GSP_REG_CPU1},
++      {"cpu2", GSP_REG_CPU2},
++      {"dram", GSP_REG_DRAM},
++      {"ext_bat", GSP_REG_EXT_BAT},
++      {"io1", GSP_REG_IO1},
++      {"io2", GSP_REG_IO2},
++      {"pci2", GSP_REG_PCIE},
++      {"current", GSP_REG_CURRENT},
++      {"fan_point0", GSP_FAN_0},
++      {"fan_point1", GSP_FAN_1},
++      {"fan_point2", GSP_FAN_2},
++      {"fan_point3", GSP_FAN_3},
++      {"fan_point4", GSP_FAN_4},
++      {"fan_point5", GSP_FAN_5},
++};
++
++struct gsp_data {
++      struct device           *hwmon_dev;
++      struct attribute_group  attrs;
++      enum chips              type;
++};
++
++static int gsp_probe(struct i2c_client *client,
++                      const struct i2c_device_id *id);
++static int gsp_remove(struct i2c_client *client);
++
++static const struct i2c_device_id gsp_id[] = {
++      { "gsp", 0 },
++      { }
++};
++MODULE_DEVICE_TABLE(i2c, gsp_id);
++
++static struct i2c_driver gsp_driver = {
++      .driver = {
++              .name   = "gsp",
++      },
++      .probe          = gsp_probe,
++      .remove         = gsp_remove,
++      .id_table       = gsp_id,
++};
++
++/* All registers are word-sized, except for the configuration registers.
++ * AD7418 uses a high-byte first convention. Do NOT use those functions to
++ * access the configuration registers CONF and CONF2, as they are byte-sized.
++ */
++static inline int gsp_read(struct i2c_client *client, u8 reg)
++{
++      unsigned int adc = 0;
++      if (reg == GSP_REG_TEMP_IN || reg > GSP_REG_CURRENT)
++      {
++              adc |= i2c_smbus_read_byte_data(client, reg);
++              adc |= i2c_smbus_read_byte_data(client, reg + 1) << 8;
++              return adc;
++      }
++      else
++      {
++              adc |= i2c_smbus_read_byte_data(client, reg);
++              adc |= i2c_smbus_read_byte_data(client, reg + 1) << 8;
++              adc |= i2c_smbus_read_byte_data(client, reg + 2) << 16;
++              return adc;
++      }
++}
++
++static inline int gsp_write(struct i2c_client *client, u8 reg, u16 value)
++{
++      i2c_smbus_write_byte_data(client, reg, value & 0xff);
++      i2c_smbus_write_byte_data(client, reg + 1, ((value >> 8) & 0xff));
++      return 1;
++}
++
++static ssize_t show_adc(struct device *dev, struct device_attribute *devattr,
++                      char *buf)
++{
++      struct sensor_device_attribute *attr = to_sensor_dev_attr(devattr);
++      struct i2c_client *client = to_i2c_client(dev);
++      return sprintf(buf, "%d\n", gsp_read(client, gsp_sensors[attr->index].reg));
++}
++
++static ssize_t show_label(struct device *dev,
++                      struct device_attribute *devattr, char *buf)
++{
++      struct sensor_device_attribute *attr = to_sensor_dev_attr(devattr);
++
++      return sprintf(buf, "%s\n", gsp_sensors[attr->index].name);
++}
++
++static ssize_t store_fan(struct device *dev,
++                      struct device_attribute *devattr, const char *buf, size_t count)
++{
++      u16 val;
++      struct sensor_device_attribute *attr = to_sensor_dev_attr(devattr);
++      struct i2c_client *client = to_i2c_client(dev);
++      val = simple_strtoul(buf, NULL, 10);
++      gsp_write(client, gsp_sensors[attr->index].reg, val);
++      return count;
++}
++
++static SENSOR_DEVICE_ATTR(temp0_input, S_IRUGO, show_adc, NULL, 0);
++static SENSOR_DEVICE_ATTR(temp0_label, S_IRUGO, show_label, NULL, 0);
++
++static SENSOR_DEVICE_ATTR(in0_input, S_IRUGO, show_adc, NULL, 1);
++static SENSOR_DEVICE_ATTR(in0_label, S_IRUGO, show_label, NULL, 1);
++static SENSOR_DEVICE_ATTR(in1_input, S_IRUGO, show_adc, NULL, 2);
++static SENSOR_DEVICE_ATTR(in1_label, S_IRUGO, show_label, NULL, 2);
++static SENSOR_DEVICE_ATTR(in2_input, S_IRUGO, show_adc, NULL, 3);
++static SENSOR_DEVICE_ATTR(in2_label, S_IRUGO, show_label, NULL, 3);
++static SENSOR_DEVICE_ATTR(in3_input, S_IRUGO, show_adc, NULL, 4);
++static SENSOR_DEVICE_ATTR(in3_label, S_IRUGO, show_label, NULL, 4);
++static SENSOR_DEVICE_ATTR(in4_input, S_IRUGO, show_adc, NULL, 5);
++static SENSOR_DEVICE_ATTR(in4_label, S_IRUGO, show_label, NULL, 5);
++static SENSOR_DEVICE_ATTR(in5_input, S_IRUGO, show_adc, NULL, 6);
++static SENSOR_DEVICE_ATTR(in5_label, S_IRUGO, show_label, NULL, 6);
++static SENSOR_DEVICE_ATTR(in6_input, S_IRUGO, show_adc, NULL, 7);
++static SENSOR_DEVICE_ATTR(in6_label, S_IRUGO, show_label, NULL, 7);
++static SENSOR_DEVICE_ATTR(in7_input, S_IRUGO, show_adc, NULL, 8);
++static SENSOR_DEVICE_ATTR(in7_label, S_IRUGO, show_label, NULL, 8);
++static SENSOR_DEVICE_ATTR(in8_input, S_IRUGO, show_adc, NULL, 9);
++static SENSOR_DEVICE_ATTR(in8_label, S_IRUGO, show_label, NULL, 9);
++static SENSOR_DEVICE_ATTR(in9_input, S_IRUGO, show_adc, NULL, 10);
++static SENSOR_DEVICE_ATTR(in9_label, S_IRUGO, show_label, NULL, 10);
++static SENSOR_DEVICE_ATTR(in10_input, S_IRUGO, show_adc, NULL, 11);
++static SENSOR_DEVICE_ATTR(in10_label, S_IRUGO, show_label, NULL, 11);
++static SENSOR_DEVICE_ATTR(in11_input, S_IRUGO, show_adc, NULL, 12);
++static SENSOR_DEVICE_ATTR(in11_label, S_IRUGO, show_label, NULL, 12);
++static SENSOR_DEVICE_ATTR(in12_input, S_IRUGO, show_adc, NULL, 13);
++static SENSOR_DEVICE_ATTR(in12_label, S_IRUGO, show_label, NULL, 13);
++
++static SENSOR_DEVICE_ATTR(fan0_point0, S_IRUGO | S_IWUSR, show_adc, store_fan, 14);
++static SENSOR_DEVICE_ATTR(fan0_point1, S_IRUGO | S_IWUSR, show_adc, store_fan, 15);
++static SENSOR_DEVICE_ATTR(fan0_point2, S_IRUGO | S_IWUSR, show_adc, store_fan, 16);
++static SENSOR_DEVICE_ATTR(fan0_point3, S_IRUGO | S_IWUSR, show_adc, store_fan, 17);
++static SENSOR_DEVICE_ATTR(fan0_point4, S_IRUGO | S_IWUSR, show_adc, store_fan, 18);
++static SENSOR_DEVICE_ATTR(fan0_point5, S_IRUGO | S_IWUSR, show_adc, store_fan, 19);
++
++static struct attribute *gsp_attributes[] = {
++      &sensor_dev_attr_temp0_input.dev_attr.attr,
++      &sensor_dev_attr_in0_input.dev_attr.attr,
++      &sensor_dev_attr_in1_input.dev_attr.attr,
++      &sensor_dev_attr_in2_input.dev_attr.attr,
++      &sensor_dev_attr_in3_input.dev_attr.attr,
++      &sensor_dev_attr_in4_input.dev_attr.attr,
++      &sensor_dev_attr_in5_input.dev_attr.attr,
++      &sensor_dev_attr_in6_input.dev_attr.attr,
++      &sensor_dev_attr_in7_input.dev_attr.attr,
++      &sensor_dev_attr_in8_input.dev_attr.attr,
++      &sensor_dev_attr_in9_input.dev_attr.attr,
++      &sensor_dev_attr_in10_input.dev_attr.attr,
++      &sensor_dev_attr_in11_input.dev_attr.attr,
++      &sensor_dev_attr_in12_input.dev_attr.attr,
++
++      &sensor_dev_attr_temp0_label.dev_attr.attr,
++      &sensor_dev_attr_in0_label.dev_attr.attr,
++      &sensor_dev_attr_in1_label.dev_attr.attr,
++      &sensor_dev_attr_in2_label.dev_attr.attr,
++      &sensor_dev_attr_in3_label.dev_attr.attr,
++      &sensor_dev_attr_in4_label.dev_attr.attr,
++      &sensor_dev_attr_in5_label.dev_attr.attr,
++      &sensor_dev_attr_in6_label.dev_attr.attr,
++      &sensor_dev_attr_in7_label.dev_attr.attr,
++      &sensor_dev_attr_in8_label.dev_attr.attr,
++      &sensor_dev_attr_in9_label.dev_attr.attr,
++      &sensor_dev_attr_in10_label.dev_attr.attr,
++      &sensor_dev_attr_in11_label.dev_attr.attr,
++      &sensor_dev_attr_in12_label.dev_attr.attr,
++
++      &sensor_dev_attr_fan0_point0.dev_attr.attr,
++      &sensor_dev_attr_fan0_point1.dev_attr.attr,
++      &sensor_dev_attr_fan0_point2.dev_attr.attr,
++      &sensor_dev_attr_fan0_point3.dev_attr.attr,
++      &sensor_dev_attr_fan0_point4.dev_attr.attr,
++      &sensor_dev_attr_fan0_point5.dev_attr.attr,
++      NULL
++};
++
++
++static int gsp_probe(struct i2c_client *client,
++                       const struct i2c_device_id *id)
++{
++      struct i2c_adapter *adapter = client->adapter;
++      struct gsp_data *data;
++      int err;
++
++      if (!i2c_check_functionality(adapter, I2C_FUNC_SMBUS_BYTE_DATA |
++                                      I2C_FUNC_SMBUS_WORD_DATA)) {
++              err = -EOPNOTSUPP;
++              goto exit;
++      }
++
++      if (!(data = kzalloc(sizeof(struct gsp_data), GFP_KERNEL))) {
++              err = -ENOMEM;
++              goto exit;
++      }
++
++      i2c_set_clientdata(client, data);
++
++      data->type = id->driver_data;
++
++      switch (data->type) {
++      case 0:
++              data->attrs.attrs = gsp_attributes;
++              break;
++      }
++
++      dev_info(&client->dev, "%s chip found\n", client->name);
++
++      /* Register sysfs hooks */
++      if ((err = sysfs_create_group(&client->dev.kobj, &data->attrs)))
++              goto exit_free;
++
++      data->hwmon_dev = hwmon_device_register(&client->dev);
++      if (IS_ERR(data->hwmon_dev)) {
++              err = PTR_ERR(data->hwmon_dev);
++              goto exit_remove;
++      }
++
++      return 0;
++
++exit_remove:
++      sysfs_remove_group(&client->dev.kobj, &data->attrs);
++exit_free:
++      kfree(data);
++exit:
++      return err;
++}
++
++static int gsp_remove(struct i2c_client *client)
++{
++      struct gsp_data *data = i2c_get_clientdata(client);
++      hwmon_device_unregister(data->hwmon_dev);
++      sysfs_remove_group(&client->dev.kobj, &data->attrs);
++      kfree(data);
++      return 0;
++}
++
++static int __init gsp_init(void)
++{
++      return i2c_add_driver(&gsp_driver);
++}
++
++static void __exit gsp_exit(void)
++{
++      i2c_del_driver(&gsp_driver);
++}
++
++module_init(gsp_init);
++module_exit(gsp_exit);
++
++MODULE_AUTHOR("Chris Lang <clang@gateworks.com>");
++MODULE_DESCRIPTION("GSC HWMON driver");
++MODULE_LICENSE("GPL");
++MODULE_VERSION(DRV_VERSION);
++
diff --git a/trunk/target/linux/generic/patches-3.18/890-8250_optional_sysrq.patch b/trunk/target/linux/generic/patches-3.18/890-8250_optional_sysrq.patch
new file mode 100644 (file)
index 0000000..8815e4c
--- /dev/null
@@ -0,0 +1,24 @@
+--- a/drivers/tty/serial/8250/8250_core.c
++++ b/drivers/tty/serial/8250/8250_core.c
+@@ -16,7 +16,7 @@
+  *  membase is an 'ioremapped' cookie.
+  */
+-#if defined(CONFIG_SERIAL_8250_CONSOLE) && defined(CONFIG_MAGIC_SYSRQ)
++#if defined(CONFIG_SERIAL_8250_SYSRQ) && defined(CONFIG_MAGIC_SYSRQ)
+ #define SUPPORT_SYSRQ
+ #endif
+--- a/drivers/tty/serial/8250/Kconfig
++++ b/drivers/tty/serial/8250/Kconfig
+@@ -91,6 +91,10 @@ config SERIAL_8250_CONSOLE
+         If unsure, say N.
++config SERIAL_8250_SYSRQ
++      bool "Magic sysrq support on 8250/16550 devices"
++      depends on SERIAL_8250_CONSOLE
++
+ config SERIAL_8250_GSC
+       tristate
+       depends on SERIAL_8250 && GSC
diff --git a/trunk/target/linux/generic/patches-3.18/900-slab_maxsize.patch b/trunk/target/linux/generic/patches-3.18/900-slab_maxsize.patch
new file mode 100644 (file)
index 0000000..9375305
--- /dev/null
@@ -0,0 +1,13 @@
+--- a/include/linux/slab.h
++++ b/include/linux/slab.h
+@@ -172,8 +172,8 @@ size_t ksize(const void *);
+  * to do various tricks to work around compiler limitations in order to
+  * ensure proper constant folding.
+  */
+-#define KMALLOC_SHIFT_HIGH    ((MAX_ORDER + PAGE_SHIFT - 1) <= 25 ? \
+-                              (MAX_ORDER + PAGE_SHIFT - 1) : 25)
++#define KMALLOC_SHIFT_HIGH    ((MAX_ORDER + PAGE_SHIFT - 1) <= 17 ? \
++                              (MAX_ORDER + PAGE_SHIFT - 1) : 17)
+ #define KMALLOC_SHIFT_MAX     KMALLOC_SHIFT_HIGH
+ #ifndef KMALLOC_SHIFT_LOW
+ #define KMALLOC_SHIFT_LOW     5
diff --git a/trunk/target/linux/generic/patches-3.18/901-debloat_sock_diag.patch b/trunk/target/linux/generic/patches-3.18/901-debloat_sock_diag.patch
new file mode 100644 (file)
index 0000000..d172d1b
--- /dev/null
@@ -0,0 +1,45 @@
+--- a/net/Kconfig
++++ b/net/Kconfig
+@@ -89,6 +89,9 @@ source "net/netlabel/Kconfig"
+ endif # if INET
++config SOCK_DIAG
++      bool
++
+ config NETWORK_SECMARK
+       bool "Security Marking"
+       help
+--- a/net/core/Makefile
++++ b/net/core/Makefile
+@@ -9,8 +9,9 @@ obj-$(CONFIG_SYSCTL) += sysctl_net_core.
+ obj-y              += dev.o ethtool.o dev_addr_lists.o dst.o netevent.o \
+                       neighbour.o rtnetlink.o utils.o link_watch.o filter.o \
+-                      sock_diag.o dev_ioctl.o tso.o
++                      dev_ioctl.o tso.o
++obj-$(CONFIG_SOCK_DIAG) += sock_diag.o
+ obj-$(CONFIG_XFRM) += flow.o
+ obj-y += net-sysfs.o
+ obj-$(CONFIG_PROC_FS) += net-procfs.o
+--- a/net/ipv4/Kconfig
++++ b/net/ipv4/Kconfig
+@@ -419,6 +419,7 @@ config INET_LRO
+ config INET_DIAG
+       tristate "INET: socket monitoring interface"
++      select SOCK_DIAG
+       default y
+       ---help---
+         Support for INET (TCP, DCCP, etc) socket monitoring interface used by
+--- a/net/unix/Kconfig
++++ b/net/unix/Kconfig
+@@ -22,6 +22,7 @@ config UNIX
+ config UNIX_DIAG
+       tristate "UNIX: socket monitoring interface"
+       depends on UNIX
++      select SOCK_DIAG
+       default n
+       ---help---
+         Support for UNIX socket monitoring interface used by the ss tool.
diff --git a/trunk/target/linux/generic/patches-3.18/902-debloat_proc.patch b/trunk/target/linux/generic/patches-3.18/902-debloat_proc.patch
new file mode 100644 (file)
index 0000000..43885ad
--- /dev/null
@@ -0,0 +1,341 @@
+--- a/fs/locks.c
++++ b/fs/locks.c
+@@ -2611,6 +2611,8 @@ static const struct file_operations proc
+ static int __init proc_locks_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
+       proc_create("locks", 0, NULL, &proc_locks_operations);
+       return 0;
+ }
+--- a/fs/proc/Kconfig
++++ b/fs/proc/Kconfig
+@@ -71,3 +71,8 @@ config PROC_PAGE_MONITOR
+         /proc/pid/smaps, /proc/pid/clear_refs, /proc/pid/pagemap,
+         /proc/kpagecount, and /proc/kpageflags. Disabling these
+           interfaces will reduce the size of the kernel by approximately 4kb.
++
++config PROC_STRIPPED
++      default n
++      depends on EXPERT
++      bool "Strip non-essential /proc functionality to reduce code size"
+--- a/fs/proc/consoles.c
++++ b/fs/proc/consoles.c
+@@ -106,6 +106,9 @@ static const struct file_operations proc
+ static int __init proc_consoles_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
++
+       proc_create("consoles", 0, NULL, &proc_consoles_operations);
+       return 0;
+ }
+--- a/fs/proc/proc_tty.c
++++ b/fs/proc/proc_tty.c
+@@ -143,7 +143,10 @@ static const struct file_operations proc
+ void proc_tty_register_driver(struct tty_driver *driver)
+ {
+       struct proc_dir_entry *ent;
+-              
++
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
++
+       if (!driver->driver_name || driver->proc_entry ||
+           !driver->ops->proc_fops)
+               return;
+@@ -160,6 +163,9 @@ void proc_tty_unregister_driver(struct t
+ {
+       struct proc_dir_entry *ent;
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
++
+       ent = driver->proc_entry;
+       if (!ent)
+               return;
+@@ -174,6 +180,9 @@ void proc_tty_unregister_driver(struct t
+  */
+ void __init proc_tty_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
++
+       if (!proc_mkdir("tty", NULL))
+               return;
+       proc_mkdir("tty/ldisc", NULL);  /* Preserved: it's userspace visible */
+--- a/kernel/exec_domain.c
++++ b/kernel/exec_domain.c
+@@ -176,6 +176,8 @@ static const struct file_operations exec
+ static int __init proc_execdomains_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
+       proc_create("execdomains", 0, NULL, &execdomains_proc_fops);
+       return 0;
+ }
+--- a/kernel/irq/proc.c
++++ b/kernel/irq/proc.c
+@@ -328,6 +328,9 @@ void register_irq_proc(unsigned int irq,
+ {
+       char name [MAX_NAMELEN];
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED) && !IS_ENABLED(CONFIG_SMP))
++              return;
++
+       if (!root_irq_dir || (desc->irq_data.chip == &no_irq_chip) || desc->dir)
+               return;
+@@ -364,6 +367,9 @@ void unregister_irq_proc(unsigned int ir
+ {
+       char name [MAX_NAMELEN];
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED) && !IS_ENABLED(CONFIG_SMP))
++              return;
++
+       if (!root_irq_dir || !desc->dir)
+               return;
+ #ifdef CONFIG_SMP
+@@ -399,6 +405,9 @@ void init_irq_proc(void)
+       unsigned int irq;
+       struct irq_desc *desc;
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED) && !IS_ENABLED(CONFIG_SMP))
++              return;
++
+       /* create /proc/irq */
+       root_irq_dir = proc_mkdir("irq", NULL);
+       if (!root_irq_dir)
+--- a/kernel/time/timer_list.c
++++ b/kernel/time/timer_list.c
+@@ -362,6 +362,8 @@ static int __init init_timer_list_procfs
+ {
+       struct proc_dir_entry *pe;
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
+       pe = proc_create("timer_list", 0444, NULL, &timer_list_fops);
+       if (!pe)
+               return -ENOMEM;
+--- a/mm/vmalloc.c
++++ b/mm/vmalloc.c
+@@ -2662,6 +2662,8 @@ static const struct file_operations proc
+ static int __init proc_vmalloc_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
+       proc_create("vmallocinfo", S_IRUSR, NULL, &proc_vmalloc_operations);
+       return 0;
+ }
+--- a/mm/vmstat.c
++++ b/mm/vmstat.c
+@@ -1424,10 +1424,12 @@ static int __init setup_vmstat(void)
+       cpu_notifier_register_done();
+ #endif
+ #ifdef CONFIG_PROC_FS
+-      proc_create("buddyinfo", S_IRUGO, NULL, &fragmentation_file_operations);
+-      proc_create("pagetypeinfo", S_IRUGO, NULL, &pagetypeinfo_file_ops);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED)) {
++              proc_create("buddyinfo", S_IRUGO, NULL, &fragmentation_file_operations);
++              proc_create("pagetypeinfo", S_IRUGO, NULL, &pagetypeinfo_file_ops);
++              proc_create("zoneinfo", S_IRUGO, NULL, &proc_zoneinfo_file_operations);
++      }
+       proc_create("vmstat", S_IRUGO, NULL, &proc_vmstat_file_operations);
+-      proc_create("zoneinfo", S_IRUGO, NULL, &proc_zoneinfo_file_operations);
+ #endif
+       return 0;
+ }
+--- a/net/8021q/vlanproc.c
++++ b/net/8021q/vlanproc.c
+@@ -127,6 +127,9 @@ void vlan_proc_cleanup(struct net *net)
+ {
+       struct vlan_net *vn = net_generic(net, vlan_net_id);
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
++
+       if (vn->proc_vlan_conf)
+               remove_proc_entry(name_conf, vn->proc_vlan_dir);
+@@ -146,6 +149,9 @@ int __net_init vlan_proc_init(struct net
+ {
+       struct vlan_net *vn = net_generic(net, vlan_net_id);
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
++
+       vn->proc_vlan_dir = proc_net_mkdir(net, name_root, net->proc_net);
+       if (!vn->proc_vlan_dir)
+               goto err;
+--- a/net/core/sock.c
++++ b/net/core/sock.c
+@@ -2915,6 +2915,8 @@ static __net_initdata struct pernet_oper
+ static int __init proto_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
+       return register_pernet_subsys(&proto_net_ops);
+ }
+--- a/net/ipv4/fib_trie.c
++++ b/net/ipv4/fib_trie.c
+@@ -2490,10 +2490,12 @@ static const struct file_operations fib_
+ int __net_init fib_proc_init(struct net *net)
+ {
+-      if (!proc_create("fib_trie", S_IRUGO, net->proc_net, &fib_trie_fops))
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED) &&
++              !proc_create("fib_trie", S_IRUGO, net->proc_net, &fib_trie_fops))
+               goto out1;
+-      if (!proc_create("fib_triestat", S_IRUGO, net->proc_net,
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED) &&
++              !proc_create("fib_triestat", S_IRUGO, net->proc_net,
+                        &fib_triestat_fops))
+               goto out2;
+@@ -2503,17 +2505,21 @@ int __net_init fib_proc_init(struct net 
+       return 0;
+ out3:
+-      remove_proc_entry("fib_triestat", net->proc_net);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED))
++              remove_proc_entry("fib_triestat", net->proc_net);
+ out2:
+-      remove_proc_entry("fib_trie", net->proc_net);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED))
++              remove_proc_entry("fib_trie", net->proc_net);
+ out1:
+       return -ENOMEM;
+ }
+ void __net_exit fib_proc_exit(struct net *net)
+ {
+-      remove_proc_entry("fib_trie", net->proc_net);
+-      remove_proc_entry("fib_triestat", net->proc_net);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED)) {
++              remove_proc_entry("fib_trie", net->proc_net);
++              remove_proc_entry("fib_triestat", net->proc_net);
++      }
+       remove_proc_entry("route", net->proc_net);
+ }
+--- a/net/ipv4/proc.c
++++ b/net/ipv4/proc.c
+@@ -524,6 +524,9 @@ static __net_initdata struct pernet_oper
+ int __init ip_misc_proc_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
++
+       return register_pernet_subsys(&ip_proc_ops);
+ }
+--- a/net/ipv4/route.c
++++ b/net/ipv4/route.c
+@@ -416,6 +416,9 @@ static struct pernet_operations ip_rt_pr
+ static int __init ip_rt_proc_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return 0;
++
+       return register_pernet_subsys(&ip_rt_proc_ops);
+ }
+--- a/ipc/msg.c
++++ b/ipc/msg.c
+@@ -1072,6 +1072,9 @@ void __init msg_init(void)
+       printk(KERN_INFO "msgmni has been set to %d\n",
+               init_ipc_ns.msg_ctlmni);
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
++
+       ipc_init_proc_interface("sysvipc/msg",
+                               "       key      msqid perms      cbytes       qnum lspid lrpid   uid   gid  cuid  cgid      stime      rtime      ctime\n",
+                               IPC_MSG_IDS, sysvipc_msg_proc_show);
+--- a/ipc/sem.c
++++ b/ipc/sem.c
+@@ -191,6 +191,8 @@ void sem_exit_ns(struct ipc_namespace *n
+ void __init sem_init(void)
+ {
+       sem_init_ns(&init_ipc_ns);
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
+       ipc_init_proc_interface("sysvipc/sem",
+                               "       key      semid perms      nsems   uid   gid  cuid  cgid      otime      ctime\n",
+                               IPC_SEM_IDS, sysvipc_sem_proc_show);
+--- a/ipc/shm.c
++++ b/ipc/shm.c
+@@ -118,6 +118,8 @@ pure_initcall(ipc_ns_init);
+ void __init shm_init(void)
+ {
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
+       ipc_init_proc_interface("sysvipc/shm",
+ #if BITS_PER_LONG <= 32
+                               "       key      shmid perms       size  cpid  lpid nattch   uid   gid  cuid  cgid      atime      dtime      ctime        rss       swap\n",
+--- a/ipc/util.c
++++ b/ipc/util.c
+@@ -161,6 +161,9 @@ void __init ipc_init_proc_interface(cons
+       struct proc_dir_entry *pde;
+       struct ipc_proc_iface *iface;
++      if (IS_ENABLED(CONFIG_PROC_STRIPPED))
++              return;
++
+       iface = kmalloc(sizeof(*iface), GFP_KERNEL);
+       if (!iface)
+               return;
+--- a/net/core/net-procfs.c
++++ b/net/core/net-procfs.c
+@@ -318,10 +318,12 @@ static int __net_init dev_proc_net_init(
+       if (!proc_create("dev", S_IRUGO, net->proc_net, &dev_seq_fops))
+               goto out;
+-      if (!proc_create("softnet_stat", S_IRUGO, net->proc_net,
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED) &&
++              !proc_create("softnet_stat", S_IRUGO, net->proc_net,
+                        &softnet_seq_fops))
+               goto out_dev;
+-      if (!proc_create("ptype", S_IRUGO, net->proc_net, &ptype_seq_fops))
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED) &&
++              !proc_create("ptype", S_IRUGO, net->proc_net, &ptype_seq_fops))
+               goto out_softnet;
+       if (wext_proc_init(net))
+@@ -330,9 +332,11 @@ static int __net_init dev_proc_net_init(
+ out:
+       return rc;
+ out_ptype:
+-      remove_proc_entry("ptype", net->proc_net);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED))
++              remove_proc_entry("ptype", net->proc_net);
+ out_softnet:
+-      remove_proc_entry("softnet_stat", net->proc_net);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED))
++              remove_proc_entry("softnet_stat", net->proc_net);
+ out_dev:
+       remove_proc_entry("dev", net->proc_net);
+       goto out;
+@@ -342,8 +346,10 @@ static void __net_exit dev_proc_net_exit
+ {
+       wext_proc_exit(net);
+-      remove_proc_entry("ptype", net->proc_net);
+-      remove_proc_entry("softnet_stat", net->proc_net);
++      if (!IS_ENABLED(CONFIG_PROC_STRIPPED)) {
++              remove_proc_entry("ptype", net->proc_net);
++              remove_proc_entry("softnet_stat", net->proc_net);
++      }
+       remove_proc_entry("dev", net->proc_net);
+ }
diff --git a/trunk/target/linux/generic/patches-3.18/903-debloat_direct_io.patch b/trunk/target/linux/generic/patches-3.18/903-debloat_direct_io.patch
new file mode 100644 (file)
index 0000000..c633ed1
--- /dev/null
@@ -0,0 +1,83 @@
+--- a/fs/Kconfig
++++ b/fs/Kconfig
+@@ -62,6 +62,11 @@ config FILE_LOCKING
+           for filesystems like NFS and for the flock() system
+           call. Disabling this option saves about 11k.
++config DIRECT_IO
++      bool "Enable O_DIRECT support" if EXPERT
++      depends on BLOCK
++      default y
++
+ source "fs/notify/Kconfig"
+ source "fs/quota/Kconfig"
+--- a/fs/Makefile
++++ b/fs/Makefile
+@@ -14,7 +14,8 @@ obj-y :=     open.o read_write.o file_table.
+               stack.o fs_struct.o statfs.o fs_pin.o
+ ifeq ($(CONFIG_BLOCK),y)
+-obj-y +=      buffer.o block_dev.o direct-io.o mpage.o
++obj-y +=      buffer.o block_dev.o mpage.o
++obj-$(CONFIG_DIRECT_IO) += direct-io.o
+ else
+ obj-y +=      no-block.o
+ endif
+--- a/include/linux/fs.h
++++ b/include/linux/fs.h
+@@ -2530,12 +2530,25 @@ enum {
+       DIO_ASYNC_EXTEND = 0x04,
+ };
++#ifdef CONFIG_DIRECT_IO
+ void dio_end_io(struct bio *bio, int error);
+ ssize_t __blockdev_direct_IO(int rw, struct kiocb *iocb, struct inode *inode,
+       struct block_device *bdev, struct iov_iter *iter, loff_t offset,
+       get_block_t get_block, dio_iodone_t end_io,
+       dio_submit_t submit_io, int flags);
++#else
++static inline void dio_end_io(struct bio *bio, int error)
++{
++}
++static inline ssize_t __blockdev_direct_IO(int rw, struct kiocb *iocb, struct inode *inode,
++      struct block_device *bdev, struct iov_iter *iter, loff_t offset,
++      get_block_t get_block, dio_iodone_t end_io,
++      dio_submit_t submit_io, int flags)
++{
++      return -EOPNOTSUPP;
++}
++#endif
+ static inline ssize_t blockdev_direct_IO(int rw, struct kiocb *iocb,
+               struct inode *inode, struct iov_iter *iter, loff_t offset,
+--- a/fs/fcntl.c
++++ b/fs/fcntl.c
+@@ -52,8 +52,10 @@ static int setfl(int fd, struct file * f
+                  arg |= O_NONBLOCK;
+       if (arg & O_DIRECT) {
++#ifdef CONFIG_DIRECT_IO
+               if (!filp->f_mapping || !filp->f_mapping->a_ops ||
+                       !filp->f_mapping->a_ops->direct_IO)
++#endif
+                               return -EINVAL;
+       }
+--- a/fs/open.c
++++ b/fs/open.c
+@@ -655,9 +655,12 @@ int open_check_o_direct(struct file *f)
+ {
+       /* NB: we're sure to have correct a_ops only after f_op->open */
+       if (f->f_flags & O_DIRECT) {
++#ifdef CONFIG_DIRECT_IO
+               if (!f->f_mapping->a_ops ||
+                   ((!f->f_mapping->a_ops->direct_IO) &&
+-                  (!f->f_mapping->a_ops->get_xip_mem))) {
++                  (!f->f_mapping->a_ops->get_xip_mem)))
++#endif
++              {
+                       return -EINVAL;
+               }
+       }
diff --git a/trunk/target/linux/generic/patches-3.18/910-kobject_uevent.patch b/trunk/target/linux/generic/patches-3.18/910-kobject_uevent.patch
new file mode 100644 (file)
index 0000000..f69294b
--- /dev/null
@@ -0,0 +1,21 @@
+--- a/lib/kobject_uevent.c
++++ b/lib/kobject_uevent.c
+@@ -53,6 +53,18 @@ static const char *kobject_actions[] = {
+       [KOBJ_OFFLINE] =        "offline",
+ };
++u64 uevent_next_seqnum(void)
++{
++      u64 seq;
++
++      mutex_lock(&uevent_sock_mutex);
++      seq = ++uevent_seqnum;
++      mutex_unlock(&uevent_sock_mutex);
++
++      return seq;
++}
++EXPORT_SYMBOL_GPL(uevent_next_seqnum);
++
+ /**
+  * kobject_action_type - translate action string to numeric type
+  *
diff --git a/trunk/target/linux/generic/patches-3.18/911-kobject_add_broadcast_uevent.patch b/trunk/target/linux/generic/patches-3.18/911-kobject_add_broadcast_uevent.patch
new file mode 100644 (file)
index 0000000..6e4c140
--- /dev/null
@@ -0,0 +1,65 @@
+--- a/include/linux/kobject.h
++++ b/include/linux/kobject.h
+@@ -32,6 +32,8 @@
+ #define UEVENT_NUM_ENVP                       32      /* number of env pointers */
+ #define UEVENT_BUFFER_SIZE            2048    /* buffer for the variables */
++struct sk_buff;
++
+ #ifdef CONFIG_UEVENT_HELPER
+ /* path to the userspace helper executed on an event */
+ extern char uevent_helper[];
+@@ -221,4 +223,7 @@ int add_uevent_var(struct kobj_uevent_en
+ int kobject_action_type(const char *buf, size_t count,
+                       enum kobject_action *type);
++int broadcast_uevent(struct sk_buff *skb, __u32 pid, __u32 group,
++                   gfp_t allocation);
++
+ #endif /* _KOBJECT_H_ */
+--- a/lib/kobject_uevent.c
++++ b/lib/kobject_uevent.c
+@@ -424,6 +424,43 @@ int add_uevent_var(struct kobj_uevent_en
+ EXPORT_SYMBOL_GPL(add_uevent_var);
+ #if defined(CONFIG_NET)
++int broadcast_uevent(struct sk_buff *skb, __u32 pid, __u32 group,
++                   gfp_t allocation)
++{
++      struct uevent_sock *ue_sk;
++      int err = 0;
++
++      /* send netlink message */
++      mutex_lock(&uevent_sock_mutex);
++      list_for_each_entry(ue_sk, &uevent_sock_list, list) {
++              struct sock *uevent_sock = ue_sk->sk;
++              struct sk_buff *skb2;
++
++              skb2 = skb_clone(skb, allocation);
++              if (!skb2)
++                      break;
++
++              err = netlink_broadcast(uevent_sock, skb2, pid, group,
++                                      allocation);
++              if (err)
++                      break;
++      }
++      mutex_unlock(&uevent_sock_mutex);
++
++      kfree_skb(skb);
++      return err;
++}
++#else
++int broadcast_uevent(struct sk_buff *skb, __u32 pid, __u32 group,
++                   gfp_t allocation)
++{
++      kfree_skb(skb);
++      return 0;
++}
++#endif
++EXPORT_SYMBOL_GPL(broadcast_uevent);
++
++#if defined(CONFIG_NET)
+ static int uevent_net_init(struct net *net)
+ {
+       struct uevent_sock *ue_sk;
diff --git a/trunk/target/linux/generic/patches-3.18/921-use_preinit_as_init.patch b/trunk/target/linux/generic/patches-3.18/921-use_preinit_as_init.patch
new file mode 100644 (file)
index 0000000..d297e3b
--- /dev/null
@@ -0,0 +1,12 @@
+--- a/init/main.c
++++ b/init/main.c
+@@ -962,7 +962,8 @@ static int __ref kernel_init(void *unuse
+               pr_err("Failed to execute %s (error %d).  Attempting defaults...\n",
+                       execute_command, ret);
+       }
+-      if (!try_to_run_init_process("/sbin/init") ||
++      if (!try_to_run_init_process("/etc/preinit") ||
++          !try_to_run_init_process("/sbin/init") ||
+           !try_to_run_init_process("/etc/init") ||
+           !try_to_run_init_process("/bin/init") ||
+           !try_to_run_init_process("/bin/sh"))
diff --git a/trunk/target/linux/generic/patches-3.18/922-always-create-console-node-in-initramfs.patch b/trunk/target/linux/generic/patches-3.18/922-always-create-console-node-in-initramfs.patch
new file mode 100644 (file)
index 0000000..3b308dd
--- /dev/null
@@ -0,0 +1,30 @@
+--- a/scripts/gen_initramfs_list.sh
++++ b/scripts/gen_initramfs_list.sh
+@@ -59,6 +59,18 @@ default_initramfs() {
+       EOF
+ }
++list_librecmc_initramfs() {
++      :
++}
++
++librecmc_initramfs() {
++      # make sure that /dev/console exists
++      cat <<-EOF >> ${output}
++              dir /dev 0755 0 0
++              nod /dev/console 0600 0 0 c 5 1
++      EOF
++}
++
+ filetype() {
+       local argv1="$1"
+@@ -177,6 +189,8 @@ dir_filelist() {
+       if [  "$(echo "${dirlist}" | wc -l)" -gt 1 ]; then
+               ${dep_list}print_mtime "$1"
++              ${dep_list}librecmc_initramfs
++
+               echo "${dirlist}" | \
+               while read x; do
+                       ${dep_list}parse ${x}
diff --git a/trunk/target/linux/generic/patches-3.18/930-crashlog.patch b/trunk/target/linux/generic/patches-3.18/930-crashlog.patch
new file mode 100644 (file)
index 0000000..b1c38a7
--- /dev/null
@@ -0,0 +1,276 @@
+--- /dev/null
++++ b/include/linux/crashlog.h
+@@ -0,0 +1,17 @@
++#ifndef __CRASHLOG_H
++#define __CRASHLOG_H
++
++#ifdef CONFIG_CRASHLOG
++void crashlog_init_bootmem(struct bootmem_data *bdata);
++void crashlog_init_memblock(phys_addr_t addr, phys_addr_t size);
++#else
++static inline void crashlog_init_bootmem(struct bootmem_data *bdata)
++{
++}
++
++static inline void crashlog_init_memblock(phys_addr_t addr, phys_addr_t size)
++{
++}
++#endif
++
++#endif
+--- a/init/Kconfig
++++ b/init/Kconfig
+@@ -1279,6 +1279,10 @@ config RELAY
+         If unsure, say N.
++config CRASHLOG
++      bool "Crash logging"
++      depends on (!NO_BOOTMEM || HAVE_MEMBLOCK) && !(ARM || SPARC || PPC)
++
+ config BLK_DEV_INITRD
+       bool "Initial RAM filesystem and RAM disk (initramfs/initrd) support"
+       depends on BROKEN || !FRV
+--- a/kernel/Makefile
++++ b/kernel/Makefile
+@@ -96,6 +96,7 @@ obj-$(CONFIG_CRASH_DUMP) += crash_dump.o
+ obj-$(CONFIG_JUMP_LABEL) += jump_label.o
+ obj-$(CONFIG_CONTEXT_TRACKING) += context_tracking.o
+ obj-$(CONFIG_TORTURE_TEST) += torture.o
++obj-$(CONFIG_CRASHLOG) += crashlog.o
+ $(obj)/configs.o: $(obj)/config_data.h
+--- /dev/null
++++ b/kernel/crashlog.c
+@@ -0,0 +1,181 @@
++/*
++ * Crash information logger
++ * Copyright (C) 2010 Felix Fietkau <nbd@openwrt.org>
++ *
++ * Based on ramoops.c
++ *   Copyright (C) 2010 Marco Stornelli <marco.stornelli@gmail.com>
++ *
++ * This program is free software; you can redistribute it and/or
++ * modify it under the terms of the GNU General Public License
++ * version 2 as published by the Free Software Foundation.
++ *
++ * This program is distributed in the hope that it will be useful, but
++ * WITHOUT ANY WARRANTY; without even the implied warranty of
++ * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
++ * General Public License for more details.
++ *
++ * You should have received a copy of the GNU General Public License
++ * along with this program; if not, write to the Free Software
++ * Foundation, Inc., 51 Franklin St, Fifth Floor, Boston, MA
++ * 02110-1301 USA
++ *
++ */
++
++#include <linux/module.h>
++#include <linux/bootmem.h>
++#include <linux/memblock.h>
++#include <linux/debugfs.h>
++#include <linux/crashlog.h>
++#include <linux/kmsg_dump.h>
++#include <linux/module.h>
++#include <linux/pfn.h>
++#include <asm/io.h>
++
++#define CRASHLOG_PAGES        4
++#define CRASHLOG_SIZE (CRASHLOG_PAGES * PAGE_SIZE)
++#define CRASHLOG_MAGIC        0xa1eedead
++
++/*
++ * Start the log at 1M before the end of RAM, as some boot loaders like
++ * to use the end of the RAM for stack usage and other things
++ * If this fails, fall back to using the last part.
++ */
++#define CRASHLOG_OFFSET       (1024 * 1024)
++
++struct crashlog_data {
++      u32 magic;
++      u32 len;
++      u8 data[];
++};
++
++static struct debugfs_blob_wrapper crashlog_blob;
++static unsigned long crashlog_addr = 0;
++static struct crashlog_data *crashlog_buf;
++static struct kmsg_dumper dump;
++static bool first = true;
++
++extern struct list_head *crashlog_modules;
++
++#ifndef CONFIG_NO_BOOTMEM
++void __init crashlog_init_bootmem(bootmem_data_t *bdata)
++{
++      unsigned long addr;
++
++      if (crashlog_addr)
++              return;
++
++      addr = PFN_PHYS(bdata->node_low_pfn) - CRASHLOG_OFFSET;
++      if (reserve_bootmem(addr, CRASHLOG_SIZE, BOOTMEM_EXCLUSIVE) < 0) {
++              printk("Crashlog failed to allocate RAM at address 0x%lx\n", addr);
++              bdata->node_low_pfn -= CRASHLOG_PAGES;
++              addr = PFN_PHYS(bdata->node_low_pfn);
++      }
++      crashlog_addr = addr;
++}
++#endif
++
++#ifdef CONFIG_HAVE_MEMBLOCK
++void __meminit crashlog_init_memblock(phys_addr_t addr, phys_addr_t size)
++{
++      if (crashlog_addr)
++              return;
++
++      addr += size - CRASHLOG_OFFSET;
++      if (memblock_reserve(addr, CRASHLOG_SIZE)) {
++              printk("Crashlog failed to allocate RAM at address 0x%lx\n", (unsigned long) addr);
++              return;
++      }
++
++      crashlog_addr = addr;
++}
++#endif
++
++static void __init crashlog_copy(void)
++{
++      if (crashlog_buf->magic != CRASHLOG_MAGIC)
++              return;
++
++      if (!crashlog_buf->len || crashlog_buf->len >
++          CRASHLOG_SIZE - sizeof(*crashlog_buf))
++              return;
++
++      crashlog_blob.size = crashlog_buf->len;
++      crashlog_blob.data = kmemdup(crashlog_buf->data,
++              crashlog_buf->len, GFP_KERNEL);
++
++      debugfs_create_blob("crashlog", 0700, NULL, &crashlog_blob);
++}
++
++static int get_maxlen(void)
++{
++      return CRASHLOG_SIZE - sizeof(*crashlog_buf) - crashlog_buf->len;
++}
++
++static void crashlog_printf(const char *fmt, ...)
++{
++      va_list args;
++      int len = get_maxlen();
++
++      if (!len)
++              return;
++
++      va_start(args, fmt);
++      crashlog_buf->len += vscnprintf(
++              &crashlog_buf->data[crashlog_buf->len],
++              len, fmt, args);
++      va_end(args);
++}
++
++static void crashlog_do_dump(struct kmsg_dumper *dumper,
++              enum kmsg_dump_reason reason)
++{
++      struct timeval tv;
++      struct module *m;
++      char *buf;
++      size_t len;
++
++      if (!first)
++              crashlog_printf("\n===================================\n");
++
++      do_gettimeofday(&tv);
++      crashlog_printf("Time: %lu.%lu\n",
++              (long)tv.tv_sec, (long)tv.tv_usec);
++
++      if (first) {
++              crashlog_printf("Modules:");
++              list_for_each_entry(m, crashlog_modules, list) {
++                      crashlog_printf("\t%s@%p+%x", m->name,
++                      m->module_core, m->core_size,
++                      m->module_init, m->init_size);
++              }
++              crashlog_printf("\n");
++              first = false;
++      }
++
++      buf = (char *)&crashlog_buf->data[crashlog_buf->len];
++
++      kmsg_dump_get_buffer(dumper, true, buf, get_maxlen(), &len);
++
++      crashlog_buf->len += len;
++}
++
++
++int __init crashlog_init_fs(void)
++{
++      if (!crashlog_addr)
++              return -ENOMEM;
++
++      crashlog_buf = ioremap(crashlog_addr, CRASHLOG_SIZE);
++
++      crashlog_copy();
++
++      crashlog_buf->magic = CRASHLOG_MAGIC;
++      crashlog_buf->len = 0;
++
++      dump.max_reason = KMSG_DUMP_OOPS;
++      dump.dump = crashlog_do_dump;
++      kmsg_dump_register(&dump);
++
++      return 0;
++}
++module_init(crashlog_init_fs);
+--- a/mm/bootmem.c
++++ b/mm/bootmem.c
+@@ -15,6 +15,7 @@
+ #include <linux/export.h>
+ #include <linux/kmemleak.h>
+ #include <linux/range.h>
++#include <linux/crashlog.h>
+ #include <linux/memblock.h>
+ #include <linux/bug.h>
+ #include <linux/io.h>
+@@ -177,6 +178,7 @@ static unsigned long __init free_all_boo
+       if (!bdata->node_bootmem_map)
+               return 0;
++      crashlog_init_bootmem(bdata);
+       map = bdata->node_bootmem_map;
+       start = bdata->node_min_pfn;
+       end = bdata->node_low_pfn;
+--- a/kernel/module.c
++++ b/kernel/module.c
+@@ -105,6 +105,9 @@ static LIST_HEAD(modules);
+ #ifdef CONFIG_KGDB_KDB
+ struct list_head *kdb_modules = &modules; /* kdb needs the list of modules */
+ #endif /* CONFIG_KGDB_KDB */
++#ifdef CONFIG_CRASHLOG
++struct list_head *crashlog_modules = &modules;
++#endif
+ #ifdef CONFIG_MODULE_SIG
+ #ifdef CONFIG_MODULE_SIG_FORCE
+--- a/mm/memblock.c
++++ b/mm/memblock.c
+@@ -19,6 +19,7 @@
+ #include <linux/debugfs.h>
+ #include <linux/seq_file.h>
+ #include <linux/memblock.h>
++#include <linux/crashlog.h>
+ #include <asm-generic/sections.h>
+ #include <linux/io.h>
+@@ -477,6 +478,8 @@ static void __init_memblock memblock_ins
+       memblock_set_region_node(rgn, nid);
+       type->cnt++;
+       type->total_size += size;
++      if (type == &memblock.memory && idx == 0)
++              crashlog_init_memblock(base, size);
+ }
+ /**
diff --git a/trunk/target/linux/generic/patches-3.18/940-ocf_kbuild_integration.patch b/trunk/target/linux/generic/patches-3.18/940-ocf_kbuild_integration.patch
new file mode 100644 (file)
index 0000000..240f15e
--- /dev/null
@@ -0,0 +1,20 @@
+--- a/crypto/Kconfig
++++ b/crypto/Kconfig
+@@ -1519,3 +1519,6 @@ source "drivers/crypto/Kconfig"
+ source crypto/asymmetric_keys/Kconfig
+ endif # if CRYPTO
++
++source "crypto/ocf/Kconfig"
++
+--- a/crypto/Makefile
++++ b/crypto/Makefile
+@@ -101,6 +101,8 @@ obj-$(CONFIG_CRYPTO_USER_API) += af_alg.
+ obj-$(CONFIG_CRYPTO_USER_API_HASH) += algif_hash.o
+ obj-$(CONFIG_CRYPTO_USER_API_SKCIPHER) += algif_skcipher.o
++obj-$(CONFIG_OCF_OCF) += ocf/
++
+ #
+ # generic algorithms and the async_tx api
+ #
diff --git a/trunk/target/linux/generic/patches-3.18/941-ocf_20120127.patch b/trunk/target/linux/generic/patches-3.18/941-ocf_20120127.patch
new file mode 100644 (file)
index 0000000..7f3f996
--- /dev/null
@@ -0,0 +1,166 @@
+--- a/drivers/char/random.c
++++ b/drivers/char/random.c
+@@ -139,6 +139,9 @@
+  * that might otherwise be identical and have very little entropy
+  * available to them (particularly common in the embedded world).
+  *
++ *      void random_input_words(__u32 *buf, size_t wordcount, int ent_count)
++ *      int random_input_wait(void);
++ *
+  * add_input_randomness() uses the input layer interrupt timing, as well as
+  * the event type information from the hardware.
+  *
+@@ -152,6 +155,13 @@
+  * seek times do not make for good sources of entropy, as their seek
+  * times are usually fairly consistent.
+  *
++ * random_input_words() just provides a raw block of entropy to the input
++ * pool, such as from a hardware entropy generator.
++ *
++ * random_input_wait() suspends the caller until such time as the
++ * entropy pool falls below the write threshold, and returns a count of how
++ * much entropy (in bits) is needed to sustain the pool.
++ *
+  * All of these routines try to estimate how many bits of randomness a
+  * particular randomness source.  They do this by keeping track of the
+  * first and second order deltas of the event timings.
+@@ -938,6 +948,63 @@ void add_disk_randomness(struct gendisk 
+ EXPORT_SYMBOL_GPL(add_disk_randomness);
+ #endif
++/*
++ * random_input_words - add bulk entropy to pool
++ *
++ * @buf: buffer to add
++ * @wordcount: number of __u32 words to add
++ * @ent_count: total amount of entropy (in bits) to credit
++ *
++ * this provides bulk input of entropy to the input pool
++ *
++ */
++void random_input_words(__u32 *buf, size_t wordcount, int ent_count)
++{
++      mix_pool_bytes(&input_pool, buf, wordcount*4);
++
++      credit_entropy_bits(&input_pool, ent_count);
++
++      pr_notice("crediting %d bits => %d\n",
++                ent_count, input_pool.entropy_count);
++      /*
++       * Wake up waiting processes if we have enough
++       * entropy.
++       */
++      if (input_pool.entropy_count >= random_read_wakeup_bits)
++              wake_up_interruptible(&random_read_wait);
++}
++EXPORT_SYMBOL(random_input_words);
++
++/*
++ * random_input_wait - wait until random needs entropy
++ *
++ * this function sleeps until the /dev/random subsystem actually
++ * needs more entropy, and then return the amount of entropy
++ * that it would be nice to have added to the system.
++ */
++int random_input_wait(void)
++{
++      int count;
++
++      wait_event_interruptible(random_write_wait, 
++                       input_pool.entropy_count < random_write_wakeup_bits);
++
++      count = random_write_wakeup_bits - input_pool.entropy_count;
++
++        /* likely we got woken up due to a signal */
++      if (count <= 0) count = random_read_wakeup_bits; 
++
++      pr_notice("requesting %d bits from input_wait()er %d<%d\n",
++                count,
++                input_pool.entropy_count, random_write_wakeup_bits);
++
++      return count;
++}
++EXPORT_SYMBOL(random_input_wait);
++
++
++#define EXTRACT_SIZE 10
++
+ /*********************************************************************
+  *
+  * Entropy extraction routines
+--- a/fs/fcntl.c
++++ b/fs/fcntl.c
+@@ -140,6 +140,7 @@ pid_t f_getown(struct file *filp)
+       read_unlock(&filp->f_owner.lock);
+       return pid;
+ }
++EXPORT_SYMBOL(sys_dup);
+ static int f_setown_ex(struct file *filp, unsigned long arg)
+ {
+--- a/include/linux/miscdevice.h
++++ b/include/linux/miscdevice.h
+@@ -19,6 +19,7 @@
+ #define APOLLO_MOUSE_MINOR    7       /* unused */
+ #define PC110PAD_MINOR                9       /* unused */
+ /*#define ADB_MOUSE_MINOR     10      FIXME OBSOLETE */
++#define CRYPTODEV_MINOR               70      /* /dev/crypto */
+ #define WATCHDOG_MINOR                130     /* Watchdog timer     */
+ #define TEMP_MINOR            131     /* Temperature Sensor */
+ #define RTC_MINOR             135
+--- a/include/uapi/linux/random.h
++++ b/include/uapi/linux/random.h
+@@ -34,6 +34,30 @@
+ /* Clear the entropy pool and associated counters.  (Superuser only.) */
+ #define RNDCLEARPOOL  _IO( 'R', 0x06 )
++#ifdef CONFIG_FIPS_RNG
++
++/* Size of seed value - equal to AES blocksize */
++#define AES_BLOCK_SIZE_BYTES  16
++#define SEED_SIZE_BYTES                       AES_BLOCK_SIZE_BYTES
++/* Size of AES key */
++#define KEY_SIZE_BYTES                16
++
++/* ioctl() structure used by FIPS 140-2 Tests */
++struct rand_fips_test {
++      unsigned char key[KEY_SIZE_BYTES];                      /* Input */
++      unsigned char datetime[SEED_SIZE_BYTES];        /* Input */
++      unsigned char seed[SEED_SIZE_BYTES];            /* Input */
++      unsigned char result[SEED_SIZE_BYTES];          /* Output */
++};
++
++/* FIPS 140-2 RNG Variable Seed Test. (Superuser only.) */
++#define RNDFIPSVST    _IOWR('R', 0x10, struct rand_fips_test)
++
++/* FIPS 140-2 RNG Monte Carlo Test. (Superuser only.) */
++#define RNDFIPSMCT    _IOWR('R', 0x11, struct rand_fips_test)
++
++#endif /* #ifdef CONFIG_FIPS_RNG */
++
+ struct rand_pool_info {
+       int     entropy_count;
+       int     buf_size;
+--- a/include/linux/random.h
++++ b/include/linux/random.h
+@@ -13,6 +13,10 @@ extern void add_input_randomness(unsigne
+                                unsigned int value);
+ extern void add_interrupt_randomness(int irq, int irq_flags);
++extern void random_input_words(__u32 *buf, size_t wordcount, int ent_count);
++extern int random_input_wait(void);
++#define HAS_RANDOM_INPUT_WAIT 1
++
+ extern void get_random_bytes(void *buf, int nbytes);
+ extern void get_random_bytes_arch(void *buf, int nbytes);
+ void generate_random_uuid(unsigned char uuid_out[16]);
+--- a/kernel/pid.c
++++ b/kernel/pid.c
+@@ -427,6 +427,7 @@ void transfer_pid(struct task_struct *ol
+       new->pids[type].pid = old->pids[type].pid;
+       hlist_replace_rcu(&old->pids[type].node, &new->pids[type].node);
+ }
++EXPORT_SYMBOL(find_task_by_vpid);
+ struct task_struct *pid_task(struct pid *pid, enum pid_type type)
+ {
diff --git a/trunk/target/linux/generic/patches-3.18/960-decompress_unlzo_fix.patch b/trunk/target/linux/generic/patches-3.18/960-decompress_unlzo_fix.patch
new file mode 100644 (file)
index 0000000..ee7c118
--- /dev/null
@@ -0,0 +1,23 @@
+--- /dev/null
++++ b/include/linux/decompress/unlzo_mm.h
+@@ -0,0 +1,10 @@
++#ifndef UNLZO_MM_H
++#define UNLZO_MM_H
++
++#ifdef STATIC
++#define INIT
++#else
++#define INIT __init
++#endif
++
++#endif
+--- a/lib/decompress_unlzo.c
++++ b/lib/decompress_unlzo.c
+@@ -38,6 +38,7 @@
+ #include <linux/types.h>
+ #include <linux/lzo.h>
++#include <linux/decompress/unlzo_mm.h>
+ #include <linux/decompress/mm.h>
+ #include <linux/compiler.h>
diff --git a/trunk/target/linux/generic/patches-3.18/970-remove-unsane-filenames-from-deps_initramfs-list.patch b/trunk/target/linux/generic/patches-3.18/970-remove-unsane-filenames-from-deps_initramfs-list.patch
new file mode 100644 (file)
index 0000000..ac13c9e
--- /dev/null
@@ -0,0 +1,29 @@
+--- a/usr/Makefile
++++ b/usr/Makefile
+@@ -53,6 +53,8 @@ ifneq ($(wildcard $(obj)/.initramfs_data
+       include $(obj)/.initramfs_data.cpio.d
+ endif
++deps_initramfs_sane := $(foreach v,$(deps_initramfs),$(if $(findstring :,$(v)),,$(v)))
++
+ quiet_cmd_initfs = GEN     $@
+       cmd_initfs = $(initramfs) -o $@ $(ramfs-args) $(ramfs-input)
+@@ -61,14 +63,14 @@ targets := initramfs_data.cpio.gz initra
+       initramfs_data.cpio.lzo initramfs_data.cpio.lz4 \
+       initramfs_data.cpio
+ # do not try to update files included in initramfs
+-$(deps_initramfs): ;
++$(deps_initramfs_sane): ;
+-$(deps_initramfs): klibcdirs
++$(deps_initramfs_sane): klibcdirs
+ # We rebuild initramfs_data.cpio if:
+ # 1) Any included file is newer then initramfs_data.cpio
+ # 2) There are changes in which files are included (added or deleted)
+ # 3) If gen_init_cpio are newer than initramfs_data.cpio
+ # 4) arguments to gen_initramfs.sh changes
+-$(obj)/initramfs_data.cpio$(suffix_y): $(obj)/gen_init_cpio $(deps_initramfs) klibcdirs
++$(obj)/initramfs_data.cpio$(suffix_y): $(obj)/gen_init_cpio $(deps_initramfs_sane) klibcdirs
+       $(Q)$(initramfs) -l $(ramfs-input) > $(obj)/.initramfs_data.cpio.d
+       $(call if_changed,initfs)
diff --git a/trunk/target/linux/generic/patches-3.18/980-arm_openwrt_machtypes.patch b/trunk/target/linux/generic/patches-3.18/980-arm_openwrt_machtypes.patch
new file mode 100644 (file)
index 0000000..8303344
--- /dev/null
@@ -0,0 +1,32 @@
+--- a/arch/arm/tools/mach-types
++++ b/arch/arm/tools/mach-types
+@@ -1007,3 +1007,29 @@ eco5_bx2                MACH_ECO5_BX2           ECO5_BX2                4572
+ eukrea_cpuimx28sd     MACH_EUKREA_CPUIMX28SD  EUKREA_CPUIMX28SD       4573
+ domotab                       MACH_DOMOTAB            DOMOTAB                 4574
+ pfla03                        MACH_PFLA03             PFLA03                  4575
++#
++# Additional mach-types supported by libreCMC
++#
++wg302v1                       MACH_WG302V1            WG302V1                 889
++pronghorn             MACH_PRONGHORN          PRONGHORN               928
++pronghorn_metro               MACH_PRONGHORNMETRO     PRONGHORNMETRO          1040
++sidewinder            MACH_SIDEWINDER         SIDEWINDER              1041
++wrt300nv2             MACH_WRT300NV2          WRT300NV2               1077
++compex42x             MACH_COMPEXWP18         COMPEXWP18              1273
++goldfish              MACH_GOLDFISH           GOLDFISH                1441
++cambria                       MACH_CAMBRIA            CAMBRIA                 1468
++dt2                   MACH_DT2                DT2                     1514
++ap1000                        MACH_AP1000             AP1000                  1543
++tw2662                        MACH_TW2662             TW2662                  1658
++tw5334                        MACH_TW5334             TW5334                  1664
++usr8200                       MACH_USR8200            USR8200                 1762
++mi424wr                       MACH_MI424WR            MI424WR                 1778
++gw2388                        MACH_GW2388             GW2388                  2635
++iconnect              MACH_ICONNECT           ICONNECT                2870
++nsb3ast                       MACH_NSB3AST            NSB3AST                 2917
++goflexnet             MACH_GOFLEXNET          GOFLEXNET               3089
++nas6210                       MACH_NAS6210            NAS6210                 3104
++ns_k330                       MACH_NS_K330            NS_K330                 3108
++bcm2708                       MACH_BCM2708            BCM2708                 3138
++wn802t                        MACH_WN802T             WN802T                  3306
++nsa310                        MACH_NSA310             NSA310                  4022
diff --git a/trunk/target/linux/generic/patches-3.18/990-gpio_wdt.patch b/trunk/target/linux/generic/patches-3.18/990-gpio_wdt.patch
new file mode 100644 (file)
index 0000000..0d8d862
--- /dev/null
@@ -0,0 +1,360 @@
+This generic GPIO watchdog is used on Huawei E970 (brcm47xx)
+
+Signed-off-by: Mathias Adam <m.adam--librecmc@adamis.de>
+
+--- a/drivers/watchdog/Kconfig
++++ b/drivers/watchdog/Kconfig
+@@ -1139,6 +1139,15 @@ config WDT_MTX1
+         Hardware driver for the MTX-1 boards. This is a watchdog timer that
+         will reboot the machine after a 100 seconds timer expired.
++config GPIO_WDT
++      tristate "GPIO Hardware Watchdog"
++      help
++        Hardware driver for GPIO-controlled watchdogs. GPIO pin and
++        toggle interval settings are platform-specific. The driver
++        will stop toggling the GPIO (i.e. machine reboots) after a
++        100 second timer expired and no process has written to
++        /dev/watchdog during that time.
++
+ config PNX833X_WDT
+       tristate "PNX833x Hardware Watchdog"
+       depends on SOC_PNX8335
+--- a/drivers/watchdog/Makefile
++++ b/drivers/watchdog/Makefile
+@@ -134,6 +134,7 @@ obj-$(CONFIG_RC32434_WDT) += rc32434_wdt
+ obj-$(CONFIG_INDYDOG) += indydog.o
+ obj-$(CONFIG_JZ4740_WDT) += jz4740_wdt.o
+ obj-$(CONFIG_WDT_MTX1) += mtx-1_wdt.o
++obj-$(CONFIG_GPIO_WDT) += old_gpio_wdt.o
+ obj-$(CONFIG_PNX833X_WDT) += pnx833x_wdt.o
+ obj-$(CONFIG_SIBYTE_WDOG) += sb_wdog.o
+ obj-$(CONFIG_AR7_WDT) += ar7_wdt.o
+--- /dev/null
++++ b/drivers/watchdog/old_gpio_wdt.c
+@@ -0,0 +1,301 @@
++/*
++ *      Driver for GPIO-controlled Hardware Watchdogs.
++ *
++ *      Copyright (C) 2013 Mathias Adam <m.adam--linux@adamis.de>
++ *
++ *      Replaces mtx1_wdt (driver for the MTX-1 Watchdog):
++ *
++ *      (C) Copyright 2005 4G Systems <info@4g-systems.biz>,
++ *                              All Rights Reserved.
++ *                              http://www.4g-systems.biz
++ *
++ *      (C) Copyright 2007 OpenWrt.org, Florian Fainelli <florian@openwrt.org>
++ *
++ *      This program is free software; you can redistribute it and/or
++ *      modify it under the terms of the GNU General Public License
++ *      as published by the Free Software Foundation; either version
++ *      2 of the License, or (at your option) any later version.
++ *
++ *      Neither Michael Stickel nor 4G Systems admit liability nor provide
++ *      warranty for any of this software. This material is provided
++ *      "AS-IS" and at no charge.
++ *
++ *      (c) Copyright 2005    4G Systems <info@4g-systems.biz>
++ *
++ *      Release 0.01.
++ *      Author: Michael Stickel  michael.stickel@4g-systems.biz
++ *
++ *      Release 0.02.
++ *      Author: Florian Fainelli florian@openwrt.org
++ *              use the Linux watchdog/timer APIs
++ *
++ *      Release 0.03.
++ *      Author: Mathias Adam <m.adam--linux@adamis.de>
++ *              make it a generic gpio watchdog driver
++ *
++ *      The Watchdog is configured to reset the MTX-1
++ *      if it is not triggered for 100 seconds.
++ *      It should not be triggered more often than 1.6 seconds.
++ *
++ *      A timer triggers the watchdog every 5 seconds, until
++ *      it is opened for the first time. After the first open
++ *      it MUST be triggered every 2..95 seconds.
++ */
++
++#include <linux/module.h>
++#include <linux/moduleparam.h>
++#include <linux/types.h>
++#include <linux/errno.h>
++#include <linux/miscdevice.h>
++#include <linux/fs.h>
++#include <linux/init.h>
++#include <linux/ioport.h>
++#include <linux/timer.h>
++#include <linux/completion.h>
++#include <linux/jiffies.h>
++#include <linux/watchdog.h>
++#include <linux/platform_device.h>
++#include <linux/io.h>
++#include <linux/uaccess.h>
++#include <linux/gpio.h>
++#include <linux/old_gpio_wdt.h>
++
++static int ticks = 100 * HZ;
++
++static struct {
++      struct completion stop;
++      spinlock_t lock;
++      int running;
++      struct timer_list timer;
++      int queue;
++      int default_ticks;
++      unsigned long inuse;
++      unsigned gpio;
++      unsigned int gstate;
++      int interval;
++      int first_interval;
++} gpio_wdt_device;
++
++static void gpio_wdt_trigger(unsigned long unused)
++{
++      spin_lock(&gpio_wdt_device.lock);
++      if (gpio_wdt_device.running && ticks > 0)
++              ticks -= gpio_wdt_device.interval;
++
++      /* toggle wdt gpio */
++      gpio_wdt_device.gstate = !gpio_wdt_device.gstate;
++      gpio_set_value(gpio_wdt_device.gpio, gpio_wdt_device.gstate);
++
++      if (gpio_wdt_device.queue && ticks > 0)
++              mod_timer(&gpio_wdt_device.timer, jiffies + gpio_wdt_device.interval);
++      else
++              complete(&gpio_wdt_device.stop);
++      spin_unlock(&gpio_wdt_device.lock);
++}
++
++static void gpio_wdt_reset(void)
++{
++      ticks = gpio_wdt_device.default_ticks;
++}
++
++
++static void gpio_wdt_start(void)
++{
++      unsigned long flags;
++
++      spin_lock_irqsave(&gpio_wdt_device.lock, flags);
++      if (!gpio_wdt_device.queue) {
++              gpio_wdt_device.queue = 1;
++              gpio_wdt_device.gstate = 1;
++              gpio_set_value(gpio_wdt_device.gpio, 1);
++              mod_timer(&gpio_wdt_device.timer, jiffies + gpio_wdt_device.first_interval);
++      }
++      gpio_wdt_device.running++;
++      spin_unlock_irqrestore(&gpio_wdt_device.lock, flags);
++}
++
++static int gpio_wdt_stop(void)
++{
++      unsigned long flags;
++
++      spin_lock_irqsave(&gpio_wdt_device.lock, flags);
++      if (gpio_wdt_device.queue) {
++              gpio_wdt_device.queue = 0;
++              gpio_wdt_device.gstate = 0;
++              gpio_set_value(gpio_wdt_device.gpio, 0);
++      }
++      ticks = gpio_wdt_device.default_ticks;
++      spin_unlock_irqrestore(&gpio_wdt_device.lock, flags);
++      return 0;
++}
++
++/* Filesystem functions */
++
++static int gpio_wdt_open(struct inode *inode, struct file *file)
++{
++      if (test_and_set_bit(0, &gpio_wdt_device.inuse))
++              return -EBUSY;
++      return nonseekable_open(inode, file);
++}
++
++
++static int gpio_wdt_release(struct inode *inode, struct file *file)
++{
++      clear_bit(0, &gpio_wdt_device.inuse);
++      return 0;
++}
++
++static long gpio_wdt_ioctl(struct file *file, unsigned int cmd,
++                                                      unsigned long arg)
++{
++      void __user *argp = (void __user *)arg;
++      int __user *p = (int __user *)argp;
++      unsigned int value;
++      static const struct watchdog_info ident = {
++              .options = WDIOF_CARDRESET,
++              .identity = "GPIO WDT",
++      };
++
++      switch (cmd) {
++      case WDIOC_GETSUPPORT:
++              if (copy_to_user(argp, &ident, sizeof(ident)))
++                      return -EFAULT;
++              break;
++      case WDIOC_GETSTATUS:
++      case WDIOC_GETBOOTSTATUS:
++              put_user(0, p);
++              break;
++      case WDIOC_SETOPTIONS:
++              if (get_user(value, p))
++                      return -EFAULT;
++              if (value & WDIOS_ENABLECARD)
++                      gpio_wdt_start();
++              else if (value & WDIOS_DISABLECARD)
++                      gpio_wdt_stop();
++              else
++                      return -EINVAL;
++              return 0;
++      case WDIOC_KEEPALIVE:
++              gpio_wdt_reset();
++              break;
++      default:
++              return -ENOTTY;
++      }
++      return 0;
++}
++
++
++static ssize_t gpio_wdt_write(struct file *file, const char *buf,
++                                              size_t count, loff_t *ppos)
++{
++      if (!count)
++              return -EIO;
++      gpio_wdt_reset();
++      return count;
++}
++
++static const struct file_operations gpio_wdt_fops = {
++      .owner          = THIS_MODULE,
++      .llseek         = no_llseek,
++      .unlocked_ioctl = gpio_wdt_ioctl,
++      .open           = gpio_wdt_open,
++      .write          = gpio_wdt_write,
++      .release        = gpio_wdt_release,
++};
++
++
++static struct miscdevice gpio_wdt_misc = {
++      .minor  = WATCHDOG_MINOR,
++      .name   = "watchdog",
++      .fops   = &gpio_wdt_fops,
++};
++
++
++static int gpio_wdt_probe(struct platform_device *pdev)
++{
++      int ret;
++      struct gpio_wdt_platform_data *gpio_wdt_data = pdev->dev.platform_data;
++
++      gpio_wdt_device.gpio = gpio_wdt_data->gpio;
++      gpio_wdt_device.interval = gpio_wdt_data->interval;
++      gpio_wdt_device.first_interval = gpio_wdt_data->first_interval;
++      if (gpio_wdt_device.first_interval <= 0) {
++              gpio_wdt_device.first_interval = gpio_wdt_device.interval;
++      }
++
++      ret = gpio_request(gpio_wdt_device.gpio, "gpio-wdt");
++      if (ret < 0) {
++              dev_err(&pdev->dev, "failed to request gpio");
++              return ret;
++      }
++
++      spin_lock_init(&gpio_wdt_device.lock);
++      init_completion(&gpio_wdt_device.stop);
++      gpio_wdt_device.queue = 0;
++      clear_bit(0, &gpio_wdt_device.inuse);
++      setup_timer(&gpio_wdt_device.timer, gpio_wdt_trigger, 0L);
++      gpio_wdt_device.default_ticks = ticks;
++
++      gpio_wdt_start();
++      dev_info(&pdev->dev, "GPIO Hardware Watchdog driver (gpio=%i interval=%i/%i)\n",
++              gpio_wdt_data->gpio, gpio_wdt_data->first_interval, gpio_wdt_data->interval);
++      return 0;
++}
++
++static int gpio_wdt_remove(struct platform_device *pdev)
++{
++      /* FIXME: do we need to lock this test ? */
++      if (gpio_wdt_device.queue) {
++              gpio_wdt_device.queue = 0;
++              wait_for_completion(&gpio_wdt_device.stop);
++      }
++
++      gpio_free(gpio_wdt_device.gpio);
++      misc_deregister(&gpio_wdt_misc);
++      return 0;
++}
++
++static struct platform_driver gpio_wdt_driver = {
++      .probe = gpio_wdt_probe,
++      .remove = gpio_wdt_remove,
++      .driver.name = "gpio-wdt",
++      .driver.owner = THIS_MODULE,
++};
++
++static int __init gpio_wdt_init(void)
++{
++      return platform_driver_register(&gpio_wdt_driver);
++}
++arch_initcall(gpio_wdt_init);
++
++/*
++ * We do wdt initialization in two steps: arch_initcall probes the wdt
++ * very early to start pinging the watchdog (misc devices are not yet
++ * available), and later module_init() just registers the misc device.
++ */
++static int gpio_wdt_init_late(void)
++{
++      int ret;
++
++      ret = misc_register(&gpio_wdt_misc);
++      if (ret < 0) {
++              pr_err("GPIO_WDT: failed to register misc device\n");
++              return ret;
++      }
++      return 0;
++}
++#ifndef MODULE
++module_init(gpio_wdt_init_late);
++#endif
++
++static void __exit gpio_wdt_exit(void)
++{
++      platform_driver_unregister(&gpio_wdt_driver);
++}
++module_exit(gpio_wdt_exit);
++
++MODULE_AUTHOR("Michael Stickel, Florian Fainelli, Mathias Adam");
++MODULE_DESCRIPTION("Driver for GPIO hardware watchdogs");
++MODULE_LICENSE("GPL");
++MODULE_ALIAS_MISCDEV(WATCHDOG_MINOR);
++MODULE_ALIAS("platform:gpio-wdt");
+--- /dev/null
++++ b/include/linux/old_gpio_wdt.h
+@@ -0,0 +1,21 @@
++/*
++ *  Definitions for the GPIO watchdog driver
++ *
++ *  Copyright (C) 2013 Mathias Adam <m.adam--linux@adamis.de>
++ *
++ *  This program is free software; you can redistribute it and/or modify
++ *  it under the terms of the GNU General Public License version 2 as
++ *  published by the Free Software Foundation.
++ *
++ */
++
++#ifndef _GPIO_WDT_H_
++#define _GPIO_WDT_H_
++
++struct gpio_wdt_platform_data {
++      int     gpio;           /* GPIO line number */
++      int     interval;       /* watchdog reset interval in system ticks */
++      int     first_interval; /* first wd reset interval in system ticks */
++};
++
++#endif /* _GPIO_WDT_H_ */
diff --git a/trunk/target/linux/generic/patches-3.18/995-mangle_bootargs.patch b/trunk/target/linux/generic/patches-3.18/995-mangle_bootargs.patch
new file mode 100644 (file)
index 0000000..0029e90
--- /dev/null
@@ -0,0 +1,58 @@
+--- a/init/main.c
++++ b/init/main.c
+@@ -362,6 +362,29 @@ static inline void setup_nr_cpu_ids(void
+ static inline void smp_prepare_cpus(unsigned int maxcpus) { }
+ #endif
++#ifdef CONFIG_MANGLE_BOOTARGS
++static void __init mangle_bootargs(char *command_line)
++{
++      char *rootdev;
++      char *rootfs;
++
++      rootdev = strstr(command_line, "root=/dev/mtdblock");
++
++      if (rootdev)
++              strncpy(rootdev, "mangled_rootblock=", 18);
++
++      rootfs = strstr(command_line, "rootfstype");
++
++      if (rootfs)
++              strncpy(rootfs, "mangled_fs", 10);
++
++}
++#else
++static void __init mangle_bootargs(char *command_line)
++{
++}
++#endif
++
+ /*
+  * We need to store the untouched command line for future reference.
+  * We also need to store the touched command line since the parameter
+@@ -530,6 +553,7 @@ asmlinkage __visible void __init start_k
+       pr_notice("%s", linux_banner);
+       setup_arch(&command_line);
+       mm_init_cpumask(&init_mm);
++      mangle_bootargs(command_line);
+       setup_command_line(command_line);
+       setup_nr_cpu_ids();
+       setup_per_cpu_areas();
+--- a/init/Kconfig
++++ b/init/Kconfig
+@@ -1597,6 +1597,15 @@ config EMBEDDED
+         an embedded system so certain expert options are available
+         for configuration.
++config MANGLE_BOOTARGS
++      bool "Rename offending bootargs"
++      depends on EXPERT
++      help
++        Sometimes the bootloader passed bogus root= and rootfstype=
++        parameters to the kernel, and while you want to ignore them,
++        you need to know the values f.e. to support dual firmware
++        layouts on the flash.
++
+ config HAVE_PERF_EVENTS
+       bool
+       help
diff --git a/trunk/target/linux/generic/patches-3.18/997-device_tree_cmdline.patch b/trunk/target/linux/generic/patches-3.18/997-device_tree_cmdline.patch
new file mode 100644 (file)
index 0000000..dd725b0
--- /dev/null
@@ -0,0 +1,24 @@
+--- a/drivers/of/fdt.c
++++ b/drivers/of/fdt.c
+@@ -903,6 +903,9 @@ int __init early_init_dt_scan_chosen(uns
+       p = of_get_flat_dt_prop(node, "bootargs", &l);
+       if (p != NULL && l > 0)
+               strlcpy(data, p, min((int)l, COMMAND_LINE_SIZE));
++      p = of_get_flat_dt_prop(node, "bootargs-append", &l);
++      if (p != NULL && l > 0)
++              strlcat(data, p, min_t(int, strlen(data) + (int)l, COMMAND_LINE_SIZE));
+       /*
+        * CONFIG_CMDLINE is meant to be a default in case nothing else
+--- a/arch/mips/kernel/prom.c
++++ b/arch/mips/kernel/prom.c
+@@ -49,6 +49,9 @@ void * __init early_init_dt_alloc_memory
+ void __init __dt_setup_arch(void *bph)
+ {
++      if (boot_command_line[0] == '\0')
++              strcpy(boot_command_line, arcs_cmdline);
++
+       if (!early_init_dt_scan(bph))
+               return;
diff --git a/trunk/target/linux/generic/patches-3.18/998-enable_wilink_platform_without_drivers.patch b/trunk/target/linux/generic/patches-3.18/998-enable_wilink_platform_without_drivers.patch
new file mode 100644 (file)
index 0000000..d317de1
--- /dev/null
@@ -0,0 +1,15 @@
+We use backports for driver updates - make sure we can compile in the glue code regardless
+
+Signed-off-by: Imre Kaloz <kaloz@openwrt.org>
+
+--- a/drivers/net/wireless/ti/Kconfig
++++ b/drivers/net/wireless/ti/Kconfig
+@@ -15,7 +15,7 @@ source "drivers/net/wireless/ti/wlcore/K
+ config WILINK_PLATFORM_DATA
+       bool "TI WiLink platform data"
+-      depends on WLCORE_SDIO || WL1251_SDIO
++      depends on WLCORE_SDIO || WL1251_SDIO || ARCH_OMAP2PLUS
+       default y
+       ---help---
+       Small platform data bit needed to pass data to the sdio modules.
diff --git a/trunk/target/linux/generic/patches-3.18/999-seccomp_log.patch b/trunk/target/linux/generic/patches-3.18/999-seccomp_log.patch
new file mode 100644 (file)
index 0000000..1db6b18
--- /dev/null
@@ -0,0 +1,34 @@
+--- a/kernel/seccomp.c
++++ b/kernel/seccomp.c
+@@ -614,6 +614,7 @@ int __secure_computing(void)
+ #ifdef CONFIG_SECCOMP_FILTER
+ static u32 __seccomp_phase1_filter(int this_syscall, struct seccomp_data *sd)
+ {
++      char name[sizeof(current->comm)];
+       u32 filter_ret, action;
+       int data;
+@@ -644,6 +645,13 @@ static u32 __seccomp_phase1_filter(int t
+       case SECCOMP_RET_TRACE:
+               return filter_ret;  /* Save the rest for phase 2. */
++      case SECCOMP_RET_LOG:
++              get_task_comm(name, current);
++              pr_err_ratelimited("seccomp: %s [%u] tried to call non-whitelisted syscall: %d\n", name, current->pid, this_syscall);
++              syscall_set_return_value(current, task_pt_regs(current),
++                                       -data, 0);
++              goto skip;
++
+       case SECCOMP_RET_ALLOW:
+               return SECCOMP_PHASE1_OK;
+--- a/include/uapi/linux/seccomp.h
++++ b/include/uapi/linux/seccomp.h
+@@ -28,6 +28,7 @@
+ #define SECCOMP_RET_KILL      0x00000000U /* kill the task immediately */
+ #define SECCOMP_RET_TRAP      0x00030000U /* disallow and force a SIGSYS */
+ #define SECCOMP_RET_ERRNO     0x00050000U /* returns an errno */
++#define SECCOMP_RET_LOG               0x00070000U /* allow + logline */
+ #define SECCOMP_RET_TRACE     0x7ff00000U /* pass to a tracer or disallow */
+ #define SECCOMP_RET_ALLOW     0x7fff0000U /* allow */