usb: gadget: ether set wMaxPacketSize
[oweals/u-boot.git] / drivers / usb / gadget / mv_udc.c
index bed589820a049f238b139c9fcbd52313b90dcdda..e6700a80fd0962053021f95129f7a0e6a8133822 100644 (file)
 #error This driver only supports one single controller.
 #endif
 
+/*
+ * Check if the system has too long cachelines. If the cachelines are
+ * longer then 128b, the driver will not be able flush/invalidate data
+ * cache over separate QH entries. We use 128b because one QH entry is
+ * 64b long and there are always two QH list entries for each endpoint.
+ */
+#if ARCH_DMA_MINALIGN > 128
+#error This driver can not work on systems with caches longer than 128b
+#endif
+
 #ifndef DEBUG
 #define DBG(x...) do {} while (0)
 #else
@@ -43,8 +53,6 @@ static const char *reqname(unsigned r)
 }
 #endif
 
-#define PAGE_SIZE      4096
-#define QH_MAXNUM      32
 static struct usb_endpoint_descriptor ep0_out_desc = {
        .bLength = sizeof(struct usb_endpoint_descriptor),
        .bDescriptorType = USB_DT_ENDPOINT,
@@ -59,8 +67,6 @@ static struct usb_endpoint_descriptor ep0_in_desc = {
        .bmAttributes = USB_ENDPOINT_XFER_CONTROL,
 };
 
-struct ept_queue_head *epts;
-struct ept_queue_item *items[2 * NUM_ENDPOINTS];
 static int mv_pullup(struct usb_gadget *gadget, int is_on);
 static int mv_ep_enable(struct usb_ep *ep,
                const struct usb_endpoint_descriptor *desc);
@@ -98,11 +104,100 @@ static const struct usb_ep mv_ep_init[2] = {
 };
 
 static struct mv_drv controller = {
-       .gadget = {
-               .name = "mv_udc",
+       .gadget = {
+               .name   = "mv_udc",
+               .ops    = &mv_udc_ops,
        },
 };
 
+/**
+ * mv_get_qh() - return queue head for endpoint
+ * @ep_num:    Endpoint number
+ * @dir_in:    Direction of the endpoint (IN = 1, OUT = 0)
+ *
+ * This function returns the QH associated with particular endpoint
+ * and it's direction.
+ */
+static struct ept_queue_head *mv_get_qh(int ep_num, int dir_in)
+{
+       return &controller.epts[(ep_num * 2) + dir_in];
+}
+
+/**
+ * mv_get_qtd() - return queue item for endpoint
+ * @ep_num:    Endpoint number
+ * @dir_in:    Direction of the endpoint (IN = 1, OUT = 0)
+ *
+ * This function returns the QH associated with particular endpoint
+ * and it's direction.
+ */
+static struct ept_queue_item *mv_get_qtd(int ep_num, int dir_in)
+{
+       return controller.items[(ep_num * 2) + dir_in];
+}
+
+/**
+ * mv_flush_qh - flush cache over queue head
+ * @ep_num:    Endpoint number
+ *
+ * This function flushes cache over QH for particular endpoint.
+ */
+static void mv_flush_qh(int ep_num)
+{
+       struct ept_queue_head *head = mv_get_qh(ep_num, 0);
+       const uint32_t start = (uint32_t)head;
+       const uint32_t end = start + 2 * sizeof(*head);
+
+       flush_dcache_range(start, end);
+}
+
+/**
+ * mv_invalidate_qh - invalidate cache over queue head
+ * @ep_num:    Endpoint number
+ *
+ * This function invalidates cache over QH for particular endpoint.
+ */
+static void mv_invalidate_qh(int ep_num)
+{
+       struct ept_queue_head *head = mv_get_qh(ep_num, 0);
+       uint32_t start = (uint32_t)head;
+       uint32_t end = start + 2 * sizeof(*head);
+
+       invalidate_dcache_range(start, end);
+}
+
+/**
+ * mv_flush_qtd - flush cache over queue item
+ * @ep_num:    Endpoint number
+ *
+ * This function flushes cache over qTD pair for particular endpoint.
+ */
+static void mv_flush_qtd(int ep_num)
+{
+       struct ept_queue_item *item = mv_get_qtd(ep_num, 0);
+       const uint32_t start = (uint32_t)item;
+       const uint32_t end_raw = start + 2 * sizeof(*item);
+       const uint32_t end = roundup(end_raw, ARCH_DMA_MINALIGN);
+
+       flush_dcache_range(start, end);
+}
+
+/**
+ * mv_invalidate_qtd - invalidate cache over queue item
+ * @ep_num:    Endpoint number
+ *
+ * This function invalidates cache over qTD pair for particular endpoint.
+ */
+static void mv_invalidate_qtd(int ep_num)
+{
+       struct ept_queue_item *item = mv_get_qtd(ep_num, 0);
+       const uint32_t start = (uint32_t)item;
+       const uint32_t end_raw = start + 2 * sizeof(*item);
+       const uint32_t end = roundup(end_raw, ARCH_DMA_MINALIGN);
+
+       invalidate_dcache_range(start, end);
+}
+
 static struct usb_request *
 mv_ep_alloc_request(struct usb_ep *ep, unsigned int gfp_flags)
 {
@@ -120,7 +215,7 @@ static void ep_enable(int num, int in)
        struct ept_queue_head *head;
        struct mv_udc *udc = (struct mv_udc *)controller.ctrl->hcor;
        unsigned n;
-       head = epts + 2*num + in;
+       head = mv_get_qh(num, in);
 
        n = readl(&udc->epctrl[num]);
        if (in)
@@ -128,8 +223,10 @@ static void ep_enable(int num, int in)
        else
                n |= (CTRL_RXE | CTRL_RXR | CTRL_RXT_BULK);
 
-       if (num != 0)
+       if (num != 0) {
                head->config = CONFIG_MAX_PKT(EP_MAX_PACKET_SIZE) | CONFIG_ZLT;
+               mv_flush_qh(num);
+       }
        writel(n, &udc->epctrl[num]);
 }
 
@@ -150,6 +247,71 @@ static int mv_ep_disable(struct usb_ep *ep)
        return 0;
 }
 
+static int mv_bounce(struct mv_ep *ep)
+{
+       uint32_t addr = (uint32_t)ep->req.buf;
+       uint32_t ba;
+
+       /* Input buffer address is not aligned. */
+       if (addr & (ARCH_DMA_MINALIGN - 1))
+               goto align;
+
+       /* Input buffer length is not aligned. */
+       if (ep->req.length & (ARCH_DMA_MINALIGN - 1))
+               goto align;
+
+       /* The buffer is well aligned, only flush cache. */
+       ep->b_len = ep->req.length;
+       ep->b_buf = ep->req.buf;
+       goto flush;
+
+align:
+       /* Use internal buffer for small payloads. */
+       if (ep->req.length <= 64) {
+               ep->b_len = 64;
+               ep->b_buf = ep->b_fast;
+       } else {
+               ep->b_len = roundup(ep->req.length, ARCH_DMA_MINALIGN);
+               ep->b_buf = memalign(ARCH_DMA_MINALIGN, ep->b_len);
+               if (!ep->b_buf)
+                       return -ENOMEM;
+       }
+
+       memcpy(ep->b_buf, ep->req.buf, ep->req.length);
+
+flush:
+       ba = (uint32_t)ep->b_buf;
+       flush_dcache_range(ba, ba + ep->b_len);
+
+       return 0;
+}
+
+static void mv_debounce(struct mv_ep *ep)
+{
+       uint32_t addr = (uint32_t)ep->req.buf;
+       uint32_t ba = (uint32_t)ep->b_buf;
+
+       invalidate_dcache_range(ba, ba + ep->b_len);
+
+       /* Input buffer address is not aligned. */
+       if (addr & (ARCH_DMA_MINALIGN - 1))
+               goto copy;
+
+       /* Input buffer length is not aligned. */
+       if (ep->req.length & (ARCH_DMA_MINALIGN - 1))
+               goto copy;
+
+       /* The buffer is well aligned, only invalidate cache. */
+       return;
+
+copy:
+       memcpy(ep->req.buf, ep->b_buf, ep->req.length);
+
+       /* Large payloads use allocated buffer, free it. */
+       if (ep->req.length > 64)
+               free(ep->b_buf);
+}
+
 static int mv_ep_queue(struct usb_ep *ep,
                struct usb_request *req, gfp_t gfp_flags)
 {
@@ -157,33 +319,36 @@ static int mv_ep_queue(struct usb_ep *ep,
        struct mv_udc *udc = (struct mv_udc *)controller.ctrl->hcor;
        struct ept_queue_item *item;
        struct ept_queue_head *head;
-       unsigned phys;
-       int bit, num, len, in;
+       int bit, num, len, in, ret;
        num = mv_ep->desc->bEndpointAddress & USB_ENDPOINT_NUMBER_MASK;
        in = (mv_ep->desc->bEndpointAddress & USB_DIR_IN) != 0;
-       item = items[2 * num + in];
-       head = epts + 2 * num + in;
-       phys = (unsigned)req->buf;
+       item = mv_get_qtd(num, in);
+       head = mv_get_qh(num, in);
        len = req->length;
 
+       ret = mv_bounce(mv_ep);
+       if (ret)
+               return ret;
+
        item->next = TERMINATE;
        item->info = INFO_BYTES(len) | INFO_IOC | INFO_ACTIVE;
-       item->page0 = phys;
-       item->page1 = (phys & 0xfffff000) + 0x1000;
+       item->page0 = (uint32_t)mv_ep->b_buf;
+       item->page1 = ((uint32_t)mv_ep->b_buf & 0xfffff000) + 0x1000;
 
        head->next = (unsigned) item;
        head->info = 0;
 
-       DBG("ept%d %s queue len %x, buffer %x\n",
-                       num, in ? "in" : "out", len, phys);
+       DBG("ept%d %s queue len %x, buffer %p\n",
+           num, in ? "in" : "out", len, mv_ep->b_buf);
 
        if (in)
                bit = EPT_TX(num);
        else
                bit = EPT_RX(num);
 
-       flush_cache(phys, len);
-       flush_cache((unsigned long)item, sizeof(struct ept_queue_item));
+       mv_flush_qh(num);
+       mv_flush_qtd(num);
+
        writel(bit, &udc->epprime);
 
        return 0;
@@ -197,13 +362,17 @@ static void handle_ep_complete(struct mv_ep *ep)
        in = (ep->desc->bEndpointAddress & USB_DIR_IN) != 0;
        if (num == 0)
                ep->desc = &ep0_out_desc;
-       item = items[2 * num + in];
+       item = mv_get_qtd(num, in);
+       mv_invalidate_qtd(num);
 
        if (item->info & 0xff)
                printf("EP%d/%s FAIL nfo=%x pg0=%x\n",
                        num, in ? "in" : "out", item->info, item->page0);
 
        len = (item->info >> 16) & 0x7fff;
+
+       mv_debounce(ep);
+
        ep->req.length -= len;
        DBG("ept%d %s complete %x\n",
                        num, in ? "in" : "out", len);
@@ -226,9 +395,9 @@ static void handle_setup(void)
        int status = 0;
        int num, in, _num, _in, i;
        char *buf;
-       head = epts;
+       head = mv_get_qh(0, 0); /* EP0 OUT */
 
-       flush_cache((unsigned long)head, sizeof(struct ept_queue_head));
+       mv_invalidate_qh(0);
        memcpy(&r, head->setup_data, sizeof(struct usb_ctrlrequest));
        writel(EPT_RX(0), &udc->epstat);
        DBG("handle setup %s, %x, %x index %x value %x\n", reqname(r.bRequest),
@@ -307,8 +476,9 @@ static void stop_activity(void)
                                & USB_ENDPOINT_NUMBER_MASK;
                        in = (controller.ep[i].desc->bEndpointAddress
                                & USB_DIR_IN) != 0;
-                       head = epts + (num * 2) + (in);
+                       head = mv_get_qh(num, in);
                        head->info = INFO_ACTIVE;
+                       mv_flush_qh(num);
                }
        }
 }
@@ -390,7 +560,7 @@ static int mv_pullup(struct usb_gadget *gadget, int is_on)
                writel(USBCMD_ITC(MICRO_8FRAME) | USBCMD_RST, &udc->usbcmd);
                udelay(200);
 
-               writel((unsigned) epts, &udc->epinitaddr);
+               writel((unsigned)controller.epts, &udc->epinitaddr);
 
                /* select DEVICE mode */
                writel(USBMODE_DEVICE, &udc->usbmode);
@@ -424,17 +594,48 @@ void udc_disconnect(void)
 static int mvudc_probe(void)
 {
        struct ept_queue_head *head;
+       uint8_t *imem;
        int i;
 
-       controller.gadget.ops = &mv_udc_ops;
-       epts = memalign(PAGE_SIZE, QH_MAXNUM * sizeof(struct ept_queue_head));
-       memset(epts, 0, QH_MAXNUM * sizeof(struct ept_queue_head));
+       const int num = 2 * NUM_ENDPOINTS;
+
+       const int eplist_min_align = 4096;
+       const int eplist_align = roundup(eplist_min_align, ARCH_DMA_MINALIGN);
+       const int eplist_raw_sz = num * sizeof(struct ept_queue_head);
+       const int eplist_sz = roundup(eplist_raw_sz, ARCH_DMA_MINALIGN);
+
+       const int ilist_align = roundup(ARCH_DMA_MINALIGN, 32);
+       const int ilist_ent_raw_sz = 2 * sizeof(struct ept_queue_item);
+       const int ilist_ent_sz = roundup(ilist_ent_raw_sz, ARCH_DMA_MINALIGN);
+       const int ilist_sz = NUM_ENDPOINTS * ilist_ent_sz;
+
+       /* The QH list must be aligned to 4096 bytes. */
+       controller.epts = memalign(eplist_align, eplist_sz);
+       if (!controller.epts)
+               return -ENOMEM;
+       memset(controller.epts, 0, eplist_sz);
+
+       /*
+        * Each qTD item must be 32-byte aligned, each qTD touple must be
+        * cacheline aligned. There are two qTD items for each endpoint and
+        * only one of them is used for the endpoint at time, so we can group
+        * them together.
+        */
+       controller.items_mem = memalign(ilist_align, ilist_sz);
+       if (!controller.items_mem) {
+               free(controller.epts);
+               return -ENOMEM;
+       }
+
        for (i = 0; i < 2 * NUM_ENDPOINTS; i++) {
                /*
-                * For item0 and item1, they are served as ep0
-                * out&in seperately
+                * Configure QH for each endpoint. The structure of the QH list
+                * is such that each two subsequent fields, N and N+1 where N is
+                * even, in the QH list represent QH for one endpoint. The Nth
+                * entry represents OUT configuration and the N+1th entry does
+                * represent IN configuration of the endpoint.
                 */
-               head = epts + i;
+               head = controller.epts + i;
                if (i < 2)
                        head->config = CONFIG_MAX_PKT(EP0_MAX_PACKET_SIZE)
                                | CONFIG_ZLT | CONFIG_IOS;
@@ -444,7 +645,16 @@ static int mvudc_probe(void)
                head->next = TERMINATE;
                head->info = 0;
 
-               items[i] = memalign(PAGE_SIZE, sizeof(struct ept_queue_item));
+               imem = controller.items_mem + ((i >> 1) * ilist_ent_sz);
+               if (i & 1)
+                       imem += sizeof(struct ept_queue_item);
+
+               controller.items[i] = (struct ept_queue_item *)imem;
+
+               if (i & 1) {
+                       mv_flush_qh(i - 1);
+                       mv_flush_qtd(i - 1);
+               }
        }
 
        INIT_LIST_HEAD(&controller.gadget.ep_list);