optimize contended normal mutex case; add int compare-and-swap atomic
authorRich Felker <dalias@aerifal.cx>
Thu, 17 Mar 2011 16:14:40 +0000 (12:14 -0400)
committerRich Felker <dalias@aerifal.cx>
Thu, 17 Mar 2011 16:14:40 +0000 (12:14 -0400)
arch/i386/atomic.h
arch/x86_64/atomic.h
src/thread/pthread_mutex_trylock.c

index e74e45352574859ed06fbfea614750068846c623..bf3c336e6e30ceda2aca4d63ee257e0dc9b65f66 100644 (file)
@@ -49,6 +49,13 @@ static inline long a_cas_l(volatile void *p, long t, long s)
        return t;
 }
 
+static inline int a_cas(volatile int *p, int t, int s)
+{
+       __asm__( "lock ; cmpxchg %3, %1"
+               : "=a"(t), "=m"(*p) : "a"(t), "r"(s) : "memory" );
+       return t;
+}
+
 static inline void *a_swap_p(void *volatile *x, void *v)
 {
        __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(void **)x) : "0"(v) : "memory" );
index 7a665c1b776d89562e04fdfa1c97affb8299ba59..04f6c28d0bb840d2799c1c3deaac585058b39ebc 100644 (file)
@@ -48,6 +48,13 @@ static inline long a_cas_l(volatile void *p, long t, long s)
        return t;
 }
 
+static inline int a_cas(volatile int *p, int t, int s)
+{
+       __asm__( "lock ; cmpxchgl %3, %1"
+               : "=a"(t), "=m"(*p) : "a"(t), "r"(s) : "memory" );
+       return t;
+}
+
 static inline void *a_swap_p(void *volatile *x, void *v)
 {
        __asm__( "xchg %0, %1" : "=r"(v), "=m"(*(void **)x) : "0"(v) : "memory" );
index af421472dd52adb3659d2e402133c33138ff83ec..6fc604fe1e731617e2510e8ff69989bb22dce559 100644 (file)
@@ -5,7 +5,7 @@ int pthread_mutex_trylock(pthread_mutex_t *m)
        int tid;
 
        if (m->_m_type == PTHREAD_MUTEX_NORMAL)
-               return -a_xchg(&m->_m_lock, 1) & EBUSY;
+               return (m->_m_lock || a_swap(&m->_m_lock, 1)) ? EBUSY : 0;
 
        tid = pthread_self()->tid;