Added new fabfile.py to branch fabric
authorbobcall <bob@bobcall.me>
Fri, 28 Jun 2013 22:14:40 +0000 (18:14 -0400)
committerbobcall <bob@bobcall.me>
Fri, 28 Jun 2013 22:14:40 +0000 (18:14 -0400)
fabfile.py [changed mode: 0755->0644]

old mode 100755 (executable)
new mode 100644 (file)
index 9bdf26a..95e6bd1
-"""Management utilities."""
+
+""" Karmaworld Fabric management script
+    Finals Club (c) 2013"""
 
 import os
-from contextlib import contextmanager as _contextmanager
 
 from fabric.api import cd, env, lcd, prefix, run, task, local, settings
+from fabvenv import virtualenv
 
-
-########## GLOBALS
+######### GLOBAL
 env.proj_repo = 'git@github.com:FinalsClub/karmaworld.git'
-env.virtualenv = 'venv-kw'
-env.activate = 'workon %s' % env.virtualenv
-
-# Using this env var to be able to specify the function
-# used to run the commands. By default it's `run`, which
-# runs commands remotely, but in the `here` task we set
-# env.run to `local` to run commands locally.
-env.run = run
-env.cd = cd
-########## END GLOBALS
-
-
-########## HELPERS
-@_contextmanager
-def _virtualenv():
-    """
-    Changes to the proj_dir and activates the virtualenv
-    """
-    with env.cd(env.proj_dir):
-        with prefix(env.activate):
-            yield
 
-########## END HELPERS
 
-########## ENVIRONMENTS
+######## Define host(s)
 @task
 def here():
     """
-    Connection information for the local machine
-    """
-    # This is required, because local doesn't read the user's
-    # .bashrc file, because it doesn't use an interactive shell
-    def _custom_local(command):
-        prefixed_command = '/bin/bash -l -i -c "%s"' % command
-        return local(prefixed_command)
+Connection information for the local machine
+"""
 
     # This is required for the same reason as above
-    env.activate = '/bin/bash -l -i -c "workon %s"' % env.virtualenv
     env.proj_dir = os.getcwd()
     env.proj_root = os.path.dirname(env.proj_dir)
-    env.run = _custom_local
     env.cd = lcd
     env.reqs = 'reqs/dev.txt'
-    env.confs = 'confs/dev/'
-    env.branch = 'master'
-
-
-@task
-def beta():
-    """
-    Beta connection information
-    """
-    env.user = 'djkarma'
-    env.hosts = ['beta.karmanotes.org']
-    env.proj_root = '/var/www/karmaworld'
-    env.proj_dir = os.path.join(env.proj_root, 'karmaworld')
-    env.reqs = 'reqs/prod.txt'
-    env.confs = 'confs/beta/'
+    env.confs = 'confs/stag/'
     env.branch = 'beta'
+    env.run = virtenv_exec
 
+######## Run Commands in Virutal Environment
+def virtenv_exec(command):
+        with virtualenv('%s/%s' % (env.proj_dir, env.branch)):
+                run('%s' % (command))
 
-@task
-def prod():
-    """
-    Production connection information
-    """
-    env.user = 'djkarma'
-    env.hosts = ['karmanotes.org']
-    env.proj_root = '/var/www/karmaworld'
-    env.proj_dir = os.path.join(env.proj_root, 'karmaworld')
-    env.reqs = 'reqs/prod.txt'
-    env.confs = 'confs/prod/'
-    env.branch = 'master'
-########## END ENVIRONMENTS
 
 
-########## DATABASE MANAGEMENT
+######## Sync database
 @task
 def syncdb():
-    """Runs syncdb (along with any pending South migrations)"""
-    env.run('python manage.py syncdb --noinput --migrate')
-########## END DATABASE MANAGEMENT
-
-
-########## FILE MANAGEMENT
-@task
-def manage_static():
-    """
-    Collects, compresses and uploads static files.
-    """
-    collect_static()
-    compress_static()
-    upload_static()
+       env.run('%s/manage.py syncdb --noinput --migrate' % env.proj_dir )
 
 
+####### Collect Static Files
 @task
 def collect_static():
-    """Collect all static files, and copy them to S3 for production usage."""
-    env.run('python manage.py collectstatic --noinput')
-
+       env.run('%s/manage.py collectstatic --noinput' % env.proj_dir ) 
 
+####### Run Dev Server
 @task
-def compress_static():
-    """
-    Compresses the static files.
-    """
-    pass
-
+def dev_server():
+       env.run('%s/manage.py runserver' % env.proj_dir )       
 
-@task
-def upload_static():
-    """
-    Uploads the static files to the specified host.
-    """
-    pass
-########## END FILE MANAGEMENT
-
-
-########## COMMANDS
+####### Create Virtual Environment
 @task
 def make_virtualenv():
-    """
-    Creates a virtualenv on the remote host
-    """
-    env.run('mkvirtualenv --no-site-packages %s' % env.virtualenv)
-
-
-@task
-def update_reqs():
-    """
-    Makes sure all packages listed in requirements are installed
-    """
-    with _virtualenv():
-        env.run('pip install -r %s' % env.reqs)
-
-
-@task
-def clone():
-    """
-    Clones the project from the central repository
-    """
-    env.run('git clone %s %s' % (env.proj_repo, env.proj_dir))
-
-
-@task
-def update_code():
-    """
-    Pulls changes from the central repo and checks out the right branch
-    """
-    with env.cd(env.proj_dir):
-        env.run('git pull && git checkout %s' % env.branch)
-
+       run('virtualenv %s/%s' % (env.proj_dir, env.branch))
+       env.run('pip install -r %s/reqs/dev.txt' % env.proj_dir )
 
+####### Supervisord
 @task
 def start_supervisord():
-    """
-    Starts supervisord
-    """
-    with _virtualenv():
-        config_file = os.path.join(env.confs, 'supervisord.conf')
-        env.run('supervisord -c %s' % config_file)
+       config_file = '%s/%ssupervisord.conf' % (env.proj_dir,env.confs)
+       env.run('supervisord -c %s' % config_file)
 
-
-@task
-def stop_supervisord():
-    """
-    Restarts supervisord
-    """
-    with _virtualenv():
-        config_file = os.path.join(env.confs, 'supervisord.conf')
-        env.run('supervisorctl -c %s shutdown' % config_file)
-
-
-@task
-def restart_supervisord():
-    """
-    Restarts supervisord
-    """
-    stop_supervisord()
-    start_supervisord()
-
-
-def supervisorctl(action, process):
-    """
-    Takes as arguments the name of the process as is
-    defined in supervisord.conf and the action that should
-    be performed on it: start|stop|restart.
-    """
-    supervisor_conf = os.path.join(env.confs, 'supervisord.conf')
-    env.run('supervisorctl -c %s %s %s' % (supervisor_conf, action, process))
-
-
-@task
-def start_celeryd():
-    """
-    Starts the celeryd process
-    """
-    supervisorctl('start', 'celeryd')
-
-
-@task
-def stop_celeryd():
-    """
-    Stops the celeryd process
-    """
-    supervisorctl('stop', 'celeryd')
-
-
-@task
-def restart_celery():
-    """
-    Restarts the celeryd process
-    """
-    supervisorctl('restart', 'celeryd')
-
-
-@task
-def start_gunicorn():
-    """
-    Starts the gunicorn process
-    """
-    supervisorctl('start', 'gunicorn')
-
-
-@task
-def stop_gunicorn():
-    """
-    Stops the gunicorn process
-    """
-    supervisorctl('stop', 'gunicorn')
-
-
-@task
-def restart_gunicorn():
-    """
-    Restarts the gunicorn process
-    """
-    supervisorctl('restart', 'gunicorn')
-
-
-@task
-def first_deploy():
-    """
-    Sets up and deploys the project for the first time.
-    """
-    # If we're on the local machine, there's no point in cloning
-    # the project, because it's already been cloned. Otherwise
-    # the user couldn't run this file
-    if env.run == run:
-        # We're doing this to filter out the hosts that have
-        # already been setup and deployed to
-        with settings(warn_only=True):
-            if env.run('test -d %s' % env.project).failed:
-                return
-        clone()
-
-    make_virtualenv()
-    update_reqs()
-    syncdb()
-
-    # We don't collect the static files and start supervisor on
-    # development machines
-    if env.run == run:
-        manage_static()
-        start_supervisord()
-
-
-@task
-def deploy():
-    """
-    Deploys the latest changes
-    """
-    update_code()
-    update_reqs()
-    syncdb()
-    manage_static()
-    restart_supervisord()
-########## END COMMANDS