如何使用Python以编程方式从客户端OAuth流中检索access_token



这个问题发布在StackApps上,但这个问题可能更多的是编程问题,而不是身份验证问题,因此它可能应该在这里得到更好的位置

我正在为StackOverflow开发一个桌面收件箱通知程序,使用带有Python的API。

我正在使用的脚本首先将用户登录到StackExchange,然后请求应用程序的授权。假设应用程序已通过用户的网络浏览器交互进行授权,则应用程序应能够通过身份验证向API发出请求,因此它需要特定于用户的访问令牌。这是通过URL:https://stackexchange.com/oauth/dialog?client_id=54&scope=read_inbox&redirect_uri=https://stackexchange.com/oauth/login_success完成的。

当通过网络浏览器请求授权时,正在进行重定向,并且在#之后返回访问代码但是,当使用Python(urllib2)请求相同的URL时,响应中不会返回哈希或密钥

为什么我的urllib2请求与Firefox或W3m中的相同请求处理方式不同?我应该如何以编程方式模拟此请求并检索access_token

这是我的脚本(它是实验性的),请记住:它假设用户已经授权了应用程序。

#!/usr/bin/env python
import urllib
import urllib2
import cookielib
from BeautifulSoup import BeautifulSoup
from getpass import getpass    
# Define URLs
parameters = [ 'client_id=54',
               'scope=read_inbox',
               'redirect_uri=https://stackexchange.com/oauth/login_success'
             ]
oauth_url = 'https://stackexchange.com/oauth/dialog?' + '&'.join(parameters)
login_url = 'https://openid.stackexchange.com/account/login'
submit_url = 'https://openid.stackexchange.com/account/login/submit'
authentication_url = 'http://stackexchange.com/users/authenticate?openid_identifier='
# Set counter for requests:
counter = 0
# Build opener
jar = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(jar))
def authenticate(username='', password=''):
    '''
        Authenticates to StackExchange using user-provided username and password
    '''
    # Build up headers
    user_agent = 'Mozilla/5.0 (Ubuntu; X11; Linux i686; rv:8.0) Gecko/20100101 Firefox/8.0'
    headers = {'User-Agent' : user_agent}
    # Set Data to None
    data = None
    # 1. Build up URL request with headers and data    
    request = urllib2.Request(login_url, data, headers)
    response = opener.open(request)
    # Build up POST data for authentication
    html = response.read()
    fkey = BeautifulSoup(html).findAll(attrs={'name' : 'fkey'})[0].get('value').encode()
    values = {'email' : username,
              'password' : password,
              'fkey' : fkey}
    data = urllib.urlencode(values)
    # 2. Build up URL for authentication
    request = urllib2.Request(submit_url, data, headers)
    response = opener.open(request)
    # Check if logged in
    if response.url == 'https://openid.stackexchange.com/user':
        print ' Logged in! :) '
    else:
        print ' Login failed! :( '
    # Find user ID URL    
    html = response.read()
    id_url = BeautifulSoup(html).findAll('code')[0].text.split('"')[-2].encode()
    # 3. Build up URL for OpenID authentication
    data = None
    url = authentication_url + urllib.quote_plus(id_url)
    request = urllib2.Request(url, data, headers)
    response = opener.open(request)
    # 4. Build up URL request with headers and data
    request = urllib2.Request(oauth_url, data, headers)
    response = opener.open(request)
    if '#' in response.url:
        print 'Access code provided in URL.'
    else:
        print 'No access code provided in URL.'
if __name__ == '__main__':
    username = raw_input('Enter your username: ')
    password = getpass('Enter your password: ')
    authenticate(username, password)

回应以下评论:

Firefox中的篡改数据请求具有以下标题的上述URL(代码中为oauth_url):

Host=stackexchange.com
User-Agent=Mozilla/5.0 (Ubuntu; X11; Linux i686; rv:9.0.1) Gecko/20100101 Firefox/9.0.1
Accept=text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8
Accept-Language=en-us,en;q=0.5
Accept-Encoding=gzip, deflate
Accept-Charset=ISO-8859-1,utf-8;q=0.7,*;q=0.7
Connection=keep-alive
Cookie=m=2; __qca=P0-556807911-1326066608353; __utma=27693923.1085914018.1326066609.1326066609.1326066609.1; __utmb=27693923.3.10.1326066609; __utmc=27693923; __utmz=27693923.1326066609.1.1.utmcsr=(direct)|utmccn=(direct)|utmcmd=(none); gauthed=1; ASP.NET_SessionId=nt25smfr2x1nwhr1ecmd4ok0; se-usr=t=z0FHKC6Am06B&s=pblSq0x3B0lC

在urllib2请求中,标头仅提供用户代理值。cookie没有显式传递,但在请求时,se-usr在cookie jar中可用。

响应标头将首先是重定向:

Status=Found - 302
Server=nginx/0.7.65
Date=Sun, 08 Jan 2012 23:51:12 GMT
Content-Type=text/html; charset=utf-8
Connection=keep-alive
Cache-Control=private
Location=https://stackexchange.com/oauth/login_success#access_token=OYn42gZ6r3WoEX677A3BoA))&expires=86400
Set-Cookie=se-usr=t=kkdavslJe0iq&s=pblSq0x3B0lC; expires=Sun, 08-Jul-2012 23:51:12 GMT; path=/; HttpOnly
Content-Length=218

然后,重定向将通过另一个具有该标头中的新se-usr值的请求进行。

我不知道如何在urllib2中捕获302,它自己处理(这很好)。然而,如果能看到位置标头中提供的访问令牌是否可用,那就太好了。

最后一个响应头中没有什么特别的,Firefox和Urllib都返回了类似的内容:

Server: nginx/0.7.65
Date: Sun, 08 Jan 2012 23:48:16 GMT
Content-Type: text/html; charset=utf-8
Connection: close
Cache-Control: private
Content-Length: 5664

我希望我没有提供机密信息,如果我提供了,请告诉我:D

由于urllib2处理重定向的方式,令牌不会出现。我对细节不熟悉,所以这里就不赘述了。

解决方案是在urllib2处理重定向之前捕获302。这可以通过对urllib2.HTTPRedirectHandler进行子类以获得带有其标签和令牌的重定向来实现。下面是处理程序子类化的一个简短示例:

class MyHTTPRedirectHandler(urllib2.HTTPRedirectHandler):
    def http_error_302(self, req, fp, code, msg, headers):
        print "Going through 302:n"
        print headers
        return urllib2.HTTPRedirectHandler.http_error_302(self, req, fp, code, msg, headers)

在标题中,location属性将提供完整长度的重定向URL,即包括标签和令牌:

输出摘录:

...
Going through 302:
Server: nginx/0.7.65
Date: Mon, 09 Jan 2012 20:20:11 GMT
Content-Type: text/html; charset=utf-8
Connection: close
Cache-Control: private
Location: https://stackexchange.com/oauth/login_success#access_token=K4zKd*HkKw5Opx(a8t12FA))&expires=86400
Content-Length: 218
...

更多关于在StackOverflow上使用urllib2捕获重定向的信息(当然)。

最新更新