Linux 实用命令行 cURL 用法示例

cURL是一个由命令行工具和用于使用URL语法传输数据的库组成的软件包。

cURL支持DICT,FILE,FTP,FTPS,Gopher,HTTP,HTTPS,IMAP,IMAPS,LDAP,LDAPS,POP3,POP3S,RTMP,RTSP,SCP,SFTP,SMTP,SMTPS,Telnet和TFTP等各种协议。

curl命令是一个功能强大的网络工具,它能够通过http、ftp等方式下载文件,也能够上传文件。其实curl远不止前面所说的那些功能

安装curl

[root@hadron ~]# yum install -y curl

curl所有参数概览

[root@hadron ~]# curl --help
Usage: curl [options...] <url>
Options: (H) means HTTP/HTTPS only, (F) means FTP only
     --anyauth       Pick "any" authentication method (H)
 -a, --append        Append to target file when uploading (F/SFTP)
     --basic         Use HTTP Basic Authentication (H)
     --cacert FILE   CA certificate to verify peer against (SSL)
     --capath DIR    CA directory to verify peer against (SSL)
 -E, --cert CERT[:PASSWD] Client certificate file and password (SSL)
     --cert-type TYPE Certificate file type (DER/PEM/ENG) (SSL)
     --ciphers LIST  SSL ciphers to use (SSL)
     --compressed    Request compressed response (using deflate or gzip)
 -K, --config FILE   Specify which config file to read
     --connect-timeout SECONDS  Maximum time allowed for connection
 -C, --continue-at OFFSET  Resumed transfer offset
 -b, --cookie STRING/FILE  String or file to read cookies from (H)
 -c, --cookie-jar FILE  Write cookies to this file after operation (H)
     --create-dirs   Create necessary local directory hierarchy
     --crlf          Convert LF to CRLF in upload
     --crlfile FILE  Get a CRL list in PEM format from the given file
 -d, --data DATA     HTTP POST data (H)
     --data-ascii DATA  HTTP POST ASCII data (H)
     --data-binary DATA  HTTP POST binary data (H)
     --data-urlencode DATA  HTTP POST data url encoded (H)
     --delegation STRING GSS-API delegation permission
     --digest        Use HTTP Digest Authentication (H)
     --disable-eprt  Inhibit using EPRT or LPRT (F)
     --disable-epsv  Inhibit using EPSV (F)
 -D, --dump-header FILE  Write the headers to this file
     --egd-file FILE  EGD socket path for random data (SSL)
     --engine ENGINGE  Crypto engine (SSL). "--engine list" for list
 -f, --fail          Fail silently (no output at all) on HTTP errors (H)
 -F, --form CONTENT  Specify HTTP multipart POST data (H)
     --form-string STRING  Specify HTTP multipart POST data (H)
     --ftp-account DATA  Account data string (F)
     --ftp-alternative-to-user COMMAND  String to replace "USER [name]" (F)
     --ftp-create-dirs  Create the remote dirs if not present (F)
     --ftp-method [MULTICWD/NOCWD/SINGLECWD] Control CWD usage (F)
     --ftp-pasv      Use PASV/EPSV instead of PORT (F)
 -P, --ftp-port ADR  Use PORT with given address instead of PASV (F)
     --ftp-skip-pasv-ip Skip the IP address for PASV (F)
     --ftp-pret      Send PRET before PASV (for drftpd) (F)
     --ftp-ssl-ccc   Send CCC after authenticating (F)
     --ftp-ssl-ccc-mode ACTIVE/PASSIVE  Set CCC mode (F)
     --ftp-ssl-control Require SSL/TLS for ftp login, clear for transfer (F)
 -G, --get           Send the -d data with a HTTP GET (H)
 -g, --globoff       Disable URL sequences and ranges using {} and []
 -H, --header LINE   Custom header to pass to server (H)
 -I, --head          Show document info only
 -h, --help          This help text
     --hostpubmd5 MD5  Hex encoded MD5 string of the host public key. (SSH)
 -0, --http1.0       Use HTTP 1.0 (H)
     --ignore-content-length  Ignore the HTTP Content-Length header
 -i, --include       Include protocol headers in the output (H/F)
 -k, --insecure      Allow connections to SSL sites without certs (H)
     --interface INTERFACE  Specify network interface/address to use
 -4, --ipv4          Resolve name to IPv4 address
 -6, --ipv6          Resolve name to IPv6 address
 -j, --junk-session-cookies Ignore session cookies read from file (H)
     --keepalive-time SECONDS  Interval between keepalive probes
     --key KEY       Private key file name (SSL/SSH)
     --key-type TYPE Private key file type (DER/PEM/ENG) (SSL)
     --krb LEVEL     Enable Kerberos with specified security level (F)
     --libcurl FILE  Dump libcurl equivalent code of this command line
     --limit-rate RATE  Limit transfer speed to this rate
 -l, --list-only     List only names of an FTP directory (F)
     --local-port RANGE  Force use of these local port numbers
 -L, --location      Follow redirects (H)
     --location-trusted like --location and send auth to other hosts (H)
 -M, --manual        Display the full manual
     --mail-from FROM  Mail from this address
     --mail-rcpt TO  Mail to this receiver(s)
     --mail-auth AUTH  Originator address of the original email
     --max-filesize BYTES  Maximum file size to download (H/F)
     --max-redirs NUM  Maximum number of redirects allowed (H)
 -m, --max-time SECONDS  Maximum time allowed for the transfer
     --metalink      Process given URLs as metalink XML file
     --negotiate     Use HTTP Negotiate Authentication (H)
 -n, --netrc         Must read .netrc for user name and password
     --netrc-optional Use either .netrc or URL; overrides -n
     --netrc-file FILE  Set up the netrc filename to use
 -N, --no-buffer     Disable buffering of the output stream
     --no-keepalive  Disable keepalive use on the connection
     --no-sessionid  Disable SSL session-ID reusing (SSL)
     --noproxy       List of hosts which do not use proxy
     --ntlm          Use HTTP NTLM authentication (H)
 -o, --output FILE   Write output to <file> instead of stdout
     --pass PASS     Pass phrase for the private key (SSL/SSH)
     --post301       Do not switch to GET after following a 301 redirect (H)
     --post302       Do not switch to GET after following a 302 redirect (H)
     --post303       Do not switch to GET after following a 303 redirect (H)
 -#, --progress-bar  Display transfer progress as a progress bar
     --proto PROTOCOLS  Enable/disable specified protocols
     --proto-redir PROTOCOLS  Enable/disable specified protocols on redirect
 -x, --proxy [PROTOCOL://]HOST[:PORT] Use proxy on given port
     --proxy-anyauth Pick "any" proxy authentication method (H)
     --proxy-basic   Use Basic authentication on the proxy (H)
     --proxy-digest  Use Digest authentication on the proxy (H)
     --proxy-negotiate Use Negotiate authentication on the proxy (H)
     --proxy-ntlm    Use NTLM authentication on the proxy (H)
 -U, --proxy-user USER[:PASSWORD]  Proxy user and password
     --proxy1.0 HOST[:PORT]  Use HTTP/1.0 proxy on given port
 -p, --proxytunnel   Operate through a HTTP proxy tunnel (using CONNECT)
     --pubkey KEY    Public key file name (SSH)
 -Q, --quote CMD     Send command(s) to server before transfer (F/SFTP)
     --random-file FILE  File for reading random data from (SSL)
 -r, --range RANGE   Retrieve only the bytes within a range
     --raw           Do HTTP "raw", without any transfer decoding (H)
 -e, --referer       Referer URL (H)
 -J, --remote-header-name Use the header-provided filename (H)
 -O, --remote-name   Write output to a file named as the remote file
     --remote-name-all Use the remote file name for all URLs
 -R, --remote-time   Set the remote file's time on the local output
 -X, --request COMMAND  Specify request command to use
     --resolve HOST:PORT:ADDRESS  Force resolve of HOST:PORT to ADDRESS
     --retry NUM   Retry request NUM times if transient problems occur
     --retry-delay SECONDS When retrying, wait this many seconds between each
     --retry-max-time SECONDS  Retry only within this period
 -S, --show-error    Show error. With -s, make curl show errors when they occur
 -s, --silent        Silent mode. Don't output anything
     --socks4 HOST[:PORT]  SOCKS4 proxy on given host + port
     --socks4a HOST[:PORT]  SOCKS4a proxy on given host + port
     --socks5 HOST[:PORT]  SOCKS5 proxy on given host + port
     --socks5-hostname HOST[:PORT] SOCKS5 proxy, pass host name to proxy
     --socks5-gssapi-service NAME  SOCKS5 proxy service name for gssapi
     --socks5-gssapi-nec  Compatibility with NEC SOCKS5 server
 -Y, --speed-limit RATE  Stop transfers below speed-limit for 'speed-time' secs
 -y, --speed-time SECONDS  Time for trig speed-limit abort. Defaults to 30
     --ssl           Try SSL/TLS (FTP, IMAP, POP3, SMTP)
     --ssl-reqd      Require SSL/TLS (FTP, IMAP, POP3, SMTP)
 -2, --sslv2         Use SSLv2 (SSL)
 -3, --sslv3         Use SSLv3 (SSL)
     --ssl-allow-beast Allow security flaw to improve interop (SSL)
     --stderr FILE   Where to redirect stderr. - means stdout
     --tcp-nodelay   Use the TCP_NODELAY option
 -t, --telnet-option OPT=VAL  Set telnet option
     --tftp-blksize VALUE  Set TFTP BLKSIZE option (must be >512)
 -z, --time-cond TIME  Transfer based on a time condition
 -1, --tlsv1         Use => TLSv1 (SSL)
     --tlsv1.0       Use TLSv1.0 (SSL)
     --tlsv1.1       Use TLSv1.1 (SSL)
     --tlsv1.2       Use TLSv1.2 (SSL)
     --trace FILE    Write a debug trace to the given file
     --trace-ascii FILE  Like --trace but without the hex output
     --trace-time    Add time stamps to trace/verbose output
     --tr-encoding   Request compressed transfer encoding (H)
 -T, --upload-file FILE  Transfer FILE to destination
     --url URL       URL to work with
 -B, --use-ascii     Use ASCII/text transfer
 -u, --user USER[:PASSWORD]  Server user and password
     --tlsuser USER  TLS username
     --tlspassword STRING TLS password
     --tlsauthtype STRING  TLS authentication type (default SRP)
     --unix-socket FILE    Connect through this UNIX domain socket
 -A, --user-agent STRING  User-Agent to send to server (H)
 -v, --verbose       Make the operation more talkative
 -V, --version       Show version number and quit
 -w, --write-out FORMAT  What to output after completion
     --xattr        Store metadata in extended file attributes
 -q                 If used as the first parameter disables .curlrc

本文提供了15个实用的cURL用法示例。

1、下载单个文件

以下命令将获取URL的内容并将其显示在STDOUT中(即在您的终端上)

➜  ~ curl http://baidu.com 
<html>
<meta http-equiv="refresh" content="0;url=http://www.baidu.com/">
</html>

要将输出存储在文件中,请按照下图所示重定向。 这也会显示一些额外的下载统计信息。

➜  ~ curl http://baidu.com > baidu.html
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100    81  100    81    0     0   2443      0 --:--:-- --:--:-- --:--:--  2454
➜  ~

2、将cURL输出保存到文件中

我们可以使用-o / -O选项将curl命令的结果保存到文件中。

-o(小写o)结果将被保存在命令行提供的文件名中

-O(大写字母O)URL中的文件名将被采用并且将被用作存储结果的文件名

➜  ~ curl -o mygettext.html http://www.gnu.org/software/gettext/manual/gettext.html
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
 75 1375k   75 1044k    0     0  45713      0  0:00:30  0:00:23  0:00:07 34179^C
➜  ~

现在页面gettext.html将被保存在名为“mygettext.html”的文件中。 您还可以注意到,在使用-o选项运行卷曲时,它将显示下载的进度表.

当使用curl -O(大写字母O)时,它会将内容保存在本地机器中名为“gettext.html”的文件中。

➜  ~ curl -O http://www.gnu.org/software/gettext/manual/gettext.html
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
 12 1375k   12  172k    0     0  50315      0  0:00:27  0:00:03  0:00:24 50316^C
➜  ~

注意:当curl必须将数据写入终端时,它会禁用进度表,以避免打印混乱。 我们可以使用'>'|'-o'|'-O'选项将结果移动到文件中。

与cURL类似,您也可以使用wget来下载文件。 请参阅wget示例以了解如何有效地使用wget。

3、一次获取多个文件

通过在命令行中指定URL,我们可以一次下载多个文件。

语法:$ curl -O URL1 -O URL2

下面的命令将下载index.html和gettext.html并将其保存在当前目录下的相同名称中。

$ curl -O http://www.gnu.org/software/gettext/manual/html_node/index.html -O http://www.gnu.org/software/gettext/manual/gettext.html

请注意,当我们从上面显示的同一台服务器下载多个文件时,curl会尝试重新使用连接

4、使用-L选项跟踪HTTP位置标题

默认情况下,CURL不会遵循HTTP位置标题。 它也被称为重定向。 当请求的网页被移动到另一个地方时,HTTP Location标题将作为响应发送,并且它将具有实际网页所在的位置。

例如,当某人在印度的浏览器中键入google.com时,它将被自动重定向到“google.co.in”。 这是基于HTTP位置标题完成的,如下所示。

$ curl http://www.google.com
<TITLE>302 Moved</TITLE>
<H1>302 Moved</H1>
The document has moved
<A HREF="http://www.google.co.in/">here</A>

上面的输出表示所请求的文档被移动到“http://www.google.co.in/”。

我们可以坚持使用-L选项来跟随重定向,如下所示。 现在它将下载google.co.in的html源代码。

$ curl -L http://www.google.com

5、继续/恢复以前的下载

使用curl -C选项,可以继续下载,由于某种原因已经停止了。 当你下载大文件时,这会很有帮助,并且下载被中断。

如果我们说'-C - ',那么curl会从哪里开始恢复下载。 我们也可以给出一个偏移量'-C <offset>'。 给定的偏移字节将从源文件的开头跳过。

使用curl启动一个大的下载,然后按Ctrl-C在下载之间停止它。

$ curl -O http://www.gnu.org/software/gettext/manual/gettext.html
##############             20.1%

注意: - #用于显示进度条而不是进度表。

现在上面的下载停止了20.1%。 使用“curl -C - ”,我们可以继续从之前停止的地方下载。 现在下载从20.1%继续。

curl -C - -O http://www.gnu.org/software/gettext/manual/gettext.html
###############            21.1%

6、限制数据传输速率

您可以使用-limit-rate选项来限制数据传输的数量。 您可以指定最大传输速率作为参数。

$ curl --limit-rate 1000B -O http://www.gnu.org/software/gettext/manual/gettext.html

上述命令将数据传输限制为1000 Bytes /秒。 卷曲可能会在短时间内使用较高的传输速率。 但平均来说,它会达到1000B /秒。

以下是上述命令的进度表。 你可以看到目前的速度接近1000字节。

 % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
  1 1215k    1 13601    0     0    957      0  0:21:40  0:00:14  0:21:26   999
  1 1215k    1 14601    0     0    960      0  0:21:36  0:00:15  0:21:21   999
  1 1215k    1 15601    0     0    962      0  0:21:34  0:00:16  0:21:18   999

7、只有在给定时间之前/之后修改了文件,才能下载文件

我们可以在curl中使用-z选项来获取特定时间后修改的文件。 这将适用于FTP和HTTP。

$ curl -z 21-Dec-11 http://www.example.com/yy.html

上述命令只有在被修改的时间晚于给定的日期和时间时才会下载yy.html

如果它在给定日期和时间之前被修改。请参阅“man curl_getdate”以获取日期表达式支持的各种语法

示例内容

➜  ~ curl -z -21-Dec-11 http://www.example.com/yy.html
➜  ~ curl -z -21-Dec-18 http://www.example.com/yy.html
<!doctype html>
<html>
<head>
    <title>Example Domain</title>

    <meta charset="utf-8" />
    <meta http-equiv="Content-type" content="text/html; charset=utf-8" />
    <meta name="viewport" content="width=device-width, initial-scale=1" />
    <style type="text/css">
        ...
    </style>    
</head>

<body>
<div>
    <h1>Example Domain</h1>
    <p>This domain is established to be used for illustrative examples in documents. You may use this
    domain in examples without prior coordination or asking for permission.</p>
    <p><a href="http://www.iana.org/domains/example">More information...</a></p>
</div>
</body>
</html>
➜  ~

8、在cURL中传递HTTP认证

有时,网站需要用户名和密码来查看内容(可以用.htaccess文件完成)。 借助-u选项,我们可以将这些证书从cURL传递到Web服务器,如下所示。

curl -u username:password URL

注意:默认curl使用基本HTTP认证。 我们可以使用 –ntlm | –digest 指定其他认证方法。

9、从FTP服务器下载文件

cURL也可以用来从FTP服务器下载文件。 如果给定的FTP路径是一个目录,默认情况下它将列出特定目录下的文件。

$ curl -u ftpuser:ftppass -O ftp://ftp_server/public_html/xss.php

上述命令将从ftp服务器上下载xss.php文件,并将其保存在本地目录中。

$ curl -u ftpuser:ftppass -O ftp://ftp_server/public_html/

这里,给定的URL指的是一个目录。 所以cURL会列出给定URL下的所有文件和目录

如果您对FTP / sFTP不熟悉,请参阅ftp sftp教程以供初学者使用。

10、使用范围列出/下载

cURL支持在URL中给出的范围。 当给定范围时(正则表达式),将会下载范围内匹配的文件。 从FTP镜像站点下载软件包将会有所帮助。

$ curl   ftp://ftp.uk.debian.org/debian/pool/main/[a-z]/

以上命令将列出终端中a-z范围内的所有包。

11、上传文件到FTP服务器

使用-T选项也可以使用Curl将文件上传到FTP服务器。

$ curl -u ftpuser:ftppass -T myfile.txt ftp://ftp.testserver.com

以上命令将把名为myfile.txt的文件上传到FTP服务器。 您也可以使用范围操作同时上传多个文件。

$ curl -u ftpuser:ftppass -T "{file1,file2}" ftp://ftp.testserver.com

或者我们可以使用“.”从STDIN获取输入并传输到远程。

$ curl -u ftpuser:ftppass -T - ftp://ftp.testserver.com/myfile_1.txt

以上命令将从标准输入中获得用户的输入,并将内容保存在ftp服务器中,名称为“myfile_1.txt”。

您可以为每个网址提供一个“-T”,并指定要在哪里上传的内容。

12、使用详细和跟踪选项的更多信息

您可以使用-v选项了解发生的情况。 -v选项启用详细模式,它将打印详细信息

curl -v http://google.co.in

about命令将输出以下内容

* About to connect() to www.google.co.in port 80 (#0)
*   Trying 74.125.236.56... connected
* Connected to www.google.co.in (74.125.236.56) port 80 (#0)
> GET / HTTP/1.1
> User-Agent: curl/7.21.0 (i486-pc-linux-gnu) libcurl/7.21.0 OpenSSL/0.9.8o zlib/1.2.3.4 libidn/1.15 libssh2/1.2.6
> Host: www.google.co.in
> Accept: */*
>
* HTTP 1.0, assume close after body
< HTTP/1.0 200 OK
< Date: Tue, 10 Apr 2012 11:18:39 GMT
< Expires: -1
< Cache-Control: private, max-age=0
< Content-Type: text/html; charset=ISO-8859-1
< Set-Cookie: PREF=ID=7c497a6b15cc092d:FF=0:TM=1334056719:LM=1334056719:S=UORpBwxFmTRkbXLj; expires=Thu, 10-Apr-2014 11:18:39 GMT; path=/; domain=.google.co.in
.
.

13、使用DICT协议获取Word的定义

您可以使用cURL在DICT协议的帮助下获取单词的定义。 我们需要传递一个Dictionary Server的URL给它。

curl dict://dict.org/d:bash

上面的命令将列出bash的含义,如下所示

➜  ~ curl dict://dict.org/d:bash
220 pan.alephnull.com dictd 1.12.1/rf on Linux 4.4.0-1-amd64 <auth.mime> <3597517.27349.1513841892@pan.alephnull.com>
250 ok
150 3 definitions retrieved
151 "Bash" gcide "The Collaborative International Dictionary of English v.0.48"
Bash \Bash\, v. t. [imp. & p. p. {Bashed}; p. pr. & vb. n.
   {Bashing}.] [Perh. of imitative origin; or cf. Dan. baske to
   strike, bask a blow, Sw. basa to beat, bas a beating.]
   To strike heavily; to beat; to crush. [Prov. Eng. & Scot.]
   --Hall Caine.
   [1913 Webster]

         Bash her open with a rock.               --Kipling.
   [Webster 1913 Suppl.]
.
151 "Bash" gcide "The Collaborative International Dictionary of English v.0.48"
Bash \Bash\, n.
   1. a forceful blow, especially one that does damage to its
      target.
      [PJC]

   2. a elaborate or lively social gathering or party.
      [PJC]
.
151 "Bash" gcide "The Collaborative International Dictionary of English v.0.48"
Bash \Bash\, v. t. & i. [OE. baschen, baissen. See {Abash}.]
   To abash; to disconcert or be disconcerted or put out of
   countenance. [Obs.]
   [1913 Webster]

         His countenance was bold and bashed not. --Spenser.
   [1913 Webster]
.
250 ok [d/m/c = 3/0/19; 0.000r 0.000u 0.000s]
221 bye [d/m/c = 0/0/0; 0.000r 0.000u 0.000s]
➜  ~

现在你可以看到它使用了“国际英语合作词典”。 有很多字典可用。 我们可以列出所有使用的字典

➜  ~ curl dict://dict.org/show:db
220 pan.alephnull.com dictd 1.12.1/rf on Linux 4.4.0-1-amd64 <auth.mime> <3597729.27733.1513842044@pan.alephnull.com>
250 ok
110 72 databases present
gcide "The Collaborative International Dictionary of English v.0.48"
wn "WordNet (r) 3.0 (2006)"
moby-thesaurus "Moby Thesaurus II by Grady Ward, 1.0"
elements "The Elements (07Nov00)"
...
...省略内容...
...
english "English Monolingual Dictionaries"
trans "Translating Dictionaries"
all "All Dictionaries (English-Only and Translating)"
.
250 ok
221 bye [d/m/c = 0/0/0; 0.000r 0.000u 0.000s]
➜  ~

现在为了在计算机中找到Bash的实际含义,我们可以在“foldoc”字典中搜索bash,如下所示

➜  ~ curl dict://dict.org/d:bash:foldoc

结果

➜  ~ curl dict://dict.org/d:bash:foldoc 
220 pan.alephnull.com dictd 1.12.1/rf on Linux 4.4.0-1-amd64 <auth.mime> <3598048.28257.1513842252@pan.alephnull.com>
250 ok
150 1 definitions retrieved
151 "bash" foldoc "The Free On-line Dictionary of Computing (18 March 2015)"
bash

   Bourne Again SHell.  {GNU}'s {command interpreter} for {Unix}.
   Bash is a {Posix}-compatible {shell} with full {Bourne shell}
   syntax, and some {C shell} commands built in.  The Bourne
   Again Shell supports {Emacs}-style command-line editing, job
   control, functions, and on-line help.  Written by Brian Fox of
   {UCSB}.

   The latest version is 1.14.1.  It includes a {yacc} parser,
   the interpreter and documentation.

   {(ftp://ftp.gnu.org/bash-1.14.1.tar.gz)} or from a
   {GNU archive site}.  E-mail: <bug-bash@gnu.org>.
   {Usenet} newsgroup: {news:gnu.bash.bug}.

   (1994-07-15)

.
250 ok [d/m/c = 1/0/13; 0.000r 0.000u 0.000s]
221 bye [d/m/c = 0/0/0; 0.000r 0.000u 0.000s]
➜  ~

有关DICT的更多详细信息,请阅读RFC2229

14、使用代理下载文件

我们可以指定cURL使用代理来使用-x选项来执行特定的操作。 我们需要指定代理的主机和端口。

$ curl -x proxysever.test.com:3128 http://google.co.in

15、使用SMTP协议发送邮件

cURL也可以用来使用SMTP协议发送邮件。 您应该指定从地址,到地址和邮件服务器IP地址,如下所示。

$ curl --mail-from blah@test.com --mail-rcpt foo@test.com smtp://mailserver.com

一旦输入了上述命令,它将等待用户将数据提供给邮件。 一旦你编写了你的消息,输入。 (句点)作为最后一行,即时发送电子邮件。

Subject: Testing
This is a test mail
.

其他RESTful API功能示例

curl的参数很多,这边仅列出目前测试REST时常用到的:

-X/--request [GET|POST|PUT|DELETE|…]  使用指定的http method发出 http request
-H/--header                           设定request里的header
-i/--include                          显示response的header
-d/--data                             设定 http parameters 
-v/--verbose                          输出比较多的信息
-u/--user                             使用者账号、密码
-b/--cookie                           cookie

linux command line的参数常,同一个功能常会有两个功能完全相同参数,一个是比较短的参数,前面通常是用-(一个-)导引符号,另一个比较长的参数,通常会用--(两个-)导引符号

在curl 使用说明

-X, --request COMMAND  Specify request command to use
      --resolve HOST:PORT:ADDRESS  Force resolve of HOST:PORT to ADDRESS
      --retry NUM   Retry request NUM times if transient problems occur
      --retry-delay SECONDS When retrying, wait this many seconds between each
      --retry-max-time SECONDS  Retry only within this period>

参数-X--request两个功能是一样的,所以使用时 ex:curl -X POST http://www.example.com/ 跟 curl --request POST http://www.example.com/是相等的功能

GET/POST/PUT/DELETE使用方式

-X 后面加http method,

curl -X GET "http://www.rest.com/api/users"
curl -X POST "http://www.rest.com/api/users"
curl -X PUT "http://www.rest.com/api/users"
curl -X DELETE "http://www.rest.com/api/users"

url要加引号也可以,不加引号也可以,如果有非纯英文字或数字外的字元,不加引号可能会有问题,如果是网码过的url,也要加上引号

HEADER

在http header加入的讯息

curl -v -i -H "Content-Type: application/json" http://www.example.com/users

HTTP Parameter

http参数可以直接加在url的query string,也可以用带入参数间用串接,或使用多个-d&-d

# 使用`&`串接多個参数
curl -X POST -d "param1=value1&param2=value2"
# 也可使用多个`-d`,效果同上
curl -X POST -d "param1=value1" -d "param2=value2"
curl -X POST -d "param1=a 0space"     
# "a space" url encode后空白字符会编码成'%20'为"a%20space",編码后的参数可以直接使用
curl -X POST -d "param1=a%20space"

 post json 格式

如同时需要传送request parameter跟json,request parameter可以加在url后面,json资料则放入的参数,然后利用单引号将json资料含起来(如果json内容是用单引号,-d的参数则改用双引号包覆),header要加入”Content-Type:application/json”跟”Accept:application/json”

curl http://www.example.com?modifier=kent -X PUT -i -H "Content-Type:application/json" -H "Accept:application/json" -d '{"boolean" : false, "foo" : "bar"}'
# 不加"Accept:application/json"也可以
curl http://www.example.com?modifier=kent -X PUT -i -H "Content-Type:application/json" -d '{"boolean" : false, "foo" : "bar"}'

需先认证或登入才能使用的service

许多服务,需先进行登入或认证后,才能存取其API服务,依服务要求的条件,的curl可以透过cookie,session或加入在header加入session key,api key或认证的token来达到认证的效果。

session 例子:

后端如果是用session记录使用者登入资讯,后端会传一个session id给前端,前端需要在每次跟后端的requests的header中置入此session id,后端便会以此session id识别前端是属于那个session,以达到session的效果

curl --request GET 'http://www.rest.com/api/users' --header 'sessionid:1234567890987654321'

cookie 例子

如果是使用cookie,在认证后,后端会回一个cookie回来,把该cookie成档案,当要存取需要任务的url时,再用-b cookie_file的方式在request中植入cookie即可正常使用

# 将cookie存档
curl -i -X POST -d username=kent -d password=kent123 -c  ~/cookie.txt  http://www.rest.com/auth
# 载入cookie到request中 
curl -i --header "Accept:application/json" -X GET -b ~/cookie.txt http://www.rest.com/users/1

档案上传

curl -i -X POST -F 'file=@/Users/kent/my_file.txt' -F 'name=a_file_name'

这个是透过HTTP multipart POST上传资料,是使用http query parameter的方式,指定档案位置的参数要加上-F@

HTTP Basic Authentication (HTTP基本认证)

如果网站是采HTTP基本认证,可以使用登入--user username:password

curl -i --user kent:secret http://www.rest.com/api/foo'

 认证失败时,会是401 Unauthorized

HTTP/1.1 401 Unauthorized
Server: Apache-Coyote/1.1
X-Content-Type-Options: nosniff
X-XSS-Protection: 1; mode=block
Cache-Control: no-cache, no-store, max-age=0, must-revalidate
Pragma: no-cache
Expires: 0
X-Frame-Options: DENY
WWW-Authenticate: Basic realm="Realm"
Content-Type: text/html;charset=utf-8
Content-Language: en
Content-Length: 1022
Date: Thu, 15 May 2014 06:32:49 GMT

认证通过时,会回应 200 OK

HTTP/1.1 200 OK
Server: Apache-Coyote/1.1
X-Content-Type-Options: nosniff
X-XSS-Protection: 1; mode=block
Cache-Control: no-cache, no-store, max-age=0, must-revalidate
Pragma: no-cache
Expires: 0
X-Frame-Options: DENY
Set-Cookie: JSESSIONID=A75066DCC816CE31D8F69255DEB6C30B; Path=/mdserver/; HttpOnly
Content-Type: application/json;charset=UTF-8
Transfer-Encoding: chunked
Date: Thu, 15 May 2014 06:14:11 GMT

可以把认证后的cookie存起来,重复使用

curl -i --user kent:secret http://www.rest.com/api/foo' -c ~/cookies.txt

登入之前暂存的cookies,可以不用每次都认证

curl -i  http://www.rest.com/api/foo' -b ~/cookies.txt

参考地址

https://www.cnblogs.com/gbyukg/p/3326825.html

http://ju.outofmemory.cn/entry/84875

https://www.cnblogs.com/doseoer/p/7044344.html

https://itbilu.com/linux/man/4yZ9qH_7X.html

未经允许请勿转载:程序喵 » Linux 实用命令行 cURL 用法示例

点  赞 (1) 打  赏
分享到: