精选文章

Android下使用TCPDUMP抓包Wireshark分析数据 如果想分析Android下某个APP的网络数据交互,需要在Android手机上抓包,最常用的抓包工具非tcpdump莫属,用tcpdump生成Wireshark识别的pcap文件,然后将pcap文件下载到电脑上,用电脑上的Wireshark加载pcap文件,通过Wireshark分析tcpdump抓取的数据。...

继续阅读

Mac下部署Android开发环境附加NDK 作为开发者,我们深有体会,不管是进行什么开发,为了部署开发环境,我们往往需要折腾很长时间、查阅很多资料才能完成,而且这次折腾完了,下次到了另一台新电脑上又得重新来过,整个部署过程记得还好,要是不记得又得重新开始,而且遇到Android这种GFW阻隔了开发资源下载链接的环境部署,又尤其浪费时间。所以这也是我写下这篇教程的初衷跟动力源泉,希望大家参考了这篇教程以后可以轻轻松松在Mac系统下将Android环境部署好。...

继续阅读

稍顯嚴肅的台中 坦白說,留在腦海中的台中影像並不多,來台灣之前在Booking上只訂到了台中的一家青旅,第一次住青旅有些不習慣,幹什麼都放不開。 同屋的一個男生是台灣人,不過一年中四分之三的時間在上海跟北京,這麼說來跟我還是比較有共同話題的。得之我準備花15天的時間環島,覺得太倉促了,他們大學時期花一個半月的時間也不見得能將台灣島給逛完。我只能無奈地表示,兩岸允許的簽證時間有限,自己的空閒時間更有限,只能用打卡式的旅行了,我深知正真地旅行應該慢下來,融入當地的環境,感受他們的風土人情,但第一次只能這樣作罷,以後換成民進黨上台,形勢會變成怎樣還不得而知,能否再過來還是個未知數。而我一向信奉的人生格言是秉燭夜遊,活在當下,所以,理解自己吧。...

继续阅读

為之留戀的新竹 來新竹之前本沒有對她有過高的期待,慢慢對她加分要從桃園火車站出發前往新竹開始。 在桃園火車站的候車月台上,有醒目的旅遊資料發放處,這上面的擺放的全是新竹的旅遊宣傳資料,關鍵的是資料做得非常簡潔易懂,而接下來一天的新竹之行就全部是依據這份寶典的指引來完成的。...

继续阅读

從桃園開始台灣之行 初到台灣恰逢華夏銀行系統升級,特意準備的華夏銀聯卡在桃園機場沒能派上用場,只好用建行在機場5000塊,算下來是很不划算的,但是沒辦法,誰叫我出機場就得花錢呢。 從機場打車到桃園的酒店,花了將近六百塊新台幣,到酒店時五點多,天已經漸亮了,洗漱完等到七點吃過早餐就開始補覺囉,一覺醒來已是中午,帶著換下來的衣服外出找自助洗衣店,順便覓食。...

继续阅读

  • Prev
  • Next

关键字合并文件命令join

分章分类 : Linux, 教程

Linux下常用的数据文件是格式化的,多个字段之间通过统一的分隔符来区分,常见的分隔符有冒号(:)、制表符、空格等。例如,MySQL数据库使用into outfile命令导出来的数据就是以制表符分隔的,/etc/passwd和/etc/group文件就是用冒号(:)来分隔的。这种格式化的文本既方便阅读也适合程序处理,通常有一列形如数据库中的关键字,如/etc/passwd表示用户名的第一列就为关键字。join命令就是一个根据关键字合并两个数据文件的命令,类似于数据库操作中两张表的关联查询。     阅读全文

MySQL SELECT LIMIT指定行数查询

分章分类 : 应用与编程

MySQL是我接触得最多的数据库,它以轻量性、开源性以及高效性而著称。曾是SUN公司旗下的产品,随着SUN公司被甲骨文公司所收购,MySQL也转嫁到甲骨文公司旗下了。相比微软公司的MS SQL Server,甲骨文公司的Oracle,MySQL有着很多自己的优势以及特点。就指定行数查询而言,MySQL相比其他数据库有着更简单明了的办法。在我们使用select函数查询数据的时候,如果希望返回前几条或者中间某几条结果该如果操作呢?很简单,在语句尾部加上limit约束就OK了。 阅读全文

在Ubuntu上安装基于Nginx的WordPress

2

分章分类 : C语言, Linux, Ubuntu, Windows, Wordpress, 应用与编程, 浏览器, 网络

Nginx算是一个轻量级的高并发web服务器,虽然不及Apache安全,但它的性能远远优于Apache,尤其是在需要高并发的大型服务器上效果更显著。由俄罗斯人于2004年着手开发,有Linux版与Windows版,基于C语言,完全开放源码。相比臃肿的Apache,Nginx就显得很小巧了,源代码700K都不到,像新浪博客、迅雷等很多有名的网站就是基于Nginx的。 阅读全文

wordpress数据库瘦身

3

分章分类 : Wordpress

本来数据库空间就50M,看写了3篇日志,数据库就用了0.64M,照这么发展下去,2000篇短日志估计就得满了,虽然这达到2000篇的时间还及其漫长,但心里还是纳闷,3篇日志的字节数0.1M都不够嘛,剩下的0.54M干吗去了?带着这个疑问,我用phpMyAdmin查看了下mysql里面的数据,原来wp_posts表里面存了很多自动保存的日志跟存档日志,而这些日志默认是不会被删除的,执行SELECT COUNT( * ) FROM  “wp_posts” 结果是23。呵呵,22篇日志里面真正有用的日志才3篇,自然数据库就显得臃肿了。 阅读全文