• 银保监会:一季度保险偿付能力248% 较上季末下降3个百分点 2019-04-23
  • 国际5G标准正式发布 2019-04-23
  • “两学一做”与党风建设 2019-04-23
  • 端午小长假高速公路整体运行平稳 雨天事故多发 2019-04-23
  • 2000多家国企医院年底前完成剥离 2019-04-21
  • 马龙与张继科完败丢冠!刘国梁真人秀再展雄姿 2019-04-20
  • 贵溪市河潭镇第七届人代会第三次会议胜利召开 2019-04-13
  • 3GPP宣布5G标准完成 5G网络商用进程随之开启 2019-04-12
  • 重庆市公安局交通管理局 2019-04-11
  • 【十九大·理论新视野】动漫:如何改善民生提升百姓“获得感” 2019-04-11
  • ofo给供应商带来的:不仅是订单,还有技术和效率 2019-04-07
  • 乌鲁木齐市惠民举措催热文化消费 2019-04-06
  • 回复@老老保老张工:你跟你老婆害羞要不要也上报呢?也许正好会安排任务哟。 2019-04-06
  • 茶马古道:征服世界屋脊的文化之脉 2019-04-05
  • 池州扶贫干部借“朋友圈”帮贫困户卖竹篮 2019-04-05
  • 湖北福彩3d中奖号码:Nginx整合Kafka的方法示例

    文章TAG:nginx 整合 Kafka
    时间:2018-11-14来源/作者:兴趣e族 编辑:源码库 文章热度:

    双色球基本走势图表图 www.jpkp.net 背景

    nginx-kafka-module是nginx的一个插件,可以将kafka整合到nginx中,便于web项目中前端页面埋点数据的收集,如前端页面设置了埋点,即可将用户的一些访问和请求数据通过http请求直接发送到消息中间件kafka中,后端可以通过程序消费kafka中的消息来进行实时的计算。比如通过SparkStream来实时的消费Kafka中的数据来分析用户PV,UV、用户的一些行为及页面的漏斗模型转化率,来更好的对系统进行优化或者对来访用户进行实时动态的分析。

    具体整合步骤

    1.安装git

    yum install -y git

    2.切换到/usr/local/src目录,然后将kafka的c客户端源码clone到本地

    cd /usr/local/src
    git clone https://github.com/edenhill/librdkafka

    3.进入到librdkafka,然后进行编译

    cd librdkafka
    yum install -y gcc gcc-c++ pcre-devel zlib-devel
    ./configure
    make && make install

    4.安装nginx整合kafka的插件,进入到/usr/local/src,clone nginx整合kafka的源码

    cd /usr/local/src
    git clone https://github.com/brg-liuwei/ngx_kafka_module
    

    5.进入到nginx的源码包目录下 (编译nginx,然后将将插件同时编译)

    cd /usr/local/src/nginx-1.12.2
    ./configure --add-module=/usr/local/src/ngx_kafka_module/
    make && make install
    

    6.修改nginx的配置文件:设置一个location和kafaka的topic,详情请查看当前目录的nginx.conf

    #添加配置(2处)
    kafka;
    kafka_broker_list f1:9092 f2:9092 f3:9092;
    
    location = /kafka/access {
    kafka_topic access888;
    }
    

    如下图:

    Nginx,整合,Kafka

    Nginx,整合,Kafka

    7.启动zk和kafka集群(创建topic)

    zkServer.sh start
    kafka-server-start.sh -daemon config/server.properties
    

    8.启动nginx,报错,找不到kafka.so.1的文件

    error while loading shared libraries: librdkafka.so.1: cannot open shared object file: No such file or directory

    9.加载so库

    #开机加载/usr/local/lib下面的库
    echo "/usr/local/lib" >> /etc/ld.so.conf
    #手动加载
    ldconfig

    10.测试,向nginx中写入数据,然后观察kafka的消费者能不能消费到数据

    curl //localhost/kafka/access -d "message send to kafka topic"
    curl //localhost/kafka/access -d "小伟666"测试

    也可以模拟页面埋点请求接口来发送信息:

    Nginx,整合,Kafka

    后台Kafka消费信息如图:

    Nginx,整合,Kafka

    以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持ASPKU源码库。


    注:相关教程知识阅读请移步到服务器教程频道。
    相关服务器教程
    热门标签

    服务器教程Rss订阅服务器教程搜索

  • 银保监会:一季度保险偿付能力248% 较上季末下降3个百分点 2019-04-23
  • 国际5G标准正式发布 2019-04-23
  • “两学一做”与党风建设 2019-04-23
  • 端午小长假高速公路整体运行平稳 雨天事故多发 2019-04-23
  • 2000多家国企医院年底前完成剥离 2019-04-21
  • 马龙与张继科完败丢冠!刘国梁真人秀再展雄姿 2019-04-20
  • 贵溪市河潭镇第七届人代会第三次会议胜利召开 2019-04-13
  • 3GPP宣布5G标准完成 5G网络商用进程随之开启 2019-04-12
  • 重庆市公安局交通管理局 2019-04-11
  • 【十九大·理论新视野】动漫:如何改善民生提升百姓“获得感” 2019-04-11
  • ofo给供应商带来的:不仅是订单,还有技术和效率 2019-04-07
  • 乌鲁木齐市惠民举措催热文化消费 2019-04-06
  • 回复@老老保老张工:你跟你老婆害羞要不要也上报呢?也许正好会安排任务哟。 2019-04-06
  • 茶马古道:征服世界屋脊的文化之脉 2019-04-05
  • 池州扶贫干部借“朋友圈”帮贫困户卖竹篮 2019-04-05