您好,欢迎来到三六零分类信息网!老站,搜索引擎当天收录,欢迎发信息
免费发信息
三六零分类信息网 > 阿里分类信息网,免费分类信息发布

阿里面试官:你给我手写个RPC框架看看

2024/3/14 0:02:55发布30次查看
面试官很喜欢问:
如何设计一个注册中心?如何设计一个消息队列?如何设计一个持久化框架?如何设计一个rpc框架?......今天,就来聊聊“rpc 实现原理”(其他相关如何设计一个xx系列,已发布到知识星球中了)那么首先明确一个问题什么是 rpc 呢?
rpc 是 remote procedure call 的缩写,即,远程过程调用。
rpc 是一个计算机通信协议。该协议允许运行于一台计算机的程序调用另一台计算机的子程序,而开发人员无需额外地为这个交互编程。
值得注意是,两个或多个应用程序都分布在不同的服务器上,它们之间的调用都像是本地方法调用一样。接下来我们便来分析一下一次 rpc 调用发生了些什么?
rpc 调用的基本流程 现在业界内比较流行的一些 rpc 框架,例如 dubbo 提供的是基于接口的远程方法调用,即客户端只需要知道接口的定义即可调用远程服务。在 java 中接口并不能直接调用实例方法,必须通过其实现类对象来完成此操作,这意味着客户端必须为这些接口生成代理对象,对此 java 提供了 proxy、invocationhandler 生成动态代理的支持;生成了代理对象,那么每个具体的发方法是怎么调用的呢?jdk 动态代理生成的代理对象调用指定方法时实际会执行 invocationhandler 中定义的 #invoke 方法,在该方法中完成远程方法调用并获取结果。
抛开客户端,回过头来看 rpc 是两台计算机间的调用,实质上是两台主机间的网络通信,涉及到网络通信又必然会有序列化、反序列化,编解码等一些必须要考虑的问题;同时实际上现在大多系统都是集群部署的,多台主机/容器对外提供相同的服务,如果集群的节点数量很大的话,那么管理服务地址也将是一件十分繁琐的事情,常见的做法是各个服务节点将自己的地址和提供的服务列表注册到一个注册中心,由注册中心来统一管理服务列表;这样的做法解决了一些问题同时为客户端增加了一项新的工作——那就是服务发现,通俗来说就是从注册中心中找到远程方法对应的服务列表并通过某种策略从中选取一个服务地址来完成网络通信。
聊了客户端和注册中心,另外一个重要的角色自然是服务端,服务端最重要的任务便是提供服务接口的真正实现并在某个端口上监听网络请求,监听到请求后从网络请求中获取到对应的参数(比如服务接口、方法、请求参数等),再根据这些参数通过反射的方式调用接口的真正实现获取结果并将其写入对应的响应流中。
综上所述,一次基本的 rpc 调用流程大致如下:
图片基本实现 服务端(生产者)
服务接口:
在 rpc 中,生产者和消费者有一个共同的服务接口 api。如下,定义一个 helloservice 接口。
/** * @descrption 服务接口 ***/public interface helloservice { string sayhello(string somebody);}
服务实现:
生产者要提供服务接口的实现,创建 helloserviceimpl 实现类。
/** * @descrption 服务实现 ***/public class helloserviceimpl implements helloservice { @override public string sayhello(string somebody) { return "hello " + somebody + "!"; }}
服务注册:
本例使用 spring 来管理 bean,采用自定义 xml 和解析器的方式来将服务实现类载入容器(当然也可以采用自定义注解的方式,此处不过多论述)并将服务接口信息注册到注册中心。
首先自定义 xsd:
<xsd:element name="service"> <xsd:complextype> <xsd:complexcontent> <xsd:extension base="beans:identifiedtype"> <xsd:attribute name="interface" type="xsd:string" use="required"/> <xsd:attribute name="timeout" type="xsd:int" use="required"/> <xsd:attribute name="serverport" type="xsd:int" use="required"/> <xsd:attribute name="ref" type="xsd:string" use="required"/> <xsd:attribute name="weight" type="xsd:int" use="optional"/> <xsd:attribute name="workerthreads" type="xsd:int" use="optional"/> <xsd:attribute name="appkey" type="xsd:string" use="required"/> <xsd:attribute name="groupname" type="xsd:string" use="optional"/> </xsd:extension> </xsd:complexcontent> </xsd:complextype></xsd:element>
分别指定 schema 和 xsd,schema 和对应 handler 的映射。
schema:
http\://www.storm.com/schema/storm-service.xsd=meta-inf/storm-service.xsdhttp\://www.storm.com/schema/storm-reference.xsd=meta-inf/storm-reference.xsd
handler:
http\://www.storm.com/schema/storm-service=com.hsunfkqm.storm.framework.spring.stormservicenamespacehandlerhttp\://www.storm.com/schema/storm-reference=com.hsunfkqm.storm.framework.spring.stormremotereferencenamespacehandler
将编写好的文件放入 classpath 下的 meta-inf 目录下:
图片在 spring 配置文件中配置服务类:
<!-- 发布远程服务 --> <bean id="helloservice" class="com.hsunfkqm.storm.framework.test.helloserviceimpl"/> <storm:service id="helloserviceregister" interface="com.hsunfkqm.storm.framework.test.helloservice" ref="helloservice" groupname="default" weight="2" appkey="ares" workerthreads="100" serverport="8081" timeout="600"/>
编写对应的 handler 和 parser:
stormservicenamespacehandler:
import org.springframework.beans.factory.xml.namespacehandlersupport;/** * @author 孙浩 * @descrption 服务发布自定义标签 ***/public class stormservicenamespacehandler extends namespacehandlersupport { @override public void init() { registerbeandefinitionparser("service", new providerfactorybeandefinitionparser()); }}
providerfactorybeandefinitionparser:
protected class getbeanclass(element element) { return providerfactorybean.class; } protected void doparse(element element, beandefinitionbuilder bean) { try { string serviceitf = element.getattribute("interface"); string serverport = element.getattribute("serverport"); string ref = element.getattribute("ref"); // .... bean.addpropertyvalue("serverport", integer.parseint(serverport)); bean.addpropertyvalue("serviceitf", class.forname(serviceitf)); bean.addpropertyreference("serviceobject", ref); //... if (numberutils.isnumber(weight)) { bean.addpropertyvalue("weight", integer.parseint(weight)); } //... } catch (exception e) { // ... } }
providerfactorybean:
/** * @descrption 服务发布 ***/public class providerfactorybean implements factorybean, initializingbean { //服务接口 private class<?> serviceitf; //服务实现 private object serviceobject; //服务端口 private string serverport; //服务超时时间 private long timeout; //服务代理对象,暂时没有用到 private object serviceproxyobject; //服务提供者唯一标识 private string appkey; //服务分组组名 private string groupname = "default"; //服务提供者权重,默认为 1 , 范围为 [1-100] private int weight = 1; //服务端线程数,默认 10 个线程 private int workerthreads = 10; @override public object getobject() throws exception { return serviceproxyobject; } @override public class<?> getobjecttype() { return serviceitf; } @override public void afterpropertiesset() throws exception { //启动 netty 服务端 nettyserver.singleton().start(integer.parseint(serverport)); //注册到 zk, 元数据注册中心 list<providerservice> providerservicelist = buildproviderserviceinfos(); iregistercenter4provider registercenter4provider = registercenter.singleton(); registercenter4provider.registerprovider(providerservicelist); }}//================registercenter#registerprovider======================@overridepublic void registerprovider(final list<providerservice> servicemetadata) { if (collectionutils.isempty(servicemetadata)) { return; } //连接 zk, 注册服务 synchronized (registercenter.class) { for (providerservice provider : servicemetadata) { string serviceitfkey = provider.getserviceitf().getname(); list<providerservice> providers = providerservicemap.get(serviceitfkey); if (providers == null) { providers = lists.newarraylist(); } providers.add(provider); providerservicemap.put(serviceitfkey, providers); } if (zkclient == null) { zkclient = new zkclient(zk_service, zk_session_time_out, zk_connection_time_out, new serializableserializer()); } //创建 zk 命名空间/当前部署应用 app 命名空间/ string app_key = servicemetadata.get(0).getappkey(); string zk_path = root_path + "/" + app_key; boolean exist = zkclient.exists(zk_path); if (!exist) { zkclient.createpersistent(zk_path, true); } for (map.entry<string, list<providerservice>> entry : providerservicemap.entryset()) { //服务分组 string groupname = entry.getvalue().get(0).getgroupname(); //创建服务提供者 string servicenode = entry.getkey(); string servicepath = zk_path + "/" + groupname + "/" + servicenode + "/" + provider_type; exist = zkclient.exists(servicepath); if (!exist) { zkclient.createpersistent(servicepath, true); } //创建当前服务器节点 int serverport = entry.getvalue().get(0).getserverport();//服务端口 int weight = entry.getvalue().get(0).getweight();//服务权重 int workerthreads = entry.getvalue().get(0).getworkerthreads();//服务工作线程 string localip = iphelper.localip(); string currentserviceipnode = servicepath + "/" + localip + "|" + serverport + "|" + weight + "|" + workerthreads + "|" + groupname; exist = zkclient.exists(currentserviceipnode); if (!exist) { //注意,这里创建的是临时节点 zkclient.createephemeral(currentserviceipnode); } //监听注册服务的变化,同时更新数据到本地缓存 zkclient.subscribechildchanges(servicepath, new izkchildlistener() { @override public void handlechildchange(string parentpath, list<string> currentchilds) throws exception { if (currentchilds == null) { currentchilds = lists.newarraylist(); } //存活的服务 ip 列表 list<string> activityserviceiplist = lists.newarraylist(lists.transform(currentchilds, new function<string, string>() { @override public string apply(string input) { return stringutils.split(input, "|")[0]; } })); refreshactivityservice(activityserviceiplist); } }); } }}
至此服务实现类已被载入 spring 容器中,且服务接口信息也注册到了注册中心。
网络通信:
作为生产者对外提供 rpc 服务,必须有一个网络程序来来监听请求和做出响应。在 java 领域 netty 是一款高性能的 nio 通信框架,很多的框架的通信都是采用 netty 来实现的,本例中也采用它当做通信服务器。
构建并启动 netty 服务监听指定端口:
public void start(final int port) { synchronized (nettyserver.class) { if (bossgroup != null || workergroup != null) { return; } bossgroup = new nioeventloopgroup(); workergroup = new nioeventloopgroup(); serverbootstrap serverbootstrap = new serverbootstrap(); serverbootstrap .group(bossgroup, workergroup) .channel(nioserversocketchannel.class) .option(channeloption.so_backlog, 1024) .childoption(channeloption.so_keepalive, true) .childoption(channeloption.tcp_nodelay, true) .handler(new logginghandler(loglevel.info)) .childhandler(new channelinitializer<socketchannel>() { @override protected void initchannel(socketchannel ch) throws exception { //注册解码器 nettydecoderhandler ch.pipeline().addlast(new nettydecoderhandler(stormrequest.class, serializetype)); //注册编码器 nettyencoderhandler ch.pipeline().addlast(new nettyencoderhandler(serializetype)); //注册服务端业务逻辑处理器 nettyserverinvokehandler ch.pipeline().addlast(new nettyserverinvokehandler()); } }); try { channel = serverbootstrap.bind(port).sync().channel(); } catch (interruptedexception e) { throw new runtimeexception(e); } } }
上面的代码中向 netty 服务的 pipeline 中添加了编解码和业务处理器,当接收到请求时,经过编解码后,真正处理业务的是业务处理器,即 nettyserverinvokehandler,该处理器继承自 simplechannelinboundhandler,当数据读取完成将触发一个事件,并调用 nettyserverinvokehandler#channelread0 方法来处理请求。
@overrideprotected void channelread0(channelhandlercontext ctx, stormrequest request) throws exception { if (ctx.channel().iswritable()) { //从服务调用对象里获取服务提供者信息 providerservice metadatamodel = request.getproviderservice(); long consumetimeout = request.getinvoketimeout(); final string methodname = request.getinvokedmethodname(); //根据方法名称定位到具体某一个服务提供者 string servicekey = metadatamodel.getserviceitf().getname(); //获取限流工具类 int workerthread = metadatamodel.getworkerthreads(); semaphore semaphore = servicekeysemaphoremap.get(servicekey); if (semaphore == null) { synchronized (servicekeysemaphoremap) { semaphore = servicekeysemaphoremap.get(servicekey); if (semaphore == null) { semaphore = new semaphore(workerthread); servicekeysemaphoremap.put(servicekey, semaphore); } } } //获取注册中心服务 iregistercenter4provider registercenter4provider = registercenter.singleton(); list<providerservice> localprovidercaches = registercenter4provider.getproviderservicemap().get(servicekey); object result = null; boolean acquire = false; try { providerservice localprovidercache = collections2.filter(localprovidercaches, new predicate<providerservice>() { @override public boolean apply(providerservice input) { return stringutils.equals(input.getservicemethod().getname(), methodname); } }).iterator().next(); object serviceobject = localprovidercache.getserviceobject(); //利用反射发起服务调用 method method = localprovidercache.getservicemethod(); //利用 semaphore 实现限流 acquire = semaphore.tryacquire(consumetimeout, timeunit.milliseconds); if (acquire) { result = method.invoke(serviceobject, request.getargs()); //system.out.println("---------------"+result); } } catch (exception e) { system.out.println(json.tojsonstring(localprovidercaches) + " " + methodname+" "+e.getmessage()); result = e; } finally { if (acquire) { semaphore.release(); } } //根据服务调用结果组装调用返回对象 stormresponse response = new stormresponse(); response.setinvoketimeout(consumetimeout); response.setuniquekey(request.getuniquekey()); response.setresult(result); //将服务调用返回对象回写到消费端 ctx.writeandflush(response); } else { logger.error("------------channel closed!---------------"); }}
此处还有部分细节如自定义的编解码器等,篇幅所限不在此详述,继承 messagetobyteencoder 和 bytetomessagedecoder 覆写对应的 encode 和 decode 方法即可自定义编解码器,使用到的序列化工具如 hessian/proto 等可参考对应的官方文档。
请求和响应包装:
为便于封装请求和响应,定义两个 bean 来表示请求和响应。
请求:
/** * @author 孙浩 * @descrption ***/public class stormrequest implements serializable { private static final long serialversionuid = -5196465012408804755l; //uuid,唯一标识一次返回值 private string uniquekey; //服务提供者信息 private providerservice providerservice; //调用的方法名称 private string invokedmethodname; //传递参数 private object[] args; //消费端应用名 private string appname; //消费请求超时时长 private long invoketimeout; // getter/setter}
响应:
/** * @descrption ***/public class stormresponse implements serializable { private static final long serialversionuid = 5785265307118147202l; //uuid, 唯一标识一次返回值 private string uniquekey; //客户端指定的服务超时时间 private long invoketimeout; //接口调用返回的结果对象 private object result; //getter/setter}
客户端(消费者)
客户端(消费者)在 rpc 调用中主要是生成服务接口的代理对象,并从注册中心获取对应的服务列表发起网络请求。
客户端和服务端一样采用 spring 来管理 bean 解析 xml 配置等不再赘述,重点看下以下几点:
1、通过 jdk 动态代理来生成引入服务接口的代理对象
public object getproxy() { return proxy.newproxyinstance(thread.currentthread().getcontextclassloader(), new class<?>[]{targetinterface}, this);}
2、从注册中心获取服务列表并依据某种策略选取其中一个服务节点
//服务接口名称string servicekey = targetinterface.getname();//获取某个接口的服务提供者列表iregistercenter4invoker registercenter4consumer = registercenter.singleton();list<providerservice> providerservices = registercenter4consumer.getservicemetadatamap4consume().get(servicekey);//根据软负载策略,从服务提供者列表选取本次调用的服务提供者clusterstrategy clusterstrategyservice = clusterengine.queryclusterstrategy(clusterstrategy);providerservice providerservice = clusterstrategyservice.select(providerservices);
3、通过 netty 建立连接,发起网络请求
/** * @author 孙浩 * @descrption netty 消费端 bean 代理工厂 ***/public class revokerproxybeanfactory implements invocationhandler { private executorservice fixedthreadpool = null; //服务接口 private class<?> targetinterface; //超时时间 private int consumetimeout; //调用者线程数 private static int threadworkernumber = 10; //负载均衡策略 private string clusterstrategy; @override public object invoke(object proxy, method method, object[] args) throws throwable { ... //复制一份服务提供者信息 providerservice newprovider = providerservice.copy(); //设置本次调用服务的方法以及接口 newprovider.setservicemethod(method); newprovider.setserviceitf(targetinterface); //声明调用 aresrequest 对象,aresrequest 表示发起一次调用所包含的信息 final stormrequest request = new stormrequest(); //设置本次调用的唯一标识 request.setuniquekey(uuid.randomuuid().tostring() + "-" + thread.currentthread().getid()); //设置本次调用的服务提供者信息 request.setproviderservice(newprovider); //设置本次调用的方法名称 request.setinvokedmethodname(method.getname()); //设置本次调用的方法参数信息 request.setargs(args); try { //构建用来发起调用的线程池 if (fixedthreadpool == null) { synchronized (revokerproxybeanfactory.class) { if (null == fixedthreadpool) { fixedthreadpool = executors.newfixedthreadpool(threadworkernumber); } } } //根据服务提供者的 ip,port, 构建 inetsocketaddress 对象,标识服务提供者地址 string serverip = request.getproviderservice().getserverip(); int serverport = request.getproviderservice().getserverport(); inetsocketaddress inetsocketaddress = new inetsocketaddress(serverip, serverport); //提交本次调用信息到线程池 fixedthreadpool, 发起调用 future<stormresponse> responsefuture = fixedthreadpool.submit(revokerservicecallable.of(inetsocketaddress, request)); //获取调用的返回结果 stormresponse response = responsefuture.get(request.getinvoketimeout(), timeunit.milliseconds); if (response != null) { return response.getresult(); } } catch (exception e) { throw new runtimeexception(e); } return null; } // ...}
netty 的响应是异步的,为了在方法调用返回前获取到响应结果,需要将异步的结果同步化。
4、netty 异步返回的结果存入阻塞队列
@overrideprotected void channelread0(channelhandlercontext channelhandlercontext, stormresponse response) throws exception { //将 netty 异步返回的结果存入阻塞队列,以便调用端同步获取 revokerresponseholder.putresultvalue(response);}
5、请求发出后同步获取结果
//提交本次调用信息到线程池 fixedthreadpool, 发起调用future<stormresponse> responsefuture = fixedthreadpool.submit(revokerservicecallable.of(inetsocketaddress, request));//获取调用的返回结果stormresponse response = responsefuture.get(request.getinvoketimeout(), timeunit.milliseconds);if (response != null) { return response.getresult();}//===================================================//从返回结果容器中获取返回结果,同时设置等待超时时间为 invoketimeoutlong invoketimeout = request.getinvoketimeout();stormresponse response = revokerresponseholder.getvalue(request.getuniquekey(), invoketimeout);
测试 server:
/** * @descrption ***/public class mainserver { public static void main(string[] args) throws exception { //发布服务 final classpathxmlapplicationcontext context = new classpathxmlapplicationcontext("storm-server.xml"); system.out.println(" 服务发布完成"); }}
client:
public class client { private static final logger logger = loggerfactory.getlogger(client.class); public static void main(string[] args) throws exception { final classpathxmlapplicationcontext context = new classpathxmlapplicationcontext("storm-client.xml"); final helloservice helloservice = (helloservice) context.getbean("helloservice"); string result = helloservice.sayhello("world"); system.out.println(result); for (;;) { } }}
结果
生产者:
图片消费者:
图片注册中心:
图片总结 本文简单介绍了 rpc 的整个流程,并实现了一个简单的 rpc 调用。希望阅读完本文之后,能加深你对 rpc 的一些认识。
生产者端流程:
加载服务接口,并缓存服务注册,将服务接口以及服务主机信息写入注册中心(本例使用的是 zookeeper)启动网络服务器并监听反射,本地调用消费者端流程:
代理服务接口生成代理对象服务发现(连接 zookeeper,拿到服务地址列表,通过客户端负载策略获取合适的服务地址)远程方法调用(本例通过 netty,发送消息,并获取响应结果)
以上就是阿里面试官:你给我手写个rpc框架看看的详细内容。
阿里分类信息网,免费分类信息发布

VIP推荐

免费发布信息,免费发布B2B信息网站平台 - 三六零分类信息网 沪ICP备09012988号-2
企业名录