当前位置: 首页 > news >正文

做二手钢结构网站有哪些网站建设 三牛

做二手钢结构网站有哪些,网站建设 三牛,手机网站建设图,网站设计的难点今天要讲的这一注册机制用到了设计模式中的工厂模式和单例模式,所以这节课也是对两大设计模式的一个合理应用和实践。KuiperInfer的注册表是一个map数据结构,维护了一组键值对,key是对应的OpType,用来查找对应的value,…

今天要讲的这一注册机制用到了设计模式中的工厂模式和单例模式,所以这节课也是对两大设计模式的一个合理应用和实践。KuiperInfer的注册表是一个map数据结构,维护了一组键值对,key是对应的OpType,用来查找对应的value,value是用于创建该层的对应方法(Creator)。我们可以看一下KuiperInfer中的Layer注册表实现:

 typedef std::map<OpType, Creator> CreateRegistry;

OpType就是头文件中对应的索引:

创建该层的对应方法相当于一个工厂(Creator),Creator如下的代码所示,是一个函数指针类型,我们将存放参数的Oprator类传入到该方法中,然后该方法根据Operator内的参数返回具体的Layer.

typedef std::shared_ptr<Layer> (*Creator)(const std::shared_ptr<Operator> &op);

代表的是返回值为std::shared_ptr<Layer> 然后参数为const std::shared_ptr<Operator> &op的一类函数

只要返回值和参数的类型\个数都满足 creator就可以指向对应的函数

对应函数就是创建层layer的一个具体方法

所以目前就是这个样子:

ReluLayer定义完成--->LayerRegistererWrapper ---> RegisterCreator

接下来我们再看这个registor注册方法:

void LayerRegisterer::RegisterCreator(OpType op_type, const Creator &creator) {CHECK(creator != nullptr) << "Layer creator is empty";CreateRegistry &registry = Registry(); //实现单例的关键// 根据operator typeCHECK_EQ(registry.count(op_type), 0) << "Layer type: " << int(op_type) << " has already registered!";//  ReluLayer::CreateInstance 没有被注册过,就塞入到注册表当中registry.insert({op_type, creator});
}

先来补充一下单例模式:

单例设计编程模式

全局当中有且只有一个变量

任意次和任意一方去调用都会得到这个唯一的变量

这里的唯一变量是全局的注册表 存的时候是这个,取得时候也需要是这个

这里的Registry也写上了,就是实现单例的关键:

LayerRegisterer::CreateRegistry &LayerRegisterer::Registry() {// C++程序员高频面试点static  CreateRegistry *kRegistry = new CreateRegistry();// 没有static 那就是调用一次初始化一次// 不构成单例CHECK(kRegistry != nullptr) << "Global layer register init failed!";return *kRegistry; // 返回了这个注册表
}

static CreateRegistry *kRegistry = new CreateRegistry();

这个其实只会被初始化一次

简单来说第一次,调用的时候 new CreateRegistry 存放到一个kRegistry (static)

后续调用的时候,只会返回kRegistry (static)

这是一种C++的特性。

如果没有static,那就是调用一次就初始化一次,就自然构不成单例模式。

layer_factory.cpp:


namespace kuiper_infer {
// OpType::kOperatorRelu 就是刚才还说的OpType
// ReluLayer::CreateInstance就是一个函数指针,用来初始化层的方法// 单例设计编程模式
// 全局当中有且只有一个变量
// 任意次和任意一方去调用都会得到这个唯一的变量
// 这里的唯一变量是全局的注册表 存的时候是这个,取得时候也需要是这个
// typedef std::map<OpType, Creator> CreateRegistry
// 全局当中有且只有一个 CreateRegistry  的实例
// 什么方法来控制这个变量唯一呢
void LayerRegisterer::RegisterCreator(OpType op_type, const Creator &creator) {CHECK(creator != nullptr) << "Layer creator is empty";CreateRegistry &registry = Registry(); //实现单例的关键// 根据operator typeCHECK_EQ(registry.count(op_type), 0) << "Layer type: " << int(op_type) << " has already registered!";//  ReluLayer::CreateInstance 没有被注册过,就塞入到注册表当中registry.insert({op_type, creator});
}
  CreateRegistry &registry = Registry(); //实现单例的关键

这个就是上面的Registry,之后作检查,如果已经有过的话,那count之后就该报错啦。

 CHECK_EQ(registry.count(op_type), 0) << "Layer type: " << int(op_type) << " has already registered!";

没有注册机制的create

然后我们来看一下没有注册机制前的createrelu是怎么做到的:

TEST(test_layer, forward_relu1) {using namespace kuiper_infer;float thresh = 0.f;// 初始化一个relu operator 并设置属性std::shared_ptr<Operator> relu_op = std::make_shared<ReluOperator>(thresh);// 有三个值的一个tensor<float>std::shared_ptr<Tensor<float>> input = std::make_shared<Tensor<float>>(1, 1, 3);input->index(0) = -1.f; //output对应的应该是0input->index(1) = -2.f; //output对应的应该是0input->index(2) = 3.f; //output对应的应该是3// 主要第一个算子,经典又简单,我们这里开始!std::vector<std::shared_ptr<Tensor<float>>> inputs; //作为一个批次去处理std::vector<std::shared_ptr<Tensor<float>>> outputs; //放结果inputs.push_back(input);ReluLayer layer(relu_op);// 因为是4.1 所以没有作业 4.2才有
// 一个批次是1layer.Forwards(inputs, outputs);ASSERT_EQ(outputs.size(), 1);
//记得切换分支!!!!!for (int i = 0; i < outputs.size(); ++i) {ASSERT_EQ(outputs.at(i)->index(0), 0.f);ASSERT_EQ(outputs.at(i)->index(1), 0.f);ASSERT_EQ(outputs.at(i)->index(2), 3.f);}
}

有了注册机制后的createrelu:

// 有了注册机制后的框架是如何init layer
TEST(test_layer, forward_relu2) {using namespace kuiper_infer;float thresh = 0.f;std::shared_ptr<Operator> relu_op = std::make_shared<ReluOperator>(thresh);std::shared_ptr<Layer> relu_layer = LayerRegisterer::CreateLayer(relu_op);std::shared_ptr<Tensor<float>> input = std::make_shared<Tensor<float>>(1, 1, 3);input->index(0) = -1.f;input->index(1) = -2.f;input->index(2) = 3.f;std::vector<std::shared_ptr<Tensor<float>>> inputs;std::vector<std::shared_ptr<Tensor<float>>> outputs;inputs.push_back(input);relu_layer->Forwards(inputs, outputs);ASSERT_EQ(outputs.size(), 1);for (int i = 0; i < outputs.size(); ++i) {ASSERT_EQ(outputs.at(i)->index(0), 0.f);ASSERT_EQ(outputs.at(i)->index(1), 0.f);ASSERT_EQ(outputs.at(i)->index(2), 3.f);}
}

我们可以看到std::shared_ptr<Operator> relu_op = std::make_shared<ReluOperator>(thresh), 初始化了一个ReluOperator, 其中的参数为thresh=0.f.

因为我们已经在ReluLayer的实现中完成了注册,{kOperatorRelu:ReluLayer::CreateInstance} , 所以现在可以使用 LayerRegisterer::CreateLayer(relu_op) 得到我们ReluLayer中的实例化工厂方法,我们再来看看CreateLayer的实现:

std::shared_ptr<Layer> LayerRegisterer::CreateLayer(const std::shared_ptr<Operator> &op) {CreateRegistry &registry = Registry();const OpType op_type = op->op_type_;LOG_IF(FATAL, registry.count(op_type) <= 0) << "Can not find the layer type: " << int(op_type);const auto &creator = registry.find(op_type)->second;LOG_IF(FATAL, !creator) << "Layer creator is empty!";std::shared_ptr<Layer> layer = creator(op);LOG_IF(FATAL, !layer) << "Layer init failed!";return layer;
}

可以看到传入的参数为op, 我们首先取得op中的op_type, 此处的op_type为kOperatorRelu, 根据registry.find(op_type), 就得到了层的初始化方法creator, 随后使用传入的op去初始化layer并返回实例。值得注意的是此处也调用了CreateRegistry &registry =Registry() 返回了我们所说的全局有且唯一的Layer注册表。

此处的creator(op)就相当于调用了ReluLayer::CreateInstance.(因为:

LayerRegistererWrapper kReluLayer(OpType::kOperatorRelu, ReluLayer::CreateInstance);
class LayerRegistererWrapper {public:LayerRegistererWrapper(OpType op_type, const LayerRegisterer::Creator &creator) {// 定义之后调用的// RegisterCreatorLayerRegisterer::RegisterCreator(op_type, creator);}
};

这样子可能看上去和上面差别不大,但是在实际应用上会便捷很多:

ops:[] = {conv 1 , conv 2 ,conv 3 ,relu ,sigmoid ,linear , conv 3};
layers = [];
for op in ops : layers.append(LayerRegisterer::CreateLayer(op))//初始化完毕

因为如果没有这个机制的话,那么语言多少层,他就要写多少层。

创建sigmoid算子:

void SigmoidLayer::Forwards(const std::vector<std::shared_ptr<Tensor<float>>> &inputs,std::vector<std::shared_ptr<Tensor<float>>> &outputs) {CHECK(this->op_ != nullptr);CHECK(this->op_->op_type_ == OpType::kOperatorSigmoid);CHECK(!inputs.empty());const uint32_t batch_size = inputs.size();for (uint32_t i = 0; i < batch_size; ++i) {const std::shared_ptr<Tensor<float>> &input_data = inputs.at(i);std::shared_ptr<Tensor<float>> output_data = input_data->Clone();//补充,y=1/(1+e^{-x})output_data->data().transform([&](float value) {return(1/(1+exp(-1*value))); });outputs.push_back(output_data);}
}

cube的transform函数就是对于这个cube中的每一个元素进行lambda表达式中的运算

在这里预先将input_data进行了复制i,所以可以对于output中的数值进行直接的运算。

http://www.yayakq.cn/news/864463/

相关文章:

  • 国外网站打不开怎么解决做网站后用浏览量百度给钱
  • jsp网站建设毕业设计网站的新闻栏与产品栏如何做
  • 山西长治做网站公司wordpress错误集锦
  • 如何将自己做的网站放到网上去秦皇岛网站制作价格
  • 网站建设的必要性及意义外链平台有哪些
  • 顺义重庆网站建设织梦模板建站
  • 有没有做网站的博士专业网站设计权限
  • 如何制作自己的网站二维码温州seo排名
  • 天津建设厅网站首页贵阳网站制作服务商
  • 网站改版的前端流程工业设计公司发展方向
  • php 网站部署到服务器礼品工艺品网站建设
  • 做菠菜网站多少钱有什么网站可以做3d
  • 专业网站设计速寻亿企邦上海网站建设公司
  • 一般做企业网站需要什么资料wordpress百度cdn
  • 做防护用品的网站wordpress mysql 应用
  • wordpress做管理网站手机app开发软件免费
  • 做计算机网站的总结建设一个网站需要做哪些工作内容
  • 本地的丹阳网站建设门户网站建站方案
  • 闵行网站建站多少钿迅 网站 模板
  • 做网站需要编程建站教学视频
  • 深圳专业建站平台网站构建的友情链接怎么做
  • 网站营销体系的建设及运营情况网站建设企业谁家好
  • 重庆技术支持 网站建设公司芜湖网站公司
  • 网站首页图怎么做自己怎么注册一个网站
  • 化妆品电子商务网站建设规划书微信网站 教程
  • 做网站哪个软件好每天能赚30 50元的
  • 充值网站制作网站建设的一般费用
  • 做一直播网站要多少钱网站制作心得体会200字
  • win2008网站404中山做网站公司
  • 重庆网站到首页排名外贸公司会计账务处理