当前位置: 首页 > news >正文

太原微信网站天元建设集团最新现状

太原微信网站,天元建设集团最新现状,汕头建总,导航网站系统在训练扩散模型时,如果附加额外的条件图片数据,则需要我们准备相应的数据集。此时我们可以使用官网提供的脚本模板来控制导入我们需要的数据。 您可以参考官方的教程来实现具体的功能需求,为了更加简洁,我将简单描述一下整个流程…

在训练扩散模型时,如果附加额外的条件图片数据,则需要我们准备相应的数据集。此时我们可以使用官网提供的脚本模板来控制导入我们需要的数据。

您可以参考官方的教程来实现具体的功能需求,为了更加简洁,我将简单描述一下整个流程的关键点:

  1. 首先按照您的需求准备好所有的数据集文件,统一放到一个dataset_name(可以自己定义)目录下,可以划分多个子文件夹,但是需要在您的matadata.json中描述好相对路径位置;这一步和平时准备数据集的过程一样,只是多了额外的条件图片数据。
  2. 在dataset_name下创建同名的dataset_name.py脚本文件,该脚本文件的类名要和脚本名一致,并复制下文的模板内容,然后修改特定位置:
import pandas as pd
from huggingface_hub import hf_hub_url
import datasets
import os_VERSION = datasets.Version("0.0.2")_DESCRIPTION = "TODO"
_HOMEPAGE = "TODO"
_LICENSE = "TODO"
_CITATION = "TODO"_FEATURES = datasets.Features({"image": datasets.Image(),"conditioning_image": datasets.Image(),"text": datasets.Value("string"),},
)METADATA_URL = hf_hub_url("fusing/fill50k",filename="train.jsonl",repo_type="dataset",
)IMAGES_URL = hf_hub_url("fusing/fill50k",filename="images.zip",repo_type="dataset",
)CONDITIONING_IMAGES_URL = hf_hub_url("fusing/fill50k",filename="conditioning_images.zip",repo_type="dataset",
)_DEFAULT_CONFIG = datasets.BuilderConfig(name="default", version=_VERSION)class Fill50k(datasets.GeneratorBasedBuilder):BUILDER_CONFIGS = [_DEFAULT_CONFIG]DEFAULT_CONFIG_NAME = "default"def _info(self):return datasets.DatasetInfo(description=_DESCRIPTION,features=_FEATURES,supervised_keys=None,homepage=_HOMEPAGE,license=_LICENSE,citation=_CITATION,)def _split_generators(self, dl_manager):metadata_path = dl_manager.download(METADATA_URL)images_dir = dl_manager.download_and_extract(IMAGES_URL)conditioning_images_dir = dl_manager.download_and_extract(CONDITIONING_IMAGES_URL)return [datasets.SplitGenerator(name=datasets.Split.TRAIN,# These kwargs will be passed to _generate_examplesgen_kwargs={"metadata_path": metadata_path,"images_dir": images_dir,"conditioning_images_dir": conditioning_images_dir,},),]def _generate_examples(self, metadata_path, images_dir, conditioning_images_dir):metadata = pd.read_json(metadata_path, lines=True)for _, row in metadata.iterrows():text = row["text"]image_path = row["image"]image_path = os.path.join(images_dir, image_path)image = open(image_path, "rb").read()conditioning_image_path = row["conditioning_image"]conditioning_image_path = os.path.join(conditioning_images_dir, row["conditioning_image"])conditioning_image = open(conditioning_image_path, "rb").read()yield row["image"], {"text": text,"image": {"path": image_path,"bytes": image,},"conditioning_image": {"path": conditioning_image_path,"bytes": conditioning_image,},}
  1. 修改时主要关注两个函数,和一些命名:
  • 第一个是_split_generators(),把所有download相关的内容注释掉,这里会让你去下载官方的数据集,我们的需求是准备自己的数据集,所以为了方便直接把这个函数中的关键文件路径改为自己的绝对路径,比如metadata_path,就是你的metadata.json的路径,images_dir和conditioning_images_dir是你的图片的上级目录的绝对路径。这里我曾经测试过使用相对路径,发现是行不通的,主要的问题是diffuers在项目运行时会把当前的脚本先拷贝到c盘,然后再加载入内存,所以相对路径会不起作用。
  • 第二个是_generate_examples(),我们需要按照上个函数给出的路径依次加载图片文件和文本,这里主要是把所有的数据集内容修改为你需要的信息。这里有个关键点是,你必须保证metadata.json中第一列image的内容是不重复的,因为该列会作为索引的key值出现,否则会报错。
  • 最后是把脚本中所有与数据集信息相关的名称校对为你需要的。

在训练过程中,指定好数据集dataset_name的位置,diffusers会自动调用dataset_name.py来读取数据集中的数据。

http://www.yayakq.cn/news/161578/

相关文章:

  • 毕业设计做网站怎样做特别一点南昌市住房和城乡建设局网站
  • 江西网站开发方案wordpress配置多用户
  • 网站建设设计费用策划案格式模板
  • wordpress语音问答自动优化网站软件没有了
  • 建设银行wap网站如何制作app软件下载
  • 学做网站论坛熊掌深圳网站seo优化排名公司
  • 天津企业网站建设一条龙银行网站模板免费下载
  • 杭州网站建设公司排名用狗做头像的网站
  • 深圳做微商网站设计盘锦做网站哪家好
  • 呼和浩特建设局网站百度快速查询
  • 网站建设方案书 模板二维码短链接生成器
  • 可以做mv 的视频网站华夏建筑工程网
  • 影视网站建设要多少钱网站免费推广大全
  • 做电商的常去网站西安建设局网站小孩把
  • 杭州建网站号码之家官网
  • 官方网站案例荣耀手机官方商城官网
  • wordpress 流量站兄弟们给个能用的网站
  • 网站新闻对百度优化有用吗做图片视频的网站有哪些问题
  • 最新站长seo网站外链发布平台厦门seo排名优化方式
  • 企业网站推广免费建网站那个好
  • 网站开发公司选择扬州建设网站公司
  • 网站运营模式建设部网站资质升级陈述通过
  • 关于公司网站建设的若干意见网站设计制作策划
  • 网站建设微信开发wordpress 自定义鼠标
  • 动易网站开发的主要技术做网站怎么插音频
  • 雅安建设局网站山东省郓城县建设局官方网站
  • 温州外贸网站设计昵图设计师服务平台
  • 权威网站优化价格济南做网站最好的公司
  • 对网站建设好学吗淘宝优惠群的网站是怎么做
  • 教师网站建设机培训体会免费下载设计网站页面步骤