当前位置: 首页 > news >正文

网站内容编辑怎么做怎么看待网站开发

网站内容编辑怎么做,怎么看待网站开发,wordpress搭建视频分享,wordpress被公众号干掉每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领…

  每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

最近,Apple的研究人员推出了ReALM,紧随Google的Gemma、Meta的Llama以及微软的其他几个产品之后,完全本地运行大型语言模型(LLM)的应用越来越受到关注。我在《宅乐时光:用Gemma在本地玩LangChain 2》中尝试了本地运行Langchain,唯一缺失的是嵌入部分。为了在本地完整模拟RAG,我在以下代码中添加了word2vec嵌入。

import json
import numpy as np
from gensim.models import KeyedVectors
from langchain_community.llms import Ollama 
import logging# 基础日志配置
logging.basicConfig(level=logging.INFO)# 使用预训练的Word2Vec模型计算嵌入
def compute_embeddings(text, embedding_model):words = [word for word in text.split() if word in embedding_model.key_to_index]if words:return np.mean([embedding_model[word] for word in words], axis=0)else:return np.zeros(embedding_model.vector_size)# 加载预训练的Word2Vec嵌入
try:model_path = 'GoogleNews-vectors-negative300.bin'  # 模型下载正确路径embedding_model = KeyedVectors.load_word2vec_format(model_path, binary=True)
except Exception as e:logging.error(f"加载Word2Vec模型失败: {e}")# 从JSON加载数据
try:with open('my_data.json', 'r') as file:data = json.load(file)
except Exception as e:logging.error(f"加载JSON数据错误: {e}")data = []def simulate_rag(data, prompt):matches = []threshold = 0.4  # 余弦相似度示例阈值prompt_embedding = compute_embeddings(prompt, embedding_model)for passage in data:combined_text = f"{passage['title']} {passage['content']}".lower()passage_embedding = compute_embeddings(combined_text, embedding_model)similarity = np.dot(prompt_embedding, passage_embedding) / (np.linalg.norm(prompt_embedding) * np.linalg.norm(passage_embedding))print(f"passage: {passage}")print(f"Similarity: {similarity}")if similarity > threshold:matches.append(passage)return matches[:2]  # 返回前2个检索的段落prompt = "Nedved Yang喜欢吃什么?你能推荐新加坡的哪个地方给他吃吗?"# 从本地数据检索相关段落
retrieved_passages = simulate_rag(data, prompt)
print(f"**检索到的段落:**\n{retrieved_passages}")# 构建LLM提示
llm_prompt = f"用户查询: {prompt}\n\n检索到的信息:\n"
for passage in retrieved_passages:llm_prompt += f"- {passage['title']}:\n  - {passage['content']}\n  - 来源: {passage['source']}\n"print(f"**LLM提示:**\n{llm_prompt}")
llm = Ollama(model="gemma:2b")
llm_response = llm.invoke(llm_prompt)  # 替换您的LLM交互方法
final_response = f"**LLM回应:**\n{llm_response}"# 打印最终回应
print(final_response)

在使用word2vec进行本地嵌入前,您需要从网上下载它,例如从​​​​​​https://github.com/harmanpreet93/load-word2vec-google?tab=readme-ov-file。然后,您可以加载它来计算嵌入。我遇到了一个问题,即`retrieved_passages`返回为空。通过下面的手动测试,我发现根本原因是相似度低于阈值。

# 示例手动测试prompt_embedding = compute_embeddings("Nedved Yang喜欢吃什么?", embedding_model)
example_entry = "Nedved Yang喜欢辛辣和素食菜肴。"
entry_embedding = compute_embeddings(example_entry, embedding_model)
similarity = np.dot(prompt_embedding, entry_embedding) / (np.linalg.norm(prompt_embedding) * np.linalg.norm(entry_embedding))
print(f"Similarity: {similarity}")

在调整阈值后,来自Gemma的回应看起来不错。

试试看,玩得开心!

http://www.yayakq.cn/news/65178/

相关文章:

  • 咸宁网站建设哪个行业建设网站的需求多
  • php网站后台源码三站一体网站公司
  • 网站续费合同wordpress目录检索
  • 新手如何自己做网站北京奢侈品商场排名
  • 动漫设计工作室网站宣传片制作建设部网站录入业绩
  • 一键免费搭建手机网站dedecms生成网站地图
  • 网站制作如何企业信息管理系统erp
  • 厦门网站建设咨询公司logo是什么意思
  • 徐州做网站的公司有哪些chinacd.wordpress0
  • 做阅读任务挣钱的网站西昌规划和建设局网站
  • 雄安建设投资集团网站路由器做网站服务器
  • 正定县建设局 网站金点子招聘信息
  • 如何做好网站首页电子商务网页制作是什么
  • 密云建站推广深圳设计师品牌
  • 建设旅游信息网站的好处网站开发管理学什么
  • 旅游网站信息门户建设方案好的手机网站建设公司
  • 珠海网站建设开发扁平 网站 模板
  • 国外做贸易网站外贸网站做啥
  • wordpress门户网站模板下载北海 网站建设
  • 贵州省住房与城乡建设部网站江津网站建设方案
  • 网站背景音乐搭建网站服务器多少钱
  • 新手快速建设网站站长之家查询网站
  • 网站的后期运营及维护费用asp.net企业网站管理系统
  • wordpress自建模板厦门seo关键词排名
  • 哪些分类网站企业网站 模版
  • 马云做黄页网站时候网络舆情监测与研判
  • 东阳市建设局网站wordpress主题tiger
  • 浙江省水利建设行业协会网站html5网站源码下载
  • 福州建设工程协会网站查询设计上海展会2021门票
  • dedecms英文外贸网站企业模板泰安网络推广联系昔年下拉