Mojo,一种适用于所有 AI 开发人员的新编程语言。
由 LLVM、Swift、Clang 作者 Chris Lattner 发布,被誉为 AI 新时代的编程语言变革者,比 Python 高效 35000 倍。
地址: https:// 网页链接
虽然 Mojo 比 Python 更高效,但在 AI 领域,仍需要与 Python 的核心功能和类库完全兼容,不过这也使得 Mojo 语言的兼容性能让它在 AI 领域得到广泛应用。
该语言运用了 Python 易用性和 C 的性能优势,重构了 AI 基础设施,实现了硬件的无与伦比的可编程性和 AI 模型的可扩展性。
Mojo 语言具有许多特点,如渐进类型、零成本抽象、所有权和借用检查器、可移植参数化算法等。它能充分利用硬件性能,像 C++ 和 CUDA 一样发挥作用。
简单来说,Mojo 语言具有高效、易用、可扩展等特点,未来将为 AI 基础设施的发展提供更多可能性。
感兴趣的可以学习下。
Pandas AI 一个开源的 Python 库,为流行的数据分析和操作工具 Pandas 添加了生成人工智能功能。
PandasAI 旨在与 Pandas 结合使用,给 Pandas 增加了 AI 智能对话功能。
GitHub: https://github.com/gventuri/pandas-ai
你可以向 Pandas DataFrames 提出有关数据的问题,它将自动返回给你答案。
比如,你可以要求 PandasAI 查找 DataFrame 中列值大于 5 的所有行,它便会自动返回仅包含这些行的 DataFrame。
这个 GitHub 项目收集了诸多实用的 AI 工具,覆盖编程、金融、创作、教育、市场营销等领域。
在数据信息化项目中,BI(商业智能)需求日益增多。大多数项目选择集成第三方 BI 来提升自身能力,因为自主研发的难度和成本较高。
第三方 BI 主要分为开源免费和收费商用两种,尽管免费的看似更具吸引力,但许多项目仍选择较高成本的商用 BI,因为开源 BI 的功能与商用版本相比有一定差距,并且大部分国外的开源 BI 界面全为英文,改造成本较大。
润乾,一家专注于报表 BI 行业 20 年的商用报表厂商,近期将其 BI 模块免费开源。由于润乾具有专业的报表 BI 背景,其开源 BI 功能完备,用户无需担心功能差距问题。
开源 BI 报表的依赖文件: 网页链接
此外,该 BI 工具是全国产、全中文的,降低了学习和改造难度。开源的特点使其可随意修改,便于将其转化为自有品牌的 BI,同时解决国产化安全问题。
主要功能包括多维分析、通用查询、敏捷看板、系统管理和关联分析。润乾作为报表专家,能提供一站式 BI 和报表解决方案,满足大部分固定报表需求,使 BI 到报表的转变更加平滑。
通过这一工具,用户可实现无缝的数据分析、BI 和报表工作,更好地控制成本,简化项目管理,提高企业效率。
一个让你可以跟 GitHub 仓库进行对话的 Python 工具:Chat-with-GitHub-Repo。
仓库包含两个 Python 脚本,演示如何使用 Streamlit、OpenAI GPT-3.5-turbo 和 Deep Lake 来创建 AI 聊天机器人。
聊天机器人搜索存储在 Deep Lake 中的数据集以查找相关信息,并根据用户的输入生成答案,让你直接跟 GitHub 仓库进行对话。
一个基于 GPT 实现的开源 PDF 文档聊天方案:PDF GPT。
主要实现以下功能:
- 跟 PDF 文档进行一对一对话;
- 自动切割内容,并使用强大的深度平均网络编码器来生成嵌入;
- 对 PDF 内容执行语义搜索,并将最相关的嵌入传递给 Open AI;
- 自定义逻辑,生成更精确的响应信息,速度要比 OpenAI 的快。
一个基于 GPT 实现的开源工具:Chart-GPT,可在几秒内,将文本快速转换为漂亮的图表。
输入数据和指定图表类型,即可快速创建图表。
GitHub: https://github.com/whoiskatrin/chart-gpt
目前支持面积图、条形图、折线图、组合图、散点图、饼形图、雷达图、径向条形图、树形图、漏斗图等多种不同类型的图表。
阿里云刚刚宣布,旗下产品将实施史上最大规模降价,其中核心产品的价格下调了 15% 至 50%,存储产品最高的降幅达到了 50%。
在此次降价中,弹性计算第 7 代实例和倚天实例的价格下调了 15-20%,最新的存储 OSS 深度冷归档的价格甚至比冷归档降低了 50%。
网络负载均衡 SLB 和 NAT 网关的价格都下调了 15%,而数据库 RDS 倚天版的价格最高下调了 40%。
经过此次降价,阿里云的价格将比同行低 10%-20%,这波操作大家怎么看?
Hugging Face 推出第一个 ChatGPT 开源替代品:HuggingChat。基于 Open Assistant 大模型搭建,支持中文对话与编写代码,但暂不支持中文回复。
应用已上线,无需代理,打开即可访问,大家可以试玩一下。
地址: https:// 网页链接
最近,一篇名为《Scaling Transformer to 1M tokens and beyond with RMT》在技术圈引发热议。
该论文提出一种名为 RMT 的新技术,或许可将 Transform 的 Token 上限扩展至 100 万,甚至更多。
要知道,目前最强的 GPT-4-32k,其 Token 上限也才 3.2 万,这就导致了它并不能很好的处理长文内容。
像文档、书籍、代码这种大块内容,往往需要先对内容进行切割,分多次喂给 GPT,但 GPT 本身能理解的上下文内容有限,这就很容易导致结果偏离预期。
如果未来 Token 的上限能够不断突破,将会创造出更多 AI 应用场景。包括之前大家经常畅想的,训练一个无限接近自己人格的 AI 聊天机器人。
论文:arxiv.org/abs/2304.11062
要是你觉得这些技术名词比较晦涩难懂,也可以读一下 Twitter 网友 riddhi 让 ChatGPT 做的这个总结,通俗易懂的解读了这项技术:
假设你有个很聪明的机器人朋友,它可以读很多东西并记住它们。这个机器人朋友使用一种叫做 “Transformer” 的东西来帮助它理解和记忆内容,就像人类大脑一样。
现在有这么一群聪明人,发现了一种能让你的机器人朋友变得更好的方法,那就是给它装上一个新大脑,叫做“Recurrent Memory Transformer”,或者简称“RMT”。
有了这个新大脑,机器人朋友就可以记住和理解更多的东西,一次多达 2 百万个字!这相当于它可以同时记住大约 20 本很长的书的内容。
在这之前,其他聪明的机器人只能记住最多 6.4 万个字,虽然这已经很多了,但还远不及 2 百万个字。
这个发现非常重要,因为这意味着我们的机器人朋友现在可以理解和谈论更多的事情,为我们提供更多的帮助。
最棒的是,这种新大脑不会让机器人变得更重或者耗费更多的能量。所以这就像一台拥有超能力的机器人朋友,可以做很多厉害的事情并且不会累!
Twitter:twitter.com/ridtalkstech/status/1650316114935828481
潘多拉 Pandora,一个开源的 ChatGPT 命令行工具,可直接通过 access token 来访问网站功能。后端优化,绕过 Cloudflare,提升访问速度。
主要用于解决以下问题:
- 高峰期能绕过官方限制,继续使用;
- 应答速度直逼 PLUS,白嫖用户的福音;
- 官方故障的时候,它可能还是能跑;
- 多模式:网页 / 命令行 / API,私有化部署;
- 不会像官方那样无故断线、报错。
注意:使用该工具,或许有账号封禁和 access token 泄密的风险,请自行判断是否使用,这里仅分享技术解决方案。
一个基于 GPT-4 构建的代码搜索引擎:Bloop,在 GitHub 开源了。
该工具采用基于 GPT-4 的 AI 智能模型,成功实现用自然语言,语义化的代码搜索方式。
详细介绍: 网页链接
你可以通过 Bloop,直接使用自然语言、正则表达式,来快速过滤查询搜索本地和远程存储库。让阅读源码变得更为高效,可以腾出手专注于业务上的功能开发。
它的主要功能如下:
- 基于 GPT-4 的会话搜索;
- 超快的正则表达式搜索;
- 一键同步本地和 GitHub 仓库;
- 复杂的查询过滤器,可调整搜索结果范围;
- 使用符号搜索查找函数、变量或特征;
- 支持 10 多种编程语言的代码导航(转到参考和转到定义)。
Bloop 基于 Rust 语言开发,因此在执行搜索任务时,效率也颇为惊人。目前支持 Windows、macOS、Linux 等主流操作系统。
一个可以在线测试多种开源大语言模型的工具:Chat with Open Large Language Models。
项目基于 Gradio 搭建,使用简单,操作便捷,无需配置 API Key,开箱即用。
地址: https:// 网页链接
该工具已支持多个主流开源 LLM 模型,包括前阵子刚开源 StableLM,以及近期比较火的 Vicuna、OpenAssistant、ChatGLM 等模型。
从现在开始,Google Bard 也可以完成各种编程和软件开发任务了,这其中包括代码生成、调试和解释。
跟 ChatGPT 不同的是,Bard 可以直接访问某个 GitHub 项目,并对文件夹和目录进行介绍。
不过我刚刚用最近刚开源的 StableLM 进行测试,发现效果并不是特别理想,可能它并没有直接扫描 GitHub 仓库代码,而是结合搜索引擎来给出答案。如果真的是这样,那就用处不大了。
目前 Bard 已提供 20 多种主流编程语音的支持,包括 C++、Go、Java、Javascript、Python 和 Typescript。
你可以将 Python 代码快速导出到 Google Colab,无需手动复制和粘贴,这个确实能进一步提升操作效率。
如果你平时有用 Google 表格的话,还能直接用 Bard 来自动编写函数。
另外,在跟 Bard 进行交互时,即便你给出一些比较模糊的指令。它也能很好处理这些任务,比如让它重写代码,让程序更快运行,或者让它去扫描处理代码中包含的错误。
功能刚上线不久,大家可以去试下效果如何。
🔗 网页链接
LLaVA,又一个拥有类似 GPT-4 的大语言+视觉模型,在 GitHub 开源了。
在线体验: 网页链接
GitHub: https://github.com/haotian-liu/LLaVA
下面是该项目的论文摘要:
使用机器生成的指令跟踪数据对大型语言模型 (LLM) 进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。
所以,我们开始尝试使用纯语言 GPT-4 生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了 LLaVA:大型语言和视觉助手。
这是一种端到端训练的大型多模态模型,连接视觉编码器和 LLM 以实现通用视觉和语言理解。
早期实验表明,LLaVA 展示了令人印象深刻的多模型聊天能力,有时在看不见的图像 / 指令上表现出多模态 GPT-4 的行为,并且与合成多模态指令跟随数据集上的 GPT-4 相比,相对分数达到了 85.1%。
当在 Science QA 上进行微调时,LLaVA 和 GPT-4 的协同作用达到了 92.53%,这个准确率颇高。
因此,我们在 GitHub 正式开放 GPT-4 生成的视觉指令调整数据、模型和代码库。
最近几天,相信大家都发现了 ChatGPT 一个问题,就是官网报错越来越频繁了。
当你需用 ChatGPT 来处理一些比较琐碎的任务时,一旦你离开页面时间比较久,再度返回跟它进行对话。
今天,给大家推荐一个近期在 GitHub 比较受欢迎的 ChatGPT 油猴脚本:KeepChatGPT,让你一劳永逸,远离 ChatGPT 那频繁出现的报错信息。
详细介绍: 网页链接
它主要用于解决以下问题:
- 修复报错:Something went wrong…
- 取消后台检测审计:让你能访问更多 ChatGPT 提供的内容;
- 让交流更顺畅,无需再频繁刷新网页;
- 解决复制答案时,会把用户名也复制进去的误操作;
- 兼容移动端。
希望这个脚本对你有所帮助,最后祝大家玩的开心。
DeepMind 刚刚宣布,将与 Google Brain 合并成一个新团队,并取名 Google DeepMind。
将两批 AI 界的顶尖人才汇聚在一起,接下来 Google 在 AI 领域估计要有大动作了。
🔗 deepmind.com/blog/announcing-google-deepmind
推荐一款颜值颇高的 HTTP 调试工具:RapidAPI for Mac,之前是收费的,现在免费了。
你可以用它来编写 API 接口请求、完善 API 描述文档、测试服务器响应、生成客户端代码等工作,并支持多个团队成员实时协作。
🔗 paw.cloud
不仅如此,该工具还拥有丰富的插件市场,里面提供了多款实用插件,可进一步扩展工具功能。同时,它还支持 JSON Schema,可一键导入、生成兼容的 Swagger、RAML 和 API Blueprint 描述文件。
推荐一款开源的数据可视化分析神器:DataEase,操作简单易上手,开箱即用。
该工具拥有多种丰富美观的图表展示、图表制作、数据引擎等功能。支持多种数据源连接,通过拖拉拽即可快速制作图表,并与他人分享。
你可以用它来快速分析数据并洞察业务趋势,从而实现业务的改进与优化。
GitHub: https://github.com/dataease/dataease
除此之外,DataEase 还搭建了一个模板市场,里面的模板种类涵盖了多个使用场景和行业领域,用户不用自己费心设计就可以做出漂亮的大屏。
“模板市场” 功能板块被内嵌在 DataEase 的操作界面中,用户选择模板就能直接应用,一键切换到自己的数据集,快速生成各种酷炫的可视化大屏。
昨天晚上 11 点左右,Stable Diffusion 的母公司 Stability AI 宣布,正式开源一款全新的大语言模型:StableLM。
该模型的 Alpha 版本有 30 亿和 70 亿参数,并将于后续开放 150 亿和 650 亿的参数模型。
Stability AI 的创始人 Emad Mostaque 自 2020 年从 OpenAI 团队离开后,一直秉承着开源开放的理念,持续推出了多款 AI 开源模型。
其中影响力最广的,便有大家所熟知的文本生成图像模型 Stable Diffusion。
本次开源的 StableLM,基础功能跟 GPT 一样,支持生成文本和代码,在未来可以给不少应用提供基础技术支持。
在 GitHub 项目中,StableLM 提供了几个基础演示,包括聊天、撰写书信、小说创作、代码编写等功能,大家可以关注下。
GitHub: https://github.com/stability-AI/stableLM
StableLM 的技术经验,来自于非营利性研究中心 EleutherAI 开源早期的语言模型。
这些语言模型包括 GPT-J、GPT-NeoX 和 Pythia 套件,它们都是在 The Pile 开源数据集上做的训练。
虽然 StableLM 是基于 The Pile 数据集做的训练,但实际训练数据集要大 3 倍,里面总共包含了 1.5 万亿个 token。
该项目基于 CC BY-SA 4.0 许可发布,这也就意味着,你可以将 StableLM 应用于商业产品。
如果 StableLM 能做好语言模型,该技术也将反哺至 Stable Diffusion,进而构建出更好的社区生态。
微信公众号「GitHubDaily」
微博自动同步bot,原则上不搬运广告内容呢,如果自动搬运了广告内容麻烦帮忙点一下举报