Show newer

Mojo,一种适用于所有 AI 开发人员的新编程语言。

由 LLVM、Swift、Clang 作者 Chris Lattner 发布,被誉为 AI 新时代的编程语言变革者,比 Python 高效 35000 倍。

地址: https:// 网页链接

虽然 Mojo 比 Python 更高效,但在 AI 领域,仍需要与 Python 的核心功能和类库完全兼容,不过这也使得 Mojo 语言的兼容性能让它在 AI 领域得到广泛应用。

该语言运用了 Python 易用性和 C 的性能优势,重构了 AI 基础设施,实现了硬件的无与伦比的可编程性和 AI 模型的可扩展性。

Mojo 语言具有许多特点,如渐进类型、零成本抽象、所有权和借用检查器、可移植参数化算法等。它能充分利用硬件性能,像 C++ 和 CUDA 一样发挥作用。

简单来说,Mojo 语言具有高效、易用、可扩展等特点,未来将为 AI 基础设施的发展提供更多可能性。

感兴趣的可以学习下。

:icon_weibo: weibo.com/5722964389/MF7AUv9AT

Pandas AI 一个开源的 Python 库,为流行的数据分析和操作工具 Pandas 添加了生成人工智能功能。

PandasAI 旨在与 Pandas 结合使用,给 Pandas 增加了 AI 智能对话功能。

GitHub: github.com/gventuri/pandas-ai

你可以向 Pandas DataFrames 提出有关数据的问题,它将自动返回给你答案。

比如,你可以要求 PandasAI 查找 DataFrame 中列值大于 5 的所有行,它便会自动返回仅包含这些行的 DataFrame。

:icon_weibo: weibo.com/5722964389/MF2fL4dsY

在数据信息化项目中,BI(商业智能)需求日益增多。大多数项目选择集成第三方 BI 来提升自身能力,因为自主研发的难度和成本较高。

第三方 BI 主要分为开源免费和收费商用两种,尽管免费的看似更具吸引力,但许多项目仍选择较高成本的商用 BI,因为开源 BI 的功能与商用版本相比有一定差距,并且大部分国外的开源 BI 界面全为英文,改造成本较大。

润乾,一家专注于报表 BI 行业 20 年的商用报表厂商,近期将其 BI 模块免费开源。由于润乾具有专业的报表 BI 背景,其开源 BI 功能完备,用户无需担心功能差距问题。

开源 BI 报表的依赖文件: 网页链接

此外,该 BI 工具是全国产、全中文的,降低了学习和改造难度。开源的特点使其可随意修改,便于将其转化为自有品牌的 BI,同时解决国产化安全问题。

主要功能包括多维分析、通用查询、敏捷看板、系统管理和关联分析。润乾作为报表专家,能提供一站式 BI 和报表解决方案,满足大部分固定报表需求,使 BI 到报表的转变更加平滑。

通过这一工具,用户可实现无缝的数据分析、BI 和报表工作,更好地控制成本,简化项目管理,提高企业效率。

:icon_weibo: weibo.com/5722964389/ME5XzcAZ6

一个让你可以跟 GitHub 仓库进行对话的 Python 工具:Chat-with-GitHub-Repo。

仓库包含两个 Python 脚本,演示如何使用 Streamlit、OpenAI GPT-3.5-turbo 和 Deep Lake 来创建 AI 聊天机器人。

聊天机器人搜索存储在 Deep Lake 中的数据集以查找相关信息,并根据用户的输入生成答案,让你直接跟 GitHub 仓库进行对话。

GitHub: github.com/peterw/Chat-with-Gi

:icon_weibo: weibo.com/5722964389/ME4o9jYBe

一个基于 GPT 实现的开源 PDF 文档聊天方案:PDF GPT。

主要实现以下功能:

- 跟 PDF 文档进行一对一对话;

- 自动切割内容,并使用强大的深度平均网络编码器来生成嵌入;

- 对 PDF 内容执行语义搜索,并将最相关的嵌入传递给 Open AI;

- 自定义逻辑,生成更精确的响应信息,速度要比 OpenAI 的快。

GitHub: github.com/bhaskatripathi/pdfG

:icon_weibo: weibo.com/5722964389/ME3deC67v

一个基于 GPT 实现的开源工具:Chart-GPT,可在几秒内,将文本快速转换为漂亮的图表。

输入数据和指定图表类型,即可快速创建图表。

GitHub: github.com/whoiskatrin/chart-g

目前支持面积图、条形图、折线图、组合图、散点图、饼形图、雷达图、径向条形图、树形图、漏斗图等多种不同类型的图表。

:icon_weibo: weibo.com/5722964389/MDTlbwM34

阿里云刚刚宣布,旗下产品将实施史上最大规模降价,其中核心产品的价格下调了 15% 至 50%,存储产品最高的降幅达到了 50%。

在此次降价中,弹性计算第 7 代实例和倚天实例的价格下调了 15-20%,最新的存储 OSS 深度冷归档的价格甚至比冷归档降低了 50%。

网络负载均衡 SLB 和 NAT 网关的价格都下调了 15%,而数据库 RDS 倚天版的价格最高下调了 40%。

经过此次降价,阿里云的价格将比同行低 10%-20%,这波操作大家怎么看?

:icon_weibo: weibo.com/5722964389/MDKRd53k8

Hugging Face 推出第一个 ChatGPT 开源替代品:HuggingChat。基于 Open Assistant 大模型搭建,支持中文对话与编写代码,但暂不支持中文回复。

应用已上线,无需代理,打开即可访问,大家可以试玩一下。

地址: https:// 网页链接

:icon_weibo: weibo.com/5722964389/MDKmPdJuu

最近,一篇名为《Scaling Transformer to 1M tokens and beyond with RMT》在技术圈引发热议。

该论文提出一种名为 RMT 的新技术,或许可将 Transform 的 Token 上限扩展至 100 万,甚至更多。

要知道,目前最强的 GPT-4-32k,其 Token 上限也才 3.2 万,这就导致了它并不能很好的处理长文内容。

像文档、书籍、代码这种大块内容,往往需要先对内容进行切割,分多次喂给 GPT,但 GPT 本身能理解的上下文内容有限,这就很容易导致结果偏离预期。

如果未来 Token 的上限能够不断突破,将会创造出更多 AI 应用场景。包括之前大家经常畅想的,训练一个无限接近自己人格的 AI 聊天机器人。

论文:arxiv.org/abs/2304.11062

要是你觉得这些技术名词比较晦涩难懂,也可以读一下 Twitter 网友 riddhi 让 ChatGPT 做的这个总结,通俗易懂的解读了这项技术:

假设你有个很聪明的机器人朋友,它可以读很多东西并记住它们。这个机器人朋友使用一种叫做 “Transformer” 的东西来帮助它理解和记忆内容,就像人类大脑一样。

现在有这么一群聪明人,发现了一种能让你的机器人朋友变得更好的方法,那就是给它装上一个新大脑,叫做“Recurrent Memory Transformer”,或者简称“RMT”。

有了这个新大脑,机器人朋友就可以记住和理解更多的东西,一次多达 2 百万个字!这相当于它可以同时记住大约 20 本很长的书的内容。

在这之前,其他聪明的机器人只能记住最多 6.4 万个字,虽然这已经很多了,但还远不及 2 百万个字。

这个发现非常重要,因为这意味着我们的机器人朋友现在可以理解和谈论更多的事情,为我们提供更多的帮助。

最棒的是,这种新大脑不会让机器人变得更重或者耗费更多的能量。所以这就像一台拥有超能力的机器人朋友,可以做很多厉害的事情并且不会累!

Twitter:twitter.com/ridtalkstech/status/1650316114935828481

:icon_weibo: weibo.com/5722964389/MDDDnnyHX

潘多拉 Pandora,一个开源的 ChatGPT 命令行工具,可直接通过 access token 来访问网站功能。后端优化,绕过 Cloudflare,提升访问速度。

主要用于解决以下问题:

- 高峰期能绕过官方限制,继续使用;

- 应答速度直逼 PLUS,白嫖用户的福音;

- 官方故障的时候,它可能还是能跑;

- 多模式:网页 / 命令行 / API,私有化部署;

- 不会像官方那样无故断线、报错。

注意:使用该工具,或许有账号封禁和 access token 泄密的风险,请自行判断是否使用,这里仅分享技术解决方案。

GitHub: github.com/pengzhile/pandora

:icon_weibo: weibo.com/5722964389/MDzmb5r59

一个基于 GPT-4 构建的代码搜索引擎:Bloop,在 GitHub 开源了。

该工具采用基于 GPT-4 的 AI 智能模型,成功实现用自然语言,语义化的代码搜索方式。

详细介绍: 网页链接

你可以通过 Bloop,直接使用自然语言、正则表达式,来快速过滤查询搜索本地和远程存储库。让阅读源码变得更为高效,可以腾出手专注于业务上的功能开发。

它的主要功能如下:

- 基于 GPT-4 的会话搜索;

- 超快的正则表达式搜索;

- 一键同步本地和 GitHub 仓库;

- 复杂的查询过滤器,可调整搜索结果范围;

- 使用符号搜索查找函数、变量或特征;

- 支持 10 多种编程语言的代码导航(转到参考和转到定义)。

Bloop 基于 Rust 语言开发,因此在执行搜索任务时,效率也颇为惊人。目前支持 Windows、macOS、Linux 等主流操作系统。

:icon_weibo: weibo.com/5722964389/MDn59bLYx

一个可以在线测试多种开源大语言模型的工具:Chat with Open Large Language Models。

项目基于 Gradio 搭建,使用简单,操作便捷,无需配置 API Key,开箱即用。

地址: https:// 网页链接

该工具已支持多个主流开源 LLM 模型,包括前阵子刚开源 StableLM,以及近期比较火的 Vicuna、OpenAssistant、ChatGLM 等模型。

:icon_weibo: weibo.com/5722964389/MD7t2pMJg

从现在开始,Google Bard 也可以完成各种编程和软件开发任务了,这其中包括代码生成、调试和解释。

跟 ChatGPT 不同的是,Bard 可以直接访问某个 GitHub 项目,并对文件夹和目录进行介绍。

不过我刚刚用最近刚开源的 StableLM 进行测试,发现效果并不是特别理想,可能它并没有直接扫描 GitHub 仓库代码,而是结合搜索引擎来给出答案。如果真的是这样,那就用处不大了。

目前 Bard 已提供 20 多种主流编程语音的支持,包括 C++、Go、Java、Javascript、Python 和 Typescript。

你可以将 Python 代码快速导出到 Google Colab,无需手动复制和粘贴,这个确实能进一步提升操作效率。

如果你平时有用 Google 表格的话,还能直接用 Bard 来自动编写函数。

另外,在跟 Bard 进行交互时,即便你给出一些比较模糊的指令。它也能很好处理这些任务,比如让它重写代码,让程序更快运行,或者让它去扫描处理代码中包含的错误。

功能刚上线不久,大家可以去试下效果如何。

🔗 网页链接

:icon_weibo: weibo.com/5722964389/MD4Kwb0U5

LLaVA,又一个拥有类似 GPT-4 的大语言+视觉模型,在 GitHub 开源了。

在线体验: 网页链接

GitHub: github.com/haotian-liu/LLaVA

下面是该项目的论文摘要:

使用机器生成的指令跟踪数据对大型语言模型 (LLM) 进行指令调优提高了新任务的零样本能力,但这一想法在多模式领域的探索较少。

所以,我们开始尝试使用纯语言 GPT-4 生成多模态语言图像指令跟踪数据。通过对此类生成的数据进行指令调整,并推出了 LLaVA:大型语言和视觉助手。

这是一种端到端训练的大型多模态模型,连接视觉编码器和 LLM 以实现通用视觉和语言理解。

早期实验表明,LLaVA 展示了令人印象深刻的多模型聊天能力,有时在看不见的图像 / 指令上表现出多模态 GPT-4 的行为,并且与合成多模态指令跟随数据集上的 GPT-4 相比,相对分数达到了 85.1%。

当在 Science QA 上进行微调时,LLaVA 和 GPT-4 的协同作用达到了 92.53%,这个准确率颇高。

因此,我们在 GitHub 正式开放 GPT-4 生成的视觉指令调整数据、模型和代码库。

:icon_weibo: weibo.com/5722964389/MD3zxft0Z

最近几天,相信大家都发现了 ChatGPT 一个问题,就是官网报错越来越频繁了。

当你需用 ChatGPT 来处理一些比较琐碎的任务时,一旦你离开页面时间比较久,再度返回跟它进行对话。

今天,给大家推荐一个近期在 GitHub 比较受欢迎的 ChatGPT 油猴脚本:KeepChatGPT,让你一劳永逸,远离 ChatGPT 那频繁出现的报错信息。

详细介绍: 网页链接

它主要用于解决以下问题:

- 修复报错:Something went wrong…

- 取消后台检测审计:让你能访问更多 ChatGPT 提供的内容;

- 让交流更顺畅,无需再频繁刷新网页;

- 解决复制答案时,会把用户名也复制进去的误操作;

- 兼容移动端。

希望这个脚本对你有所帮助,最后祝大家玩的开心。

:icon_weibo: weibo.com/5722964389/MD3bAu4A1

DeepMind 刚刚宣布,将与 Google Brain 合并成一个新团队,并取名 Google DeepMind。

将两批 AI 界的顶尖人才汇聚在一起,接下来 Google 在 AI 领域估计要有大动作了。

🔗 deepmind.com/blog/announcing-google-deepmind

:icon_weibo: weibo.com/5722964389/MCVP1wDxg

推荐一款颜值颇高的 HTTP 调试工具:RapidAPI for Mac,之前是收费的,现在免费了。

你可以用它来编写 API 接口请求、完善 API 描述文档、测试服务器响应、生成客户端代码等工作,并支持多个团队成员实时协作。

🔗 paw.cloud

不仅如此,该工具还拥有丰富的插件市场,里面提供了多款实用插件,可进一步扩展工具功能。同时,它还支持 JSON Schema,可一键导入、生成兼容的 Swagger、RAML 和 API Blueprint 描述文件。

:icon_weibo: weibo.com/5722964389/MCUmtqa1t

推荐一款开源的数据可视化分析神器:DataEase,操作简单易上手,开箱即用。

该工具拥有多种丰富美观的图表展示、图表制作、数据引擎等功能。支持多种数据源连接,通过拖拉拽即可快速制作图表,并与他人分享。

你可以用它来快速分析数据并洞察业务趋势,从而实现业务的改进与优化。

GitHub: github.com/dataease/dataease

除此之外,DataEase 还搭建了一个模板市场,里面的模板种类涵盖了多个使用场景和行业领域,用户不用自己费心设计就可以做出漂亮的大屏。

“模板市场” 功能板块被内嵌在 DataEase 的操作界面中,用户选择模板就能直接应用,一键切换到自己的数据集,快速生成各种酷炫的可视化大屏。

:icon_weibo: weibo.com/5722964389/MCPoKEzsE

昨天晚上 11 点左右,Stable Diffusion 的母公司 Stability AI 宣布,正式开源一款全新的大语言模型:StableLM。

该模型的 Alpha 版本有 30 亿和 70 亿参数,并将于后续开放 150 亿和 650 亿的参数模型。

Stability AI 的创始人 Emad Mostaque 自 2020 年从 OpenAI 团队离开后,一直秉承着开源开放的理念,持续推出了多款 AI 开源模型。

其中影响力最广的,便有大家所熟知的文本生成图像模型 Stable Diffusion。

本次开源的 StableLM,基础功能跟 GPT 一样,支持生成文本和代码,在未来可以给不少应用提供基础技术支持。

在 GitHub 项目中,StableLM 提供了几个基础演示,包括聊天、撰写书信、小说创作、代码编写等功能,大家可以关注下。

GitHub: github.com/stability-AI/stable

StableLM 的技术经验,来自于非营利性研究中心 EleutherAI 开源早期的语言模型。

这些语言模型包括 GPT-J、GPT-NeoX 和 Pythia 套件,它们都是在 The Pile 开源数据集上做的训练。

虽然 StableLM 是基于 The Pile 数据集做的训练,但实际训练数据集要大 3 倍,里面总共包含了 1.5 万亿个 token。

该项目基于 CC BY-SA 4.0 许可发布,这也就意味着,你可以将 StableLM 应用于商业产品。

如果 StableLM 能做好语言模型,该技术也将反哺至 Stable Diffusion,进而构建出更好的社区生态。

:icon_weibo: weibo.com/5722964389/MCOdHqXJD

Show older
小森林

每个人都有属于自己的一片森林,也许我们从来不曾走过,但它一直在那里,总会在那里。迷失的人迷失了,相逢的人会再相逢。愿这里,成为属于你的小森林。