我为什么开发 layoffs-tracker

2024-12-06 pv

前两周花了点时间,在 GPT 和 GitHub Copilot 的协助下开发了一个小网站:裁员追踪器 | Layoffs Tracker🔗。还在测试,没有对外发布。

抛开背后使用到的技术不谈(一如既往,使用的都是开源和免费产品),从开发到部署,我最大的感受是:现在在互联网上发布一个产品的门槛,非常低!

借由 layoffs-tracker 这个产品,我想谈一谈,作为一名程序员,如何面对未来的挑战和机遇。

1. 起因

最开始想法很简单,就是想人工筛选并聚合最新的有关裁员的信息。

互联网上充斥着形形色色的新闻,混乱,低质,更新快。

昨天的新闻今天来看,就已经是陈年旧事。

互联网看似记录了一切,但记忆彷佛只有七秒。

我一直觉得,互联网上有关内容的主要矛盾是:日益增长的数据规模,同低信息密度之间的矛盾

用秩序,对抗混沌。这正是我所理解的,Notion🔗 这款软件的商业逻辑。

所以我打算按照时间线,把这些内容整理,并存档。

作为一名普通的劳动者,上班族,知道当下身边在发生着什么,很重要

2. 过程

国外已经有类似的网站:Layoffs.fyi - Tech Layoff Tracker and Startup Layoff Lists🔗,是 Roger Lee🔗 在新冠疫情期间开发的一款产品。

不过暂时还没有涉及中国的就业市场。

我要做的事情,说到底,不复杂,就是收集并整理那些,发生在中国的有关裁员的信息。

数据源目前完全依赖搜索引擎,依赖它对于全网信息的捕捉和排序。

我也思考过其他社交媒体,像小红书、脉脉等,但真实性难以判断。

剩下就是人工查看,校验,记录。

当然,来自互联网的消息,除非是官方发布,否则,仅供参考!

所有的数据都备份在 GitHub 上,以 .csv 的格式。

站点生成用 Next.js🔗,托管在 Netlify🔗

3. 思考

我本身对于 React 和 Next.js 都不是特别熟悉。项目中的很多代码,都是借助与 GPT 的交互,甚至是 GitHub Copilot 自动生成。

在其他行业 AI 的落地效果,我不了解,不擅作论断。

就编程这个确定性极强的领域,AI 对于个体效率的提升十分明显

尤其对于不熟悉的领域,上手很快。

更何况,AI 背后的模型,还在不分昼夜地迭代。

取代程序员,实现一些特定功能,比如数据库的 CURD,已经能做到了。

也许未来,就是一名架构师,在几个 Copilots 的协助下,把一个大型系统开发出来。

服务托管和运维,都是半自动,甚至全自动的。Kubernetes🔗 不是已经部分做到了吗?

未来,还未来,中间差的也许只有时间。

那么,深处局中,应对之策是什么?

我想到两条。

如果依旧想把程序员当作一门职业,除了不断精进 Coding 能力,培养计算机思维外,也要更深入了解问题是什么,如何拆解,如何提供兼顾低成本和高质量的解决方案。不同行业,垂直领域,都有亟待解决的痛点问题,别人束手无策,你站出来,解决了,这叫“不可替代性”。CSDN 之前的总编辑孟岩在 文章🔗 文章谈到:

我在很多场合都提出程序员要懂行业,或者重视领域知识。我相信,如果能够掌握好编程技术和行业知识之间的文武火候,作为程序员个体,无论是在企业中服务,还是自己创业,成功会相对容易些。

更进一步,把程序员当作一个“标签”。拒绝画地为牢,走出去,创建产品,组织生产要素,跑通商业模式。在 AI 时代,One Person Entrepreneur(OPE,个人企业家)成为可能,这也符合纳瓦尔一直倡导的,

地球上有 70 亿人, 我希望有一天也会有 70 亿家公司。

4. 总结

写到最后,我想到一个词:与狼共舞。

在有些人看来,AI 是洪水猛兽,而又有一些人把它当作良师益友。

亦正亦邪。

有朋友跟我讲,扣子🔗 扣子在都可以自动生成网站了。

看来我离失业,又近了一步…

(完)

参考

  1. 裁员追踪器 | Layoffs Tracker🔗
  2. Next.js by Vercel - The React Framework🔗
  3. Netlify: Scale & Ship Faster with a Composable Web Architecture🔗
  4. 扣子🔗
在 GitHub 上编辑本页面

最后更新于: 2024-12-09T06:17:41+08:00