React的缺点。 Js,如果爬虫无法读取它有什么好处

问题描述 投票:-3回答:1

[如果在任何搜索引擎中都看不到任何网站,那有什么用处,那么为什么人们在他们的网站上使用react并说React社区还在增长,我知道它对于UI组件,可重用性或构建单页应用程序具有优势但是如果它无法被任何搜索引擎机器人抓取,那有什么好处,因此我不得不将我的整个项目更改为另一种技术。这很痛苦,那么为什么仍要大量使用react或有一种方法可以使React应用程序可爬网呢?还是服务器端渲染的唯一方法?除了预渲染并变为静态的gatsby.Js之外,还有其他方法吗?还是对搜索引擎毫无反应?

javascript reactjs gatsby search-engine server-side-rendering
1个回答
0
投票
性能优化的安全方法是追溯到过去,这对我们有用。

API响应有效负载大小已减小。

页面上图像的最大可能无损压缩。

删除了所有不必要的行并优化了CSS

优化了我们的javascript代码,并延迟了一些代码的加载。

已缓存API响应(尽管这对爬网性没有影响)

延迟加载所有图像并逐渐加载嵌入式Google地图。

已启用GZIP

© www.soinside.com 2019 - 2024. All rights reserved.