AIで今後どうなるだろうな.自然言語処理で指示出し出来てきた今日.

2025.07.01

Logging

おはようございます.何だか梅雨明けした休日にGeminiCliでコードを生成しています.仕事ではまだ自分はChatに分からない事を質問するぐらいの事しかしていないのだけども絶対にCliなどで作業すると時間短縮になるのは間違いです(仕事でも導入しているのですが自分は使用していない).

休日に作業するときはコパイロットとGeminiを使用して開発しているのです、どちらも無料版なのだけど自分は無料板で事足りています.

因みにコパイロットとGemini、どちらが優秀かという問いに関しては今のところコパイロットの方が優秀なソースコードを書いてくれるというイメージが強いです.有料版ではカーソルやデビィンなどが優秀らしいけども余裕資金があんま無いので試していない.

お金に余裕があればいろいろと試したいことはあります.例えばグラボ(グラフィックボード)を取り替えて機械学習の学習をローカルで試してみたいなどがあります.

この頃思うのだけど、何かとこの業界は移り変わりが激しいのと新しい技術を学ぶときにたまに技術投資が必要になります.昔はオープンソース的な感じだったけどこのIT業界ビックテックはお金を取り出して来ています.

その中でMETA社?だけがオープンソースでいろいろと提供してくれていてとても有り難いです.それでもやっぱそれを動かす端末の推奨環境という物があるので古いPCだと動かなかったりします.

今後、Llm(大規模言語モデル)は容量が小さくなっていくということとローカル端末で動かすのが当たり前になる時代が来るそうです.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

あんま, イメージ, オープン, お金, カーソル, グラフィック, グラボ, コード, こと, コパイロット, ソース, そう, それ, たま, デビィン, とき, ところ, どちら, ビックテック, ボード, みたい, モデル, ローカル, 今後, 仕事, 休日, 余裕, 作業, 使用, 優秀, 問い, 学習, 容量, 導入, 当たり前, 必要, 感じ, 技術, 投資, 推奨, 提供, 明け, 明日, 時代, 時間, 有料, 梅雨, 業界, 機械, 無料, 環境, 生成, 短縮, 移り変わり, 端末, 絶対, 自分, 規模, 言語, 資金, 質問, 開発, 間違い,

Photo by Victor Dunn on Pexels.com

AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでも.

2025.06.22

Logging

おはようございます.AIで記事を学習して新たな記事を生み出すにはお金が必要だと思っていたがそうでもなくローカルPCでそこら辺に落ちているLlamaモデルを持ってきてチューニングすれば何とかなるじゃねぇという思いに至った.

実はあなたの手元にあるPCと、そこら中に「落ちている」オープンソースのAIモデル、特にLlama 3があれば、十分記事が生成できるんです。


ローカルAI記事生成は、もはや夢物語じゃない

「AIで記事生成」と聞くと、SFのような世界や、大企業だけが使える特権のように感じるかもしれません。しかし、今は違います。オープンソースの強力な言語モデル、特にMetaが公開したLlama 3の登場は、この常識を大きく覆しました。

Llama 3は、その性能の高さにもかかわらず、誰でも無料で利用できるという点が最大の魅力です。さらに、80億パラメータの8Bモデルであれば、最新のゲーミングPCとまではいかなくとも、ある程度の性能を持つPCであれば十分に動作します。これにより、高額なクラウドサービスを利用せずとも、自分のPCでAI記事生成の環境を構築することが現実的になりました。


なぜLlama 3があなたのPCと相性抜群なのか?

Llama 3がローカルPCでの記事生成に適している理由はいくつかあります。

  • 完全無料のオープンソース: 利用に費用がかからないため、予算を気にせずAIを試したり、本格的に導入したりできます。
  • 選べるモデルサイズ: Llama 3には様々なサイズのモデルがあり、PCのスペックに合わせて選べます。特に8Bモデルは、個人利用に最適なバランスを持っています。
  • 活発な開発者コミュニティ: 世界中の開発者がLlama 3を使った新しいツールや効率的なチューニング方法を日々共有しています。困ったときには助けを借りられる心強い味方です。
  • 「量子化」でさらに軽量に: モデルのサイズを大幅に小さくする「量子化」という技術を使えば、より少ないメモリでLlama 3を動かせるようになります。これにより、より多くのPCで利用の道が開けます。

あなたのPCを「記事生成マシン」に変える秘訣

もちろん、いきなりプロのライター並みの記事をAIに書かせるのは難しいかもしれません。しかし、ちょっとした工夫で「何とかなる」レベルの記事生成は十分に可能です。

  1. 少量のデータでファインチューニング: 大量の記事データは不要です。あなたが書きたい記事のテーマやスタイルに合った、質の良い記事を数十〜数百程度集めてLlama 3を学習(ファインチューニング)させれば、その分野に特化した記事生成能力が格段に向上します。
  2. プロンプト(指示文)の工夫: AIへの「指示の出し方」は非常に重要です。具体的で明確なプロンプトを与えることで、チューニングが完璧でなくても、驚くほど質の高い記事が生成できます。これはまるで、優秀なアシスタントに的確な指示を出すようなものです。
  3. 効率的な学習方法の活用: 「LoRA(Low-Rank Adaptation)」のような効率的なファインチューニング手法を使えば、少ないGPUメモリでも短時間でモデルを特定のタスクに最適化できます。

あなたの創造性が、今、AIで加速する

かつては一部の専門家や企業にしか手の届かなかったAIによる記事生成が、今やあなたのPCで実現できる時代になりました。これはまさにAI技術の「民主化」です。

とまぁそういう訳なので何とかしてみますが、ファインチューニングにどれぐらい時間がかかるのかが未知数だったりする.

ファインチューニングPythonコード

以下のPythonコードは、Llama 3モデルをロードし、提供されたテキスト記事でファインチューニング(LoRA使用)を実行し、結果を保存します。 上記の入力値は、このコードに自動的に反映されます。 このコードをPythonファイル(例: `finetune_llama.py`)として保存し、実行してください。

import os
import torch
from datasets import load_dataset
from transformers import AutoTokenizer, AutoModelForCausalLM, BitsAndBytesConfig, TrainingArguments, Trainer
from peft import LoraConfig, get_peft_model, prepare_model_for_kbit_training, TaskType

# GPUの利用可能性を確認
print("GPUが利用可能か確認中...")
if not torch.cuda.is_available():
    print("GPUが見つかりません。Fine-tuningにはGPUが強く推奨されます。")
    # GPUがない場合は、ここでスクリプトを終了するか、CPUモードで続行するか選択できます。
    # exit("GPUがないため終了します。")
else:
    print(f"GPUが利用可能です: {torch.cuda.get_device_name(0)}")

# --- 1. モデルとトークナイザーのロード ---
# Llama 3モデルのパスを指定します。Hugging Faceのモデル名(例: "meta-llama/Llama-3-8B")
# またはローカルにダウンロードしたモデルのパスを指定してください。
MODEL_NAME = "meta-llama/Llama-3-8B" # ユーザーが入力したパスがここに挿入されます

print(f"モデルとトークナイザーをロード中: {MODEL_NAME}")

# 4bit量子化設定 (GPUメモリの節約に役立ちます)
# bnb_4bit_compute_dtypeは、Ampere以降のNVIDIA GPUに推奨されるbfloat16を使用しています。
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_use_double_quant=True,
    bnb_4bit_quant_type="nf4", # NF4 (NormalFloat4) 量子化タイプ
    bnb_4bit_compute_dtype=torch.bfloat16 
)

# トークナイザーをロード
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_code=True)
# Llama 3はデフォルトでbos_tokenを付与しないことがあるため、明示的に追加。
# また、padding_side='right'はLlamaモデルに推奨される設定です。
tokenizer.pad_token = tokenizer.eos_token
tokenizer.padding_side = "right"

# モデルをロードし、量子化設定を適用し、自動的にGPUにマッピングします。
model = AutoModelForCausalLM.from_pretrained(
    MODEL_NAME,
    quantization_config=bnb_config,
    device_map="auto", # 利用可能なデバイス(GPU)に自動的にモデルを分散
    trust_remote_code=True # リモートコードの実行を許可
)
print("モデルロード完了。")

# k-bit学習用にモデルを準備 (PEFTライブラリのため)
# gradient_checkpointingを有効にすることで、メモリ使用量をさらに削減できます。
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
print("k-bit学習用にモデルを準備しました。")

# --- 2. データセットの準備 ---
# あなたのテキスト記事ファイルが格納されているディレクトリを指定します。
# 例: 'your_article_data/' の中に 'article1.txt', 'article2.txt', ... と置かれている場合
DATA_DIR = "./your_article_data/" # ユーザーが入力したパスがここに挿入されます

print(f"データセットをロード中: {DATA_DIR}")

# 'text'形式でデータセットをロードします。指定されたディレクトリ内のすべての.txtファイルを読み込みます。
# 各ファイルが1つのエントリとして扱われます。
try:
    dataset = load_dataset('text', data_files={'train': os.path.join(DATA_DIR, '*.txt')})
    print(f"データセットのサンプル数: {len(dataset['train'])}")
except Exception as e:
    print(f"データセットのロード中にエラーが発生しました。ディレクトリとファイル形式を確認してください: {e}")
    exit("データセットロード失敗。")

# データセットをトークン化する関数
# 長い記事をモデルの最大入力長に分割します。
def tokenize_function(examples):
    # Llama 3の最大入力長は通常8192ですが、お使いのGPUのVRAMに合わせて調整してください。
    # ここでは一般的な値として2048を設定しています。
    max_length = 2048 
    # truncate=Trueで最大長を超えるテキストを切り捨てます。
    return tokenizer(examples["text"], truncation=True, max_length=max_length)

# データセットをトークン化します。
# num_procはCPUコア数に応じて並列処理を行い、処理を高速化します。
tokenized_dataset = dataset.map(
    tokenize_function,
    batched=True,
    num_proc=os.cpu_count(),
    remove_columns=["text"] # 元のテキスト列は学習に不要になるため削除します。
)
print("データセットのトークン化が完了しました。")

# --- 3. PEFT (LoRA) の設定 ---
# LoRA (Low-Rank Adaptation) は、元のモデルの重みをフリーズし、
# 小さなアダプター層を追加して学習させることで、効率的にファインチューニングを行います。
# これにより、GPUメモリの使用量を抑えつつ、高い性能を実現できます。
lora_config = LoraConfig(
    r=16, # LoRAのランク。値を大きくすると表現力が増すが、メモリ消費も増える。
    lora_alpha=32, # LoRAのスケーリング係数。rの2倍程度が推奨されることが多いです。
    target_modules=["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj"], # LoRAを適用する層。Llamaモデルで一般的な層。
    bias="none", # バイアスを学習しない設定。
    lora_dropout=0.05, # ドロップアウト率。過学習を防ぐために設定します。
    task_type=TaskType.CAUSAL_LM, # タスクタイプを因果言語モデルに設定。
)

# モデルにLoRAアダプターを追加します。
model = get_peft_model(model, lora_config)
print("モデルにLoRAアダプターを適用しました。")
model.print_trainable_parameters() # 学習可能なパラメータ数を確認します。

# --- 4. 学習の実行 ---
# 学習済みモデルを保存するディレクトリ
OUTPUT_DIR = "./llama3_finetuned_model/" # ユーザーが入力したパスがここに挿入されます

# 学習の設定
training_args = TrainingArguments(
    output_dir=OUTPUT_DIR,
    num_train_epochs=3, # エポック数。データセットのサイズと希望する精度に応じて調整してください。
    per_device_train_batch_size=1, # GPUあたりのバッチサイズ。VRAMが少ない場合は1に設定。
    gradient_accumulation_steps=4, # 勾配を蓄積するステップ数。実質的なバッチサイズは per_device_train_batch_size * gradient_accumulation_steps になります。
    optim="paged_adamw_8bit", # 8bit AdamWオプティマイザを使用し、メモリ効率を向上させます。
    save_steps=500, # 500ステップごとにモデルを保存します。
    logging_steps=100, # 100ステップごとにログを出力します。
    learning_rate=2e-4, # 学習率。
    fp16=True, # 混合精度学習を有効化 (GPUが対応している場合)。VRAM削減と高速化に寄与します。
    max_steps=-1, # num_train_epochsに基づいて学習します。
    group_by_length=True, # 同じ長さのシーケンスをグループ化し、パディングを削減します。
    lr_scheduler_type="cosine", # 学習率スケジューラーのタイプ。
    warmup_ratio=0.03, # ウォームアップ比率。
    report_to="none", # レポート先を指定しない (wandbなどを使用しない場合)。
)

# トレーナーの初期化
# data_collatorは、モデルの入力形式に合わせてデータを整形します。
trainer = Trainer(
    model=model,
    train_dataset=tokenized_dataset["train"],
    args=training_args,
    data_collator=lambda data: {
        'input_ids': torch.stack([f['input_ids'] for f in data]),
        'attention_mask': torch.stack([f['attention_mask'] for f in data]),
        'labels': torch.stack([f['input_ids'] for f in data]), # 因果言語モデルでは、入力自体がラベルとなります。
    },
)

# 学習の開始
print("Fine-tuningを開始します...")
trainer.train()
print("Fine-tuningが完了しました。")

# --- 5. 学習済みモデルの保存 ---
# LoRAアダプターのみを保存します。これにより、ファイルサイズが小さく、効率的に管理できます。
trainer.save_model(OUTPUT_DIR)
print(f"学習済みLoRAアダプターが '{OUTPUT_DIR}' に保存されました。")

# 保存したアダプターを使って推論を行う方法の例 (コメントアウトされています):
# このコードは、ファインチューニング後にモデルをロードして推論を行うための参考例です。
# from peft import PeftModel
#
# # 元のモデルをロード (学習時と同じ量子化設定を使用します)
# base_model = AutoModelForCausalLM.from_pretrained(
#     MODEL_NAME,
#     quantization_config=bnb_config,
#     device_map="auto",
#     trust_remote_code=True
# )
#
# # 保存したLoRAアダプターを元のモデルに結合します。
# peft_model = PeftModel.from_pretrained(base_model, OUTPUT_DIR)
#
# # 推論モードに設定します。
# peft_model.eval()
#
# # テキスト生成の例
# prompt = "ローカルPCでのLlama 3ファインチューニングの利点とは"
# inputs = tokenizer(prompt, return_tensors="pt").to("cuda") # 入力をGPUに移動
#
# with torch.no_grad(): # 勾配計算を無効化し、メモリ使用量を削減
#     outputs = peft_model.generate(
#         **inputs,
#         max_new_tokens=200, # 生成する新しいトークンの最大数
#         do_sample=True, # サンプリングによる生成を有効化
#         top_p=0.9, # Nucleusサンプリングの閾値
#         temperature=0.7, # 生成の多様性を制御する温度
#         eos_token_id=tokenizer.eos_token_id # 終了トークンID
#     )
# print("\n--- 生成されたテキスト ---")
# print(tokenizer.decode(outputs[0], skip_special_tokens=True))

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

```, ;;), )。, アウト, アシスタント, アダプター, あたり, アップ, あなた, いくつ, ウォーム, エポック, エラー, エントリ, オープン, オプティマイザ, お金, クラウドサービス, グループ, クン, ゲーミング, コード, コア, ここ, こと, コミュニティ, コメント, これ, サイズ, サンプリング, サンプル, シーケンス, スクリプト, スケーリング, スケジューラー, スタイル, ステップ, スペック, すべて, ソース, そこら, タイプ, ダウンロード, タスク, ため, チューニング, ツール, データ, データセット, テーマ, ディレクトリ, テキスト, デバイス, デフォルト, トー, トークナイザー, とき, どれ, トレーナー, ドロップ, バイアス, パス, バッチ, パディング, パラメータ, バランス, ファイル, ファイルサイズ, ファインチューニング, ファインチューニングコード, フリーズ, プロ, プロンプト, マシン, マッピング, メモリ, モード, モデル, もの, ユーザー, よう, ライター, ライブラリ, ラベル, ランク, リモート, レベル, レポート, ローカル, ロード, ログ, 一般, 一部, 上記, 不要, 世界, 世界中, 並み, 並列, 予算, 付与, 以下, 以降, 企業, 使い, 使用, 係数, 保存, 個人, 優秀, 入力, 公開, 共有, 具体, 処理, 出力, 分割, 分散, 分野, 初期, 利点, 利用, 制御, 削減, 削除, 創造, 加速, 助け, 効率, 動作, 勾配, 十分, 参考, 反映, 可能, 向上, 味方, 因果, 場合, 多様, 夢物語, 大幅, 大量, 失敗, 学習, 完了, 完全, 完璧, 実現, 実行, 実質, 寄与, 対応, 専門, 導入, 少量, 工夫, 希望, 常識, 強力, 形式, 必要, 思い, 性能, 手元, 手法, 技術, 抜群, 指定, 指示, 挿入, 推奨, 推論, 提供, 整形, 新た, 方法, 日々, 明日, 明確, 明示, 時代, 時間, 最大, 最新, 最適, 有効, 未知数, 本格, 格段, 格納, 構築, 様々, 比率, 民主, 活用, 活発, 消費, 混合, 済み, 温度, 準備, 無効, 無料, 特定, 特権, 現実, 理由, 環境, 生成, 発生, 登場, 的確, 相性, 短時間, 確認, 秘訣, 移動, 程度, 管理, 節約, 精度, 終了, 結合, 結果, 続行, 能力, 自体, 自分, 自動的, 蓄積, 表現, 言語, 計算, 記事, 設定, 許可, 調整, 費用, 軽量, 追加, 通常, 適用, 選択, 重み, 重要, 量子, 開始, 開発, 関数, 閾値, 非常, 高速, 高額, 魅力,

Photo by Min An on Pexels.com

お金の本 図解だからわかると貧乏人はお金持ちをパラめくして

2025.06.21

Logging

おはようございます.「お金の本 図解だからわかる」と「貧乏人はお金持ち」を電子書籍で読んでみて率直にひろゆき氏が書いた「お金の本 図解だからわかる」が読みやすい、逆に貧乏人はお金持ちは読みづらい、何故か過去の歴史のウンチクが多く内容が残らないと思う人が多いのではないかなと思いました.

書いている内容はわかるだけど、明確なアドバイスを書いているのはひろゆき氏のゴースト?が書いたものが良さげかと思います.

それぞれの本の内容をAIに解説してもらいました、気になる人は手にとって見てください.

「お金の本 図解だからわかる」は、ひろゆき(西村博之)氏が著者のお金に関する本です。正式なタイトルは「図解だからわかる お金の本 ー 死ぬまでお金にこまらない!」です。

この本は、以下のような特徴と内容を持っています。

  • 図解で分かりやすい: タイトルの通り、図やイラストを多く用いて、お金に関する知識や考え方を直感的に理解できるように工夫されています。
  • ひろゆき流のお金とのつきあい方: 2ちゃんねるやニコニコ動画、4chanの管理人として知られるひろゆき氏が、自身の経験に基づいた「お金に困らないための考え方」や「頭のいいお金とのつきあい方」について解説しています。
  • 実践的な内容: 「お金の無駄遣いを減らす」「生活レベルを上げない」「ストレス解消にお金を使わない」「自己投資をする」「競争相手のいない分野で稼ぐ」といった、具体的な行動や考え方が提示されています。
  • 現代のお金と社会の変化に対応: 生命保険、株、宝くじ、リボ払い、ソシャゲ、結婚、生活保護などのコスパをひろゆき氏の視点から一刀両断し、これからの時代のお金の稼ぎ方、貯め方、使い方について触れています。
  • 「幸せ」とお金の関係: 本書で一貫して主張されているのは、「幸せになるにはお金を使わないこと」や「楽しいの最大化を目指すより不安や不幸をどれだけ減らせるかが重要」といった考え方です。

この本は、お金の運用的な話だけでなく、お金とは何か、お金との付き合い方や心掛けといった基本的ながらも大切な話がシンプルで端的に語られており、お金の知識を体系的に学びたい人や、ひろゆき氏の考え方に触れてみたい人におすすめの一冊と言えるでしょう。

橘玲さんの「貧乏はお金持ち」は、グローバル資本主義が進む現代において、会社に依存せず、「雇われない生き方」で経済的自由を掴むための具体的な戦略とファイナンスの技術について書かれた本です。

主な内容は以下の通りです。

  • サラリーマンの「楽園」の終焉: 現代のサラリーマンが置かれている厳しい状況、つまり、企業に縛られ、税金や社会保険料で手取りが減っていく現状を指摘しています。
  • フリーエージェント化する世界: 終身雇用が崩壊し、誰もがフリーエージェントとして生きる時代が来ていることを示唆しています。
  • 「マイクロ法人」の活用: 本書の中で最も特徴的なのが「マイクロ法人」の活用法です。一人社長の小さな会社を設立することで、税制上の優遇措置を受けたり、国の制度の「歪み」を合法的に利用して富を築く方法が解説されています。
    • サラリーマンでは決してできなかった税金の最適化(所得税と法人税の仕組みの違いを利用)
    • まとまった資金を無税で運用する方法
    • 低金利で融資を受ける方法
  • ファイナンスの知識の重要性: 自分の人生を自分で選択し、自由に生きるためには、お金に関する知識(ファイナンス)が不可欠であると説いています。
  • 「国家を道具として使う」という発想: 国家の制度や法律を「道具」として活用し、自身の経済的な利益を最大化するという、従来の常識を覆す視点を提示しています。

本書のターゲット層と評判:

  • 会社に依存しない生き方を模索している人、独立や起業を考えている人、税金や社会保険料の負担に疑問を感じている人などに響く内容です。
  • 税制や会計に関する専門的な内容も含まれるため、予備知識がないと難しく感じる部分もあるという意見もあります。しかし、サザエさん一家を例に出すなど、分かりやすく解説されている箇所も多く、税理士の知識がなくても理解できるよう工夫されています。
  • 出版されてから時間が経っているため、税制などの情報が古くなっている部分もありますが、2024年には「新・貧乏はお金持ち」としてアップデート版も出ており、最新の状況に合わせた内容が加筆されています。

要するに、「貧乏はお金持ち」は、現代社会の経済システムを深く理解し、その中でいかに賢く生き、自由な人生を築いていくかを、大胆かつ具体的な方法で提案する一冊と言えるでしょう。

因みにどちらも自分がメンタルが沈んでいる時に購入した本で積本でした、メンタル沈んでいる時はこういう本がメンタルの栄養剤になるだと思います.あと、AIが解説した内容は概ね合っていますが概ね止まりですがまぁ無いよりはある方が良いと思い記載しています.

あと自己啓発ではないけど、自己啓発的な感じなので試して失敗しないように!

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

!」, アップデート, あと, アドバイス, イラスト, うんちく, おすすめ, お金, グローバル, ゴースト, コスパ, こと, サザエさん, サラリーマン, サン, システム, シンプル, ストレス, ソシャゲ, それぞれ, ターゲット, タイトル, ため, チャン, どちら, どれ, ひろ, ファイナンス, フリーエージェント, マイクロ, メンタル, もの, ゆき, よう, リボ, レベル, 一刀両断, 一家, 一貫, 不可欠, 不安, 不幸, 世界, 主張, 主義, 予備, 人生, 仕組み, 以下, 企業, 会社, 会計, 体系, 使い方, 依存, 保護, 保険, 優遇, 具体, 内容, 出版, 分野, 利用, 利益, 制度, 加筆, 動画, 博之, 合法, 啓発, 図解, 国家, 基本, 変化, 大切, 大胆, 失敗, 宝くじ, 実践, 対応, 専門, 崩壊, 工夫, 常識, 幸せ, 従来, 心掛け, 情報, 意見, 感じ, 戦略, 所得, 手取り, 技術, 投資, 指摘, 措置, 提案, 提示, 方法, 明日, 明確, 時代, 時間, 書籍, 最大, 最新, 最適, 本書, 栄養剤, 楽園, 模索, 正式, 歪み, 歴史, 法人, 法律, 活用, 無税, 無駄遣い, 特徴, 状況, 独立, 率直, 現代, 現状, 理解, 生き方, 生命, 生活, 疑問, 発想, 直感, 相手, 知識, 示唆, 社会, 社長, 税制, 税理士, 税金, 端的, 競争, 箇所, 管理, 終焉, 終身, 経済, 経験, 結婚, 考え方, 自分, 自己, 自由, 自身, 著者, 融資, 行動, 西村, 視点, 解消, 解説, 記載, 設立, 評判, 負担, 貧乏, 貧乏人, 資本, 資金, 購入, 起業, 通り, 運用, 過去, 道具, 違い, 選択, 部分, 重要, 金利, 金持ち, 関係, 雇用, 電子,

この頃、言語化や語彙などという言葉が書店に並んでいるのでポイントで購入してみた.

2025.03.07

Logging

おはようございます.この頃、言語化や語彙などという言葉が書店に並んでいるのでポイントで購入してみた.ポイントで購入するので1時間ぐらいどの本を購入するか悩んだ挙げ句に、高知県、出身の方が書かれた「好き」を言語化する技術という本を購入しました.

因みにじっくり読んではいないので感想は書かないけど、何故、この本を読んでみようと思ったのは帯にも書かれている通り「すごく感動したのにおもしろかった」しか言葉がでてこないというキャッチコピーに「あぁまさにこれだ」と心で思ったので購入.

Xでも映画観終わった後にポストするのだけど「ついつい同じ言い回しを使ったり」、「良かった」などで終わらしている自分がいるのでもっと良さを伝えれたらなという思いもあるし少なからず承認欲求というものもある(これで少しは良いねを貰えるかなという思いも).

因みにこの本の感想は書かない可能性があります、理由は実践しようと思っているので(笑)

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

キャッチコピー, ポイント, 出身, 少し, , , 感想, 承認欲求, 技術, 映画観, 書店, , 理由, , 良いね, 言葉, 言語化, 語彙, 通り, 高知県,

慣れるか慣れないかではなくてなりたいが重要なのかもしれない.

2025.02.19

Logging

おはようございます.DevAsLifeのTakuyaさんみたいに自分はなりたいのだけども全然レベルが違って雲の上の人感覚が強いです.喋りも下手な自分にとってはなんか本当に差を感じたりします、喋りで損をしている気がしているのは凄く分かるのですが、なんかそんなに対した技術もないのでそれを表現するのがすごく苦手です.

慣れるか慣れないかで言えば、恐らくなれない可能性が高いですよね.これは元々のスペック的な要素です.でもなりたいという気持ちは捨てたらダメだとも思うです.それに近づこうという気持ちは大事、この気持ちを枯らしたら多分老けていくだろうと思っています.

自分みたいに思っている人で何から手を付けてよいのやらと思っている人は、何か一つはじめて続けることが大事なんだろうと思っています.そしたらある程度までは身につくことが可能です.この身につくまでの時間が自分の持っている元々のスペックが良いほど、短時間で身につくことが可能ですが大体の人は投げ出さない限り身につきます.

1年、2年単位で物事を考えるのも10年単位で物事を考えても考えた通りに人生は動かない、だいたい的外れ3日先でも当たらないだから将来なんてのは分からない.当たらないけど準備は大事だったり努力は大事だったり気持ちは大事だったりします.あと流れに乗るということは大事なことなんだろうなってこの頃は思っています.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

スペック, 人感覚, 人生, 努力, 将来, , 年単位, 技術, , 気持ち, 準備, 物事, 的外れ日先, 短時間, 程度, 要素, , 通り, 限り身, ,

日本でもそろそろ発売されると思う.ビル・ゲイツの自伝ソースコード洋書はAmazonから.

2025.02.08

Logging

おはようございます.日本でもそろそろ発売されると思う.ビル・ゲイツの自伝ソースコード洋書はAmazonから「Source Code: My Beginnings」と検索するとヒットします😌.英語が読める方は洋書で読むことをオススメします.自分は英語がわからないので翻訳(和訳)が出るまで待ちます.恐らく日本で発売される時の本の題名も「ソースコード ビル・ゲイツ」でしょう.

ビル・ゲイツが語る学生時代、家庭環境、マイクロソフト成功への野望について | The Big Interview | WIRED Japan

技術レベルは違えども自分も何故だかわからないけど、ソースコードを読んだり理解したりするのは好きですね.謎解きゲームのようなもので、複雑怪奇なソースコードも何か何度か見るとわかるようになる不思議なものです.昔はソースコードを読んだりするのは今みたいに好きではなかったのですが、いつの頃から何かわかるようになりました.仕様書がないソースコードを読む場合、全体把握は難しいので一つの関数がどういう振る舞いになっているのかを探っていくことで一つの機能を理解するという感じで徐々に全体像を理解していきます.

トイウコトデ、ソースコードの日本書籍が発売されたら読むつもりでいます.なんとなくですがソースコードは映画化されそうな気がします.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

ソースコード, トイウコトデ, ビル・ゲイツ, 仕様書, 何度, 全体像, 全体把握, 和訳, 技術, 日本書籍, , 映画化, , 洋書, 翻訳, 自伝ソースコード洋書, 英語, 謎解きゲーム, 関数, 題名,

上には上がいて上しか見ていない.上位1%には成らなくても

2024.12.22

Logging

おはようございます.40代エンジニアとしてまだ小童レベルだと思うのだけどせめて中間層までなんとかたどり着きたいなっていう思いがあります.

行政職員の悩みをその場で解決!  「AIアイデア・ハッカソン」

上位1%の技術者は憧れますが、これは持って生まれたDNAが違うのでたどり着くことは到底出来ないという思いがありますが、その他レベルは頑張り次第でそれなりに技術を持つことは誰にでも出来ることだと思うですね.エンジニアが技術を伸ばすのに一番大事なのは環境と人だと思います.

頑張っただけ技術や知識は付いてくるものだと思うのものの.その人の元々の能力によって身につくまでに時間が掛かってしまったりする場合があることも.

@__cp20__さんという人のxのタイムラインを見ていて、この人は上位1%の方だと思うものの、それに掛けている情熱や熱意は見習うものがあると自分は思います.20代だと思うのだけど全然桁違いに凄いなって思います.

上には上がいて彼にもたどり着きたい目標があったりするだと.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

40代エンジニア, X, すねエンジニア, その他, タイムライン, 上位1%, 中間層, 小童, , 情熱, 技術, 技術者, 次第, 熱意, 環境, 目標, 知識, 能力, 自分, ,

Photo by Brett Sayles on Pexels.com

たぶんだけど人型ロボットとは別のロボットがブルーカラーの仕事を奪う.

2024.12.10

Logging

おはようございます.たぶんだけど人型ロボットとは別のロボットがブルーカラーの仕事を奪う.いまの技術で倉庫内作業や工場内の作業をロボットで全自動化出来る.

いまの倉庫内や工場内は人が働く環境に合わせた働けるように設計されたものです.わざわざそれを人型ロボットを導入して自動化しようと思うのは大企業ぐらいのものかも.

MagicBot at Work: Multi-Robot Collaboration in Action

これから倉庫内作業や工場内作業を自動化しようと思っているスタートアップは全自動化に力を入れたほうが賢明なのかもしれない.たぶん今の既存の技術をしようすればそれが出来てしまう.

ブルーカラーもホワイトカラー同様に数十年後には仕事が奪われると自分は思っている.ホワイトカラーの仕事が奪われた人材がブルーカラーの仕事を奪いブルーカラーは新たな仕事を探さなくてはならなくなるという図式が数年後に起こりそうな気がする.

物流倉庫の仕分け作業 国内初の“全自動化”へ 人手不足に対応(2023年12月8日)

今までと違うのは新たな仕事が生まれそうにない所だ、ロボットが壊れてもロボットがロボットを修理するようになると思っていて最終的には人は仕事をしなくても良くなるじゃないかな.

仕事とお金は結びついているし社会経済も紐付いている.上手くシフトしないと社会が崩壊しかねないと思っていて国はなかなか難しい舵取りを迫られる気がする.

過去に馬鹿みたいに言っていたことが徐々に現実的になってきている今日此の頃.シンギュラリティという本に書かれた人2.0はあり得る話なのかもしれない.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

シンギュラリティ, ブルーカラー, ホワイトカラー, ロボット, わざわざそれ, 人型ロボット, 人材, 作業, 倉庫内, 倉庫内作業, 図式, 工場内作業, 技術, 既存, , 社会, 社会経済, , 舵取り, 過去,

みんな大好きお金の話.WEB個人開発の広告収入の方はどう?

2024.10.27

Logging

おはようございます.「みんな大好きお金の話.WEB個人開発の広告収入の方はどう?」というタイトル通り、今日は個人での収入のことを少し書いていきますね.いま、毎日ワンコインぐらいの収入があります.それ乗算する月末数が毎月の収入だと思ってください.ワンコインが100円を指すのか500円を指すのかはご想像にお任せします.

収入はコンスタント(常に一定)に入ってくるようになりましたがこれが長期的に続くのかは正直な所、分からないです、まさに水物みたい.商売とはそういう物なのかもしれないですね.

成功の理由は分からないと言いますが、ある程度は分かります.ユーザーに需要があるから収入に転換出来るですね.あとは時代の流れを読むことだと思います、時代よりも先にそこに投資していると大体、上手くいきます.

今の時代に合わすより次を読むことが大事だと思います.そこにどれだけ時間、お金、技術を投資できるかだと思います.

自分の先読み話.
この頃のSNSを見ていると正社員で働いている人と同等ぐらいの収入を得ている人が増えてきている.この流れは進むかもしれない.フォロワーが100万人以上とかそういう人達ではなく1万人や5000人などの人達が増えてきている(※自分は個人開発で正社員ぐらい収入を稼いでいる訳ではありません).そんな何と言うか村社会のような経済圏(マクロ経済的な)が今後増えてくるのだと思います.

自分は安定した状態を好みますが時代は変わっている気がします.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

SNS, WEB個人開発, コンスタント, それ乗算, タイトル通り, フォロワー, ユーザー, 一定, 収入, , 広告収入, 成功, 技術, 村社会, , 正社員, 水物みたい.商売, 経済圏, , 需要,

この頃思うのは技術的な公開を何処までして良いのか?飯テロが多い人.

2024.10.26

Logging

おはようございます.この頃思うのは技術的な公開を何処までして良いのかという事を考えることが多い.まともな人ほど飯テロ投稿が多い気がしますが、実際何処まで投稿するのかが微妙なんだということ、特に技術の価値をあまり知らないひとは価値を教えてもらった方が良いと思います.

これは経営者が教えてあげないと分からないことだと思うですね.とくにエンジニアは自分の技術の価値には無頓着です.そういう自分も無頓着だったのですが、この頃はネットに掲載されているけど自分は公開しないようにしようとか考えることがあります.

公開するということは技術の価値を下げていることに協力しているようなもの.これはNGだと思います.いまこぞってAIに質問している行為もいずれ技術の価値を下げていることに繋がっていくとも思います.

ソフトウェアやアプリの価値は上がっていけば良いのですが、無料版で事が足りる製品はやはり問題かと思います.使う場合は便利で良いですがこれが価値を下げている気もします.無料の製品で成り立っているものの殆どは企業などのスポンサーがバックに居ることで成り立っています.それを知らないで無料だと思っている人が多いです.

そして消費者が0円のからくりを知ってほしいものだなってこの頃思います.

明日へ続く

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

AI, NG, アプリ, エンジニア, カラクリ, スポンサー, ソフトウェア, ネット, バック, ひと, 人ほど飯テロ投稿, 企業, 何処, 価値, 問題, 実際何処, 技術, 殆ど, 行為, 製品,

Photo by Chris J Mitchell on Pexels.com

一人で起業して低予算でハイリターンな人がそろそろ出てきそう何だよね.

2024.08.28

Logging

おはようございます.一人で起業して低予算でハイリターンな人がそろそろ出てきそう何だよとこの頃思うわけです.アイディアとある程度、IT技術に長けていたら恐らく一人で起業して低予算でハイリターンな利益を得れるところまで来ている気がしてならない.

前提条件として.

  • awsの知識がある.
  • AIの知識がある.
  • 何らかのプログラミング言語の知識がある.

これらの技術力が高いほど、人材は少人数でハイリターンな利益を得れる時代になってきている気がしてならない.サービスをリリースしてサポートはどうするかという問題も全てAI(人工知能:生成AI)で解決しそうな気がします.

いまでは人と見分けがつかない返答をする生成AIも登場してきましたので、サポートや問い合わせは生成AIで何とかなるのではないかと思います.

そうなるとウェブで完結するサービスを作れる人は少人数でハイリターンな商売が出来そうです.全ての技術が秀でている人は一人でもハイリターンを得ることが出来そうですね.

因みに自分は難しそうです?

明日へ続く.

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

AI, AWS, it技術, アイディア, ウェブ, ハイリターン, プログラミング言語, 人工知能, 人材, 低予算, 全てAI, 利益, 前提条件, 商売, 問い合わせ, 少人数, 技術, 生成AI, 知識, 返答,

未来ずなFMラジオが。

2024.02.08

Logging

おはようございます、未来志向なFMラジオが早朝AM5:30からやっている[FUTURES]、この番組はポッドキャストでも配信されていたりSpotifyでも放送されてたりします。結構お得感の強い番組になっています、内容は最先端な技術などのホットの話題が多いので、そういうのが好きな人にはおすすめ度高い番組かと思います。

自分もどちらかと言えば未来志向の強いひとなので、聞いていて楽しいですね。そして新たな情報や技術の単語が出てくることがあるので良い。その単語を調べて発見するという形ですね😌、番組ではそんなに深掘りはしていないので、知っていて当たり前という感じで話が進んでいくことが多い気がします。

未来志向が強い方は是非聞いてみると良いかもしれません。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

FUTURES, Spotify, ボット, ポッドキャスト, 単語, 強いひと, 強い方, 強い番組, , , 感じ, 技術, 早朝AM5, 最先端, 未来志向, 未来志向なFMラジオ, 深掘り, 番組, , 話題,

検索から生成AIへ。

2024.01.16

Logging

おはようございます、今年は検索から生成AIへシフトする感じになりそうですね。Gさんで実験で運用されている検索と生成AIの中間の技術があるのですが、それが春頃にリリースされると思います。今回は実験で終わらないと思います、理由はBingではすでに導入済みの技術になるからです。

この技術、生成AIという技術はOpenAI社が世界に広めたのですが実際、Gさんは既に技術的には持っていた技術だと自分は思っていて単なるリリースが後追いになっただけの話だと思います。

Gさんは人の指示を理解して家事などが出来るロボットを開発しているのを公開したのが、1年か2年ぐらい前だったと思います。その頃には生成AIなどプロトタイプは出来ていたはずです、なので、Gさんのラボではまだ未発表の技術がかなりあると思います。

人間の話を理解して行動するロボット、米グーグルが試作機を公開

生成AIのことをGさんが失敗と捉えたかがこの先の先進的な技術の公開時期が決まりそうですね、昔は実験的なことをやっていたのに、この頃は昔に比べて慎重になっていたGさん。今年のGさんの動向は注目ですね~。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

bing, OpenAI社, プロトタイプ, ラボ, リリース, ロボット, 中間, , 動向, 失敗, 実験, 家事, 導入済み, 後追い, 技術, 指示, , 春頃, 未発表, 生成AI,

大晦日ですねぇ。

2023.12.31

Logging

おはようございます、今年も今日で最後です、皆様にとって今年はどんな年になりましたか?、自分にとってはいろいろと学びの多い年になりました。いままでとは働き方が変わりフルリモート勤務での働き方で働きだした年になります。

フルリモート勤務でやってみて、良い感じで自分にあった働き方のように感じます。一番良いのは通勤時間がゼロになったことと昼休みも買い出しなんかにも行かなくて良いので、休み時間も無駄な時間がなくなったということですね。あと、chatGPTのおかげで新たな技術もある程度入るのであまり、仕事をしていく中で困ることがほぼ無くなったということです。

white smartphone beside silver laptop computer
Photo by Dominika Roseclay on Pexels.com

IT業者を経営する方はフルリモート勤務オンリーで創業するのも有りだと思います。そうすることで、かなり分業制になると思います。また、光熱費などの費用も抑えることが出来ると思います。今こそフルリモート勤務なのに、大手企業ではフルリモート勤務から会社勤務へと戻す動きになっているそうです。ただIT業界はフルリモート勤務は定着しつつありますよね。

話はつきませんが、ここらへんで〆て、来年も良い一年でありますように。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

ChatGPT, IT業界, IT業者, Photo by Dominika, Roseclay on Pexels.com, おかげ, かなり分業制, ここらへん, フルリモート勤務, フルリモート勤務オンリー, 会社勤務, 光熱費, 大手企業, 技術, 昼休み, 最後, 来年, 皆様, 費用, 通勤時間,

Photo by rovenimages.com on Pexels.com

仮想解像度という技術で4K。

2023.10.22

Logging

おはよう御座います、仮想解像度という技術で43インチのディスプレイを4Kディスプレイにするとどういう感じになるのか、試してみたところ。文字崩れ(ぼや)はあるものの、こういう感じで4Kでは表示されるのかが分かり、今すぐ欲しいレベルではないなという事がわかったので、43インチ4Kを購入するのは控えることにしました。

いま、4K導入しようか悩んでいる方はエヌビディアの設定機能にDSR/DLDSRがあるのでそこを変更することで仮想解像度が擬似的に作ることが可能です。ちなみに自分は解像度は1980X1080で解像度を2倍まで変更することが可能でした。ビデオボードの性能にもよりますが、仮想解像度を変更することが可能です。

尚、近々、全然関係ないのですがコロナのワクチン接種があります😗、せっかくの休日熱を出したくないので速攻、熱冷ましを飲もうと思っています。

明日へ続く。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

43インチ, 43インチ4K, 4K, 4Kディスプレイ, DLDSR, DSR, エヌビディア, コロナ, ディスプレイ, ビデオボード, ワクチン接種, 仮想解像度, 休日熱, 性能, 技術, 文字崩れ, , 解像度, 設定機能, 速攻,

Gさんの崇拝する中の人。 #デジタル信者

2023.02.16

Logging

おはようございます、Gさんの崇拝する中の人です。

さてゼロ知識証明を知っていますか、これから先、このゼロ知識証明にありとあらゆる認証システムが変わっていくと思います。このゼロ知識証明を簡単に教えている動画がワイヤードが作っていたので、YOUTUBEを貼っときます。

「ゼロ知識証明」って何?5段階のレベルで説明 | 5 Levels | WIRED.jp
ゼロ知識証明

今、人工知能のことがメディアで引っ切り無しに放送されていますね。テレビはニュースぐらいしか観ないけど、この頃、AIの放送を聞かない事がないぐらい放送されているということは、もうAIは浸透した技術だと言えるかもしれないけど、逆にゼロ知識証明という技術(理論)?は、その存在を知らないまま一般人に浸透していくシステムだと思います。

まさにゼロ知識証明だなって・・・。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

AI, Gさん, youtube, システム, ゼロ知識証明, テレビ, ニュース, メディア, ワイヤード, 一般人, , 人工知能, 動画, 存在, 技術, 放送, 理論, 認証システム,

見様見真似で創ることの大切さ。 #見様見真似

2023.02.14

Logging

おはようございます、椅子を新調したいのですが今は無理だなって思っている中の人です。

この頃、見様見真似で創れるようになってきたなって思えます。その理由はYOUTUBEやchatGPTなどのツールを使いこなすと師(メンター)はいなくても、何とかなるところまで来ているのかなって思う反面、共同で何かを開発や製品づくりは共有することが大事なことなのかなって思います。

その共同で何かを創るまえに必要な知識や技術は、本当にインターネットの通信回線費だけ払えば、今は誰でも知識を得ることが出来るようになってきているような気がします。

これからの時代、勉強しなかったら差は大きく開くなって思ってしまいます。どんな時代も大変なのですが、これからの人はもっと大変な時代じゃないかってIllustratorでロゴ作りながら思いました。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

ChatGPT, illustrator, youtube, インターネット, ツール, まえ, メンター, ロゴ作り, 共同, 反面, , , 技術, 時代, 椅子, 知識, 製品づくり, 見様見真似, 通信回線費, 開発,

Photo by Alexander Grey on Pexels.com

諦めたいと思った時が続ける時だ。 #KeepGoing

2022.11.24

Logging

おはようございます、昨日はPM4時頃から晴れましたね、高知県の話ですけどw。

さて祝日後の仕事は憂鬱かもですね。そんなモチベーションを下がった時に見る動画。動画でも強調している継続(努力)出来ない人が多い、継続は力なんだと思いますよ。

https://www.youtube.com/watch?v=nxb86cEPp6s

因みに、仕事で大事なのは何かと言えば気持ちです。前向きな気持ちになれる環境が大事になります、人を貶しているような環境の職場ヤバい、そんな環境では生産性は上がりません。そういうのは伝染します、そうなったら足の引っ張り合いが始まり大きな発展はしません。

環境作りは大事だということ、皆がやるぞという環境を作るのが上司の役割なのかなって思います、ダメなものはダメだという意識付けが大事なんだと思います。

マインドが大事、それは技術よりもです、技術は熟していくと最低限の技術は付きます。人を称えない会社に未来あるのかな🤔。

頑張りましょう、いってらっしゃい!!。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

4, KeepGoing, PM, , こと, それ, ため, マインド, モチベーション, もの, 上司, , 仕事, 会社, 伝染, , 前向き, , 努力, 動画, 大事, 強調, 役割, 意識, 憂鬱, 技術, 昨日, , 最低限, 未来, 気持ち, 環境, 生産性, 発展, , 祝日, 継続, 職場, , , 高知県,

Photo by Pixabay on Pexels.com

休みの日はアクセス数が少ないのを打壊したい人いる!?

2022.11.04

Logging

おはようございます、昨日は文化の日でお休みでしたね🫠。

アクセス数ゼロでも毎日のようにブログを書き続けて今のところ、二桁止まりですがアクセス数を維持しています。たまにプレビュー数だと三桁行く時がありますが、今はあまりですね~😗。

さて、そんな自分がアクセス数の増やし方を教えます。アクセス数を増やすには唯、流行の記事を追い求めるだけではダメです。未来を予想してその記事を書くこと。そしてまだ誰もその記事に付いて書いていない事が重要になります。

技術知見の二番煎じです、個人ブログでは検索サイトが拾ってくれません。なので、書くのはほぼ無駄です。たまに自分も書いたりしていますが検索にヒットすることは少ないです。技術知見を書くのなら出し惜しみせず、全力投球で書くことをオススメしますが、初学者への知見は書いても拾ってくれませんので、中級レベルの知見を書くことをオススメします。

上級者の知見は書いても無駄だと思っています。上級者ではないので分かりませんが、そもそも上級者になると論文やドキュメントで事が足りるから、わざわざそこら編を検索するという事は無くなるのではと思っています。

要約するとニッチな戦略で記事を書くべし!古い記事の上書き記事も有効😗

それらの事を注意して記事を量産すると徐々に記事を拾ってくれる確率は増えてきます✌。

尚、SEO戦略なんてブラックボックスのアルゴリズム=重箱(ブラックボックス)の隅のホコリを見つけてこれは宝石だと喜び合うことだと思います。人工知能が文章を理解するよう事を見据えて、今から人が理解できる文章を書くことをオススメします😋。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

アクセス, あまり, おすすめ, お休み, こと, サイト, たま, ため, ところ, ヒット, プレビュー, ブログ, レベル, , 上級, 上級者, 中級, 予想, , , 二番煎じ, , , 休み, 個人, 全力投球, 初学者, 技術, 数ゼロ, 文化の日, , 昨日, , 未来, 検索, 毎日, 流行, 無駄, 知見, 維持, 自分, 記事, , 重要,

素晴らしい曲と素晴らしいWEBサイト。 #cool #site

2022.10.10

Logging

おはようございます。いきなり寒くなってきましたね🐙。

さて、素晴らしい曲と素晴らしいWEBサイトを紹介します。Ayako TaniguchiさんのWEBサイト、そして流れる曲も素晴らしいな、自分はこういうサイトを作りたいと思っていても、何処をどうすれば良いのか分からない。おそらくjavascriptかnode.jsなど動いているだろうなって想像は付くのだけど。

そうではないだよね。それは技術的な話で実際にそんな技術があっても、こういうのはセンスの問題が大きく伸し掛かるだなって思います。映像+WEB+音楽が全てレベルが高いサイトってあまり見かけない中、このサイトは秀でる才能の塊だと思います。こういうサイトを見ると自分も頑張ろうって気になります👍。

最後にリンクを貼っときます。

https://ayakotaniguchi.jp/

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

Ayako, cool, javascript, JS, node, site, Taniguchi, web, サイト, センス, それ, リンク, レベル, , 何処, 全て, 問題, , 実際, 想像, 才能, 技術, 映像, , 最後, , 紹介, 自分, , 音楽,

Photo by Pixabay on Pexels.com

何気なく書いていた事が結構な確率で当たる。#未来予知 #高的中か?

2022.10.09

Logging

おはようございます、コロナが収まりそうなのに戦争はまだ収まりそうにないです。ロシアは領土を奪って何得なんでしょうか。意味が分かりません。

さて、過去のブログ記事を定期的に見たり修正したりしています。これを行う理由は一つだけ意味不明な文章表現があり本人しか意味がわからないモノが存在します。その為、定期的に変な文章は直したりしています。

Tesla AI Day in 23 Minutes (Supercut) (2022)

毎日書けば文章力や表現力は、どんな人でもUPします。泥臭いことですが技術力を上げようと思ったらひたすら真っすぐ頑張るしか無いです。必要な知識は日々の勉強でしか埋め合わせは出来ないです、技術や知識を身につける方法はひたすら覚える事から始まります。覚えて基礎が身につけば応用学習するその反復を行って身につく。この方法しかなく脳にデータをインストールは今のところ出来ない、記憶力は人それぞれなので、身につく事が早い人と遅い人がいるけれど反復学習をすれば身につきます(脳に障害がある人は難しいけども)。

タイトルの話になりますが、結構な確率で自分の未来予想があたっているなって最近思います。特に科学的な進歩や社会にどう浸透していくなどは、結構、的を得た予想をしているなと自画自賛😐。未来予測が当たっても何の得にもならないけれどもアタルのは良いことです。

此処で一つ未来予想を書きます、昨日きな臭い記事の書いたけど、来年の夏までにはロシアVSウクライナの戦争は終わるじゃないかって思っています、なんかそんな気がします。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

UP, インストール, こと, これ, コロナ, それぞれ, データ, ところ, ブログ, もの, ロシア, 一つ, 不明, 予知, , , , 修正, 勉強, 反復, 基礎, , 存在, 学習, , 必要, 応用, 意味, 戦争, 技術, 技術力, 文章, 文章力, 方法, 日々, 未来, 本人, 毎日, , 理由, 的中, 知識, 確率, 結構, , 表現, 表現力, 記事, 記憶力, , 過去, 障害, 領土,

Photo by Craig Adderley on Pexels.com

いろいろ問題のあるテスラだけど凄いなと思う😶。

2022.08.28

Logging

こんにちは、秋模様ですね、今日は一日こんな天気だと良いですけど昼から気温が上がりそうですね。

さて、いろいろ問題のあるテスラだけども自動運転技術はほぼ完全自動運転になりつつある。

Flying Through Giga Berlin
ワンショット

またテスラの生産ラインもかなりオートメーション化が進んでいる模様です、このまま、自動化が進むと本当に人は何もしなくて良くなる時代が来るのかもしれない。それが良いことかどうかは分からないですけど、100年後に自発的に仕事をしたいと言うと変わってますね、なんて言われるかも知れません。

そんな感じで恐らく今世紀中には自動化により殆どの事がAIやロボットに取って変わることになると思います。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, 100, 4, 7, AI, CnXE, com, https, watch, www, youtube, yOx, いろいろ, オートメーション, かなり, こと, このまま, それ, テスラ, ライン, ロボット, ワンショット, , , , 今世, 今日, 仕事, , 問題, 天気, 完全, 感じ, 技術, , 時代, 本当, 模様, 殆ど, 気温, 生産, , 紀中, 自動, 運転,

Photo by Francesco Ungaro on Pexels.com

Laravelで再構築した2bbs-video.comをヨロシク😌

2022.08.10

Logging

こんにちは、よさこいをしている踊り子さん達へ、熱中症にはお気をつけてくださいませ。

本日はあまり使用されていなかった、2bbs-video.comをLaravelで再構築したお話を記載します。2bbs-video.comはYOUTUBE動画を共有するのに特化したサイトになります。当然、YOUTUBEのアドレスのない投稿はできません。今のところ動画の投稿内容は管理人が独断と偏見で管理します、その為、投稿していた内容が削除されるという事もあります。

2bbs-video.comのサイトキャッチャー

サイトをLaravelで再構築していて、ページネーションが半端ないぐらい楽に生成できたのは凄く便利だなって感じましたが、逆にベタで構築できる技術も必要じゃないかなって思います。

そしてLaravelにはパッケージが豊富にあるのだけど、正直な所、どれが良いパッケージ(有名所)なのか分からないので調べる必要があるなって感じました。それまでは自分で作るしか無いかもしれない、そういう所などの経験値を積まないとLaravelゴリゴリ使えますとは言えないなと。ただ、大体の勘所は掴めましたね。あとは習うより慣れろ感覚でいろいろと制作していきます😌。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

2, bbs-video, com, Laravel, youtube, アドレス, お気, お話, キャッチャー, サイト, ところ, どれ, ネーション, パッケージ, ページ, ベタ, よさこい, , , 使用, 便利, 偏見, 共有, 内容, 削除, 動画, 半端, 必要, , 技術, 投稿, 有名, 本日, 構築, 正直, , 熱中症, 特化, 独断, 生成, 管理, 管理人, 記載, 調, 豊富, 踊り子, ,

Photo by Pixabay on Pexels.com

映画、キングダム2 遥かなる大地へ:実写化された映画の続編おそらく三部作?

2022.07.01

Logging

おはようございます。土曜日は局地的に大雨が30分ほど振りましたよね。

さて、7月15日から一般上映されるキングダム2ですが実写キングダム1は映画館で観てきています。でっ今回、キングダム2が上映されることになっています。

映画『キングダム2 遥かなる大地へ』TVCM【不撓不屈篇】<7月15日(金)公開>

そこで自分から警告メッセージを書くとするのなら、まずは実写映画化されたキングダム1を観てからキングダム2を観るか否かを判断したほうが良いです。これが受け入れられない人はキングダム2は観ない方が良さげです。

それなりにHITするとは思うのだけどやはりCG映像には未だにアメリカと日本とでは技術に差がある感じです、なのでいくら作品が良くても気になってしまいます。今のところ自分はどちらかと言えば観に行こうとは、あまり考えていませんが機会があれば見に行くかもぐらいです。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

, 15, 2, 30, 7, Cg, HIT, アメリカ, キングダム, こと, これ, そこ, それなり, ところ, どちらか, メッセージ, 一般, 三部作, 上映, , , 今回, 作品, 判断, , 土曜日, 大地, 大雨, 実写, , 感じ, 技術, , 日本, 映像, 映画, 映画館, 未だ, 機会, , 続編, 自分, , 警告,

AWSからVPSへ鞍替えするつもりでいますが😌

2022.06.28

Logging

おはようございます。6月ももうすぐ終わりますね。

AWSからVPSへ鞍替えするつもりでいます。今すぐに鞍替えするつもりはないのですが数カ月後には鞍替えするつもりでいます。もしくはAWSのライトセイルに戻すかもしれません。理由は金銭面で経費削減です~😌。

7月15日にお仕事を辞めるので金銭的に安定的に収入が入らなくなりますから、固定費は下げれるところは下げたいというのが、本音です。直ぐにでも変えたいとも思っていますが・・・こればかりはSEOの事情により変えれないのです…。何せこのAWSで動かしてまだ数週間しか経過していなくて、ここでまたサーバーの引っ越しなんてしていたら、アクセス数が激減してしまいますからね。

この頃、気づいたのですが技術ネタの方がGさんの検索に載りやすいですが、技術ネタは一般人にはあまり受けが良くないのですね。パソコンのお困りネタをアップすれば大衆に受けるでしょうけど、プログラマーなので普通の使用では困ったことがないので、何を書けば一般人にウケるのかが分からないのです。

ともあれ、数ヶ月後にはAWSをおさらばします。このまま、円安が続けば企業も日本サーバーを使用する会社も出てくるのかもしれませんね。

追記:近日中に変更します。背に腹は代えられない😂。

著者名  @taoka_toshiaki

※この記事は著者が40代前半に書いたものです.

Profile
高知県在住の@taoka_toshiakiです、記事を読んで頂きありがとうございます.
数十年前から息を吸うように日々記事を書いてます.たまに休んだりする日もありますがほぼ毎日投稿を心掛けています😅.
SNSも使っています、フォロー、いいね、シェア宜しくお願い致します🙇.
SNS::@taoka_toshiaki

OFUSEで応援を送る

タグ

15, 6, 7, AWS, SEO, VPS, アクセス, アップ, お仕事, ここ, こればかり, サーバー, セイル, つもり, ところ, ネタ, パソコン, プログラマー, ライド, 一般人, 事情, 使用, 削減, 収入, 固定, 大衆, 引っ越し, 技術, , , 普通, 本音, 検索, 激減, 理由, 経費, 経過, 金銭面, 鞍替え, ,